成都银行正式递交IPO申请 拟发行不超8亿股普通股
06-17
ChatGPT的出现,让AI技术成为科技圈的热门玩家。
几乎通用的ChatGPT使得诸如写电子邮件和适配功能之类的重复性任务变得毫无意义。
写代码、写小说、写PPT等任务就更方便了。
但讨论 ChatGPT 可以做什么以及它可以取代什么已经过时了。
现在人们想知道下一个“ChatGPT”在哪里?微软的新必应?现在队列可能会永远持续下去。
百度的文心一言?距离 3 月 16 日正式发布已经很近了。
谷歌的吟游诗人?这更是一个未知数。
除了 ChatGPT 之外还有其他聊天机器人吗?别担心,什么都懂一点的微信不会轻易让你失望的。
去年10月,微信悄然发布了名为WeLM的语言模型。
当时,微信对WeLM的定义只是一个会“胡言乱语”的AI。
现在回想起来,WeLM的“胡言乱语”能力已经达到了我们对文本生成AI的期待。
不过,微信强调,WeLM不是聊天机器人,而是一个完成用户输入信息的生成模型。
据微信反馈,WeLM只是微信内部的一个创新实验项目。
目前还没有计划应用到实际产品中,也不会和微信小程序的体验相关。
WeLM今后可能会时不时地被下架。
WeLM在八项全能能做什么?首先,给它一个关于阿房宫的问题,看看它有多少知识。
看来这个答案并没有什么问题。
让我们看看它对第二维度了解多少。
看来一些基本的二维常识对于WeLM来说还是太简单了。
既然常识知识无法战胜他,那我们就向WeLM询问最新情况,看看他能否回答。
当我问他是否了解ChatGPT时,WeLM开始给出错误的答案,而且他的答案与事实完全不同。
问一些更具体的问题,比如《可爱女人》的第一句歌词是什么? ▲ 坐在船头的可爱女人是异次元混搭……WeLM的表现也不尽如人意。
这也是WeLM的局限性。
根据微信团队给出的解释,WeLM并不是一个直接说话的机器人,而是一个完成用户输入信息的生成模型。
WeLM的全名是Well-Read Language Model。
最大的模型版本训练参数达到1亿。
它的优势在于它能够理解和生成中文。
它可以在零样本或少样本情况下完成多种NLP任务(包括多语言任务)。
)。
根据官方提问教程,WeLM回答问题的重点应该是“补全句子”。
例如,在“给猫命名”的例子中,提问者需要先给WeLM举一些例子,然后让WeLM来完成。
或许是因为测试版本的缘故,目前WeLM答案的分歧似乎比准确度还要大。
因此,你会发现WeLM可以回答一切,但他的回答可能并不准确。
对于其中的一些“废话”,我只能说大家见笑吧。
这种补全内容的答题机制可以催生出多种多样的玩法。
微信官方为此一共提供了八种模式:“对话、文案生成、文本重写、阅读理解、翻译、文章接续、自由任务”。
让我们先尝试一下产品副本生成。
我用它为糖厂的硬糖充电头生成了产品副本。
前半部分看起来还不错,但是当我写后续的产品描述时,CPU似乎超载了。
不得不说最后一句“甜甜的味道只为爱情”有点耐人寻味。
我们来试试翻译,这是微信的强项。
我用它把 OpenAI 的介绍翻译成 ChatGPT,WeLM轻松完成了任务。
据官方报道,WeLM不仅可以完成多种语言之间的翻译,还可以同时翻译多种语言的段落。
比如这个同时包含中文、英文、日文的复杂句子,WeLM完全可以翻译出来。
当你在阅读像公司财务报告这样长而复杂的文章时,你可以将其复制到WeLM中,然后使用“阅读理解”直接检索出你想要的信息。
不过,WeLM的认识还比较肤浅。
他基本上只能回答可以直接从文章中检索信息。
如果你想问他,根据苹果公司的年营收和增长率,苹果公司的营收是多少,那么它就无法计算出拐弯之类的问题。
也就是说,你需要使用更精确的提示命令,才能够让它做出应答。
WeLM的对话功能是一个非常可玩的功能。
你可以通过一系列提示词为WeLM设定一个角色(成为李白、成为史蒂夫·乔布斯、成为马斯克),实现跨越时空的对话。
我试图请WeLM饰演的李白对杜甫作出评价。
《李白》评价读杜甫诗如饮一壶美酒,还引用了杜甫的《哀江头》。
《哀江头》成书于至德二年,李白卒于宝应元年。
也许李白生前确实读过杜甫的《哀江头》。
你还可以请WeLM扮演马斯克,请他对特斯拉、推特、自动驾驶等问题发表评论,甚至采访他对李白的看法。
WeLM是怎么做到的呢?经过一番体验,我明显感觉到WeLM比ChatGPT更依赖于精准的提示词。
虽然两人都拥有很强的自然语言理解和表达能力,但WeLM的学习和使用成本更高。

在让WeLM回答问题之前,需要把回答问题的逻辑解释清楚(举例回答)。
你还需要不断打磨提示词,最终得到你想要的答案。
相比之下,ChatGPT则是一位平易近人的隐士,能入山水,退隐下层百姓。
无论是简单的问题、文章总结,还是复杂的编程问题,ChatGPT 基本上都能解答。
▲ 图片来自:微信AI 这当然也和两者的模型算法和训练参数有关。
WeLM的主要优势之一是它使用多样化且广泛的中文网页、书籍、新闻、论坛和学术论文数据集进行训练。
,理解中文的能力会更加突出。
WeLM的学习数据来源主要是近两年从Common Crawl下载的中文网页数据。
此外,还包含大量书籍、新闻、论坛数据和学术论文,总数据量达10TB。
▲ 图片来自:微信 AI 抛开 ChatGPT 这样的尖子生,与 CPM、华为盘古、百度厄尼 3.0(文心一言的前身)等同级别模型相比,WeLM在 14 项 NLP 任务上基本表现良好。
能够取得领导地位。
不幸的是,这只是微信的一次实验性尝试,未来可能会不时下架。
短期内我们应该很难在微信上看到类似的智能聊天功能。
本文仅用于分享功能体验。
体验网址:这只是微信内部的一个创新实验项目。
目前尚无应用于实际产品的计划,也不会与微信小程序的体验相关。
请保持开放和探索的心态来体验它。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-17
06-18
06-17
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态