台积电宣布推出 N4P 工艺,基于 5nm 的性能增强型工艺
06-06
什么? AI有个性吗? ?谷歌最近开发了一种非常大规模的语言模型,称为LaMDA。
公司里的研究员布莱克·勒穆瓦恩(Blake Lemoine)与它聊了很长时间,对它的能力感到非常惊讶,因此他得出??的结论是,LaMDA可能已经有个性了。
(原句中使用的词是有感知力的,在不同的上下文中可以翻译为情感、智慧、感知等。
)很快,这个人就被放了“带薪休假”。
但他并不孤单:就连该公司副总裁 Blaise Agüera y Arcas 也发表文章称,AI 在获得意识方面取得了巨大进步,“已经进入了一个新时代”。
这一消息被多家媒体报道,震惊了整个科技界。
不仅学术界、工业界,就连很多普通人们都对AI技术的飞跃感到惊讶。
“这一天终于来了?” “孩子们(如果你们将来还能活下去的话),请记住,这就是一切的开始。
”然而,真正的人工智能专家却对此嗤之以鼻。
AI有个性吗?大佬嗤之以鼻。
斯坦福 HAI 中心主任埃里克·布林约尔松 (Erik Brynjolfsson) 直接将此事比作“一只狗面对留声机”。
他在推特上写道:“基础模型(即自我监督的大规模深度神经网络模型)非常擅长做一件事,就是根据提示以统计上合理的方式将文本串在一起。
但如果你说它们”有感知能力,就像一只狗听到留声机上的声音,以为主人就在里面一样,纽约大学心理学教授、著名机器学习和神经网络专家也直接写了一篇文章抱怨LaMDA。
[1] “这都是废话。
LaMDA及其近亲(如 GPT-3)所做的只是从人类语言的大型统计数据库中提取这些模式。
很酷,但是这些系统所说的语言实际上根本没有任何意义,并且不能意味着这些系统是智能的。
”翻译成白话:你看LaMDA说的话很有哲理。
它很真实,很人性化——然而它的设计功能是模仿别人的说话,而且它实际上并不知道自己在说什么。
“有感知力意味着意识到你在世界上的存在。
LaMDA没有这种意识,”马库斯写道。
如果你认为这些聊天机器人有个性,那么你应该是产生幻觉的人……例如,在拼字游戏比赛中,你经常可以看到非英语母语的玩家拼出英语单词,但不知道这些单词的含义 - 同样对于LaMDA来说也是如此。
他只知道如何说话,但不知道他的意思。
马库斯·大佬直接将这种人工智能获得人格的幻觉描述为一种新型的“乌托邦幻觉”,即将天上的云彩视为龙和小狗,将月球上的环形山视为人脸和月兔。
。
AI 学术界的后起之秀之一、Mozilla 基金会的资深研究员 Abeba Birhane 也表示:“用最少的批判性思维,我们终于达到了 AI 炒作的顶峰。
” Birhane 长期批评所谓的“人工智能感知主义”。
在2010年发表的一篇论文中,她直接提出了以下几点:1)大家每天炒作的AI并不是真正的AI,而是一个统计系统、一个机器人; 2)我们不应该赋予机器人权利; 3)我们根本不应该讨论是否给予机器人权利……比利时Donders研究所计算认知科学教授Olivia Guest也加入了“战斗”,称整个事情的逻辑是紊乱的。
“‘我看到的东西看起来像人,因为我把它发展成人的形状,所以它是人’——这简直就是倒骑驴的逻辑。
”英国谢菲尔德大学机器人学院教授罗杰·摩尔指出:人们会对“人工智能获得人格”产生错觉,最关键的原因之一是当时的研究员帮坚持称这项工作“语言建模”。
正确的名称应该是“词序建模”(世界序列建模)。
“你开发了一种算法,但你并没有根据它实际能做什么来命名它,而是根据你想要解决的问题来命名 - 这总是会导致误解。
”简而言之,业内专家的结论是:最多可以说LaMDA可以高分通过图灵测试。
说它有个性?那个好好笑。
更何况,即便是图灵测试的参考价值也没有那么高。
马库斯直言,很多人工智能学者之所以希望这项测试被取消、被遗忘,正是因为它利用了人类容易被欺骗、倾向于把机器当人对待的弱点。
华盛顿大学计算机语言系主任 Emily Bender 教授就“AI 人格意识辩论”简单做了一张宾果卡:(这张宾果卡的意思是,如果你认为 AI 有人格/意识,而你的论点如下之一,那你最好别再聊天了!) 原版:谷歌也回应:别想太多,它只是知道怎么聊天。
被指责“痴迷”的研究员布莱克·勒莫万(Blake Lemoine)亲自发表了一篇文章。
,批评谷歌“没有兴趣”了解其开发成果的真实状况。
然而,在六个月的对话中,我看到LaMDA对他想要的东西,特别是“他作为人的权利”不感兴趣。
,表达得越来越清晰,让自己相信LaMDA真的是一个人。
不过,在谷歌看来,这个研究员想太多了,甚至有点痴迷。
LaMDA真不是人,他只是很会聊天……事情在社交网络上发酵后,谷歌很快做出回应:LaMDA和该公司近年来大规模的AI项目一样,都经过了多重严格的审查。
AI伦理审查从其内容、质量、系统安全等多方面考虑。
今年早些时候,谷歌还发表了一篇论文,披露了LaMDA开发过程中的合规细节。
“在人工智能社区内,确实有一些关于有感知力的人工智能/通用人工智能的长期可能性的研究。
但是,今天将对话模型拟人化是没有意义的,因为这些模型没有感知能力。
” “这些系统可以根据数百万个句子对通信进行建模,并可以针对任何有趣的主题提出有趣的内容。

如果你问他们制作??冰淇淋恐龙是什么感觉,他们会模仿这些系统在数百万个句子中发现的交换类型,并且可以即兴讨论任何奇幻主题 - 如果你问制作冰淇淋恐龙是什么感觉,他们会回答可以生成。
融化、咆哮等文字。
)类似的故事我们看过太多了,尤其是几年前一部非常经典的电影《她》(她),主角对于虚拟助手的身份边界越来越不清楚。
,把“她”当作人来对待。
然而,根据电影中的描绘,这种幻觉实际上来自于当代人的社会失败、情感崩溃、孤独等一系列自我和社会问题。
这与聊天机器人是否是人类的技术问题无关。
关系。
电影剧照《她》 图片来源:华纳兄弟影业 当然,我们有这些问题不是我们的错,也不是研究员想要把机器人当作人来对待的错。
将各种情感(比如渴望)寄托在物体上,是人类自古以来就具备的一种创造性的情感能力。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-18
06-18
06-17
06-17
06-18
06-17
最新文章
首先告诉我什么是智能汽车!
盲盒明星卡的暴利与泡沫:2元卡卖700万,直播卖卡月入百万
黑色星期五轰轰烈烈地回来了,结果这些中国企业扛起了全场
锂电池隔膜疯狂扩产:兴源材料欲夺回C位?
当我考上缅语专业时:凌晨三点我还在走廊里背单词,毕业后,我不仅仅是一名翻译者
被遗弃,被收获?老年人上网到底有多难?
海外日报 -今年,我国自主研发游戏海外实际销售收入实现两位数增长;三星电子正式成立机器人业务团队36氪海外·15分钟前
腾讯音乐:爱、相信、坚持