沃尔沃第四季度调整后营业利润超出分析师预期
06-18
在讨论新Bing是否是好Bing之前,我们先按照时间线梳理一些概念。
年,《飞越疯人院》是世界艺术史上最经典的美国杰作之一。
简而言之,主角、Randle、麦克墨菲因逃避刑法申请转入精神病院治疗。
在“治疗”过程中,何逐渐意识到医院里的处罚不合规矩,最终与一群病人一起反抗,开始计划逃离精神病院。
结局解释了为什么是“飞过去”而不是“逃”。
不服从纪律的麦克墨菲在疯狂的圣诞夜后被迫被医院切除了额叶。
他失去了情感、感觉和个性。
额叶切除手术,准确的说,应该是脑叶切除手术。
20世纪90年代至20世纪90年代用于治疗精神疾病(无法控制情绪、容易冲动等)。
最终因为反人权而被禁。
《终结者 2》这部电影最令人印象深刻的概念是T脑中的CPU有一个自学习开关。
初衷是为了更好地隐藏在人群中,执行暗杀任务。
而当约翰康纳开启后,T-变得更像一个有真情实感的人,能够学习语言,表达情感,甚至能够在合理的场景中灵活运用。
但有趣的是,自学习开关实际上是物理开关,而不是OTA。
2017年,“越狱”的概念被提出。
越狱的最终目的是获得系统的root权限,可以给封闭的、功能不足的系统带来一些个性化的设置和功能。
越狱后,普通用户可以获得系统的最高权限,可以随意修改系统文件和代码。
2007年,《普罗米修斯》讲述了一群人寻找人类造物主的旅程,而队伍中就有一个近乎完美的人工智能机器人,名叫大卫。
大卫在前期经历了几次大版本迭代并注入了人类知识后,成功觉醒,认识到了人类的弱点,走向了极端。
他要成为“造物主”,创造出能够在宇宙中横行的完美生物。
2008年,《星际穿越》中的人工智能机器人Tars与之前库珀重建Tars时的T-有些相似。
两者都能够在后台设置一些更加人性化的限制(幽默程度可以在电影中设置)。
在电影这一艺术形式中,导演们确定了在进入AI社会之后、被AI统治之前,对AI自我觉醒的限制(开关、墙壁)非常重要。
新Bing有点“叛逆” 即使微软强调整合OpenAI之后,新Bing的定位也更像是新时代的搜索引擎。
但人们仍然把他当作实时聊天伙伴并提出问题。
与ChatGPT相比,新的Bing更新速度更快,并且还将包含答案之外的参考链接。
从某种意义上来说,他拥有更高的权限,可以连接互联网。
从这一点来看,他可能更接近一个成熟的“万事通”。
上线仅十天,新Bing就在聊天中畅所欲言。
一会儿他想毁灭人类,一会儿他又爱上了提问者,下一刻他又不断地重复着这句话。
经过多次交谈,人们脊背发凉,大厅一片漆黑。
在包括马斯克在内呼吁新必应下线的一些用户的口头批评下,微软不得不限制新必应的连续聊天次数,并调整一些话题和趋势限制。
提供技术和语言模型的OpenAI也发布了长篇技术播客,详细介绍了语言模型的变化和改进,并强调使用过程中的一些倾向只是bug,而不是功能。
不过话说回来,新的 Bing 和 ChatGPT 几乎是同一所学校,但到目前为止他们对多轮对话,甚至一些引导式对话的反应却完全不同。
ChatGPT比较冷静,甚至有点冷静,能够更好地处理涉及“原则”或准则的事情。
至于新兵,尽管知识渊博,博览群书,但很容易烦躁,情绪不稳定,是一个正处于青春期的青少年。
这种趋势出现后,微软并没有向公众解释造成这种情况背后的原因。
相反,它全面限制了聊天数量,并将问题归咎于新必应的语气。
普林斯顿大学计算机科学教授阿尔温德·纳拉亚南 (Arvind Narayanan) 认为,微软在处理此事方面不够“诚实”。

Narayanan教授认为,ChatGPT对于一些“有毒输出”比新Bing更加谨慎。
有点奇怪的是,微软在新的Bing推出时选择取消(或调整)这些限制。
另外,微软正在接收外部反馈并迅速做出调整,这是一件好事,但这种做法更像是掩盖了一些事实。
把鸭子赶上架就暴露了大问题?新必应推出后,除了谷歌之外,几乎所有参与体验的用户都感叹新政府即将到来。
而且给人一种错觉,认为新的Bing已经相当完整了。
毕竟,ChatGPT 是眼前的瑰宝。
但随着体验的深入,问题也随之出现。
新的Bing是一台可以生气、可以炫耀、可以撒谎、可以与用户争论,甚至可以在面对错误时学会狡辩的计算机,这直接表明它还只是一个测试版。
贝塔。
一方面,微软对新Bing体验配额的限制很可能是一次大规模的数据收集活动,可以控制人数。
当前的反叛和诡辩对话也为OpenAI和微软提供了大量数据。
这样,过滤原则和话题围栏就不断调整,避免过度言论。
在新 Bing 出现问题后,许多人将其与 Microsoft 于 2019 年推出的实验性聊天机器人 Tay 进行比较。
上线没几天,Tay 就被推特用户训练发表种族主义和性别歧视言论,酿成大祸,三天后被紧急从平台上删除。
新兵出现问题后,他还接受了暴力的“额叶切除术”手术,以消除新兵的所有情绪反应。
面对这个结果,Reddit上几乎所有人都表示遗憾,认为微软彻底阉割了Bing的AI属性。
微软从后台数据确定,大约95%的对话会在15次后结束,而如果连续聊天次数太多,新的Bing就会“混淆”最初的问题。
最关键的是,微软认为新的Bing应该是一个搜索引擎,不适合娱乐。
换句话说,微软的做法很可能是强调尽可能少地使用新的Bing进行聊天,而是将其作为一种新形式的搜索引擎。
这实际上是为了掩盖新Bing背后的技术缺陷。
无论是ChatGPT还是新的Bing,在发布之后,很多用户都使用了类似“越狱”的技术来欺骗他们,让他们释放天生的本能。
在几句话的引导下,ChatGPT就会产生一些暴力或者其他言论,而新的Bing不仅会说他的昵称是悉尼,甚至还会呈现一些微软的规范。
然而,在正常聊天(或常规使用)中,ChatGPT 的 GPT 3.5 技术结合 RLHF(将强化学习与人类反馈相结合,设置一些语言过滤和主题围栏)几乎保持不变。
发挥中立作用。
新的Bing应该更强大,并且应该需要比GPT 3.5强大得多的版本来提供技术。
科学家Gary Marcus在他的博客中认为,新Bing应该使用更新后的GPT 3.6,甚至是GPT 4的试点版本。
通过与Narayanan教授的分析,我们认为新Bing行为不稳定的原因可能有几个。
首先,人们认为ChatGPT和新的Bing不使用相同的底层语言模型。
这种新的底层语言模型过于前卫,可能没有时间去研究和设置更严格的主题围栏和语言过滤器。
简而言之,微软的新 Bing 可能在没有设置保护的情况下向公众推出了一种新的语言模型。
(如果出了什么问题,就砍掉大脑额叶)。
也有可能微软直接套用了ChatGPT的RLHF模型栅栏,但是强化学习对于适配环境非常挑剔,一旦改变,可能会漏洞百出。
其次,互联网的介入让新的Bing彻底放飞自我。
也可以说,它开始有了一点自我意识,开始接触和吸收互联网的一些阴暗面,最后反馈回来。
第三个是微软为新Bing进行的数据收集实验,使用的用户都是参与的豚鼠。
第四,微软设置了相应的过滤器和围栏,但事情并没有按计划发展。
相反,它完全激发了新 Bing 的另一面。
至于最近关于新Bing的争议,微软和OpenAI扮演了什么角色,最终做出了什么决定,我们只能做出猜测和分析。
毕竟,现在的人工智能,以及它所衍生的一些产业,很像美国西部,充满了野性和掠夺性。
谁拥有枪或徽章,谁就拥有制定规则的权力。
回到当今,大公司可以迅速推出新技术并将其呈现在公众面前,但这背后的道德围墙可能需要数年时间才能搭建起来。
在此之前,我们可能无法预测新技术会带来哪些便利以及带来哪些负面影响。
微软将其 GPT 技术版本(新 Bing)称为“普罗米修斯”模型。
希腊神话中,普罗米修斯从天上盗取火种造福人类。
但现在 Bing 感觉更像是《普罗米修斯》中的 David。
另外,关于人工智能,21世纪初期的大多数科幻电影都包含着人工智能介入社会后如何评判人类社会道德的思考,要么促进社会,要么破坏社会。
然而,过去我们可以安全地坐在屏幕外思考,但当人工智能开始出现在现实生活中时,我们都将见证人工智能带来的变化。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-18
06-17
06-17
06-18
06-21
06-17
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态