空气产品公司将为三星电子位于西安的第二个 3D V-NAND 芯片工厂供应空气
06-06
我们与工具的关系从来不仅仅是“使用”和“被使用”。
虽然ChatGPT让更多人关注到AI的潜力,但我们其实很早就开始使用融入AI的工具了。
然而,我们对工具对人的影响的了解仍然有限。
很多人已经知道,社交媒体平台的推荐算法不仅让手机“更好用”,更以“猜你喜欢”把用户拉入信息茧。
那些自动纠正拼写、自动生成电子邮件回复、生成PPT的AI工具,你可能会觉得你在指挥他们的工作,但这些工具确实不像你想象的那样“中立”。
当你写的时候,你就会被说服。
越来越多的研究指出,人工智能工具可以在人们没有意识到的情况下改变他们的想法。
最新的一项研究指出,当研究对象使用 AI 辅助撰写论文时,AI 会基于自身的偏见,推动研究对象写出支持或反对特定观点的论文。
同时,论文写作的过程也会极大地影响用户对这个话题的看法。

康奈尔大学的莫尔·纳曼(Mor Naaman)将这种行为称为“隐性说服”,并表示人们“甚至可能不知道自己正在受到影响”。
虽然人工智能可以让人们变得更有效率,但它也可以潜移默化地改变人们的观点。
而且,人工智能改变人的方式更像是一个人通过合作和社交活动来改变和说服另一个人,而不是像社交媒体影响我们的方式。
另一项研究着眼于 Gmail 的智能回复功能。
在该功能的帮助下,人们会发送更多积极的回复,用户之间的交流也会更加活跃。
第二项研究表明,这种自动回复也让收件人认为发件人更热情、更合作。
考虑到微软、谷歌等公司正在将人工智能有机地融入到各种办公软件中,人工智能对人们的进一步影响指日可待。
在最坏的情况下,那些拥有权力和技术的人可以通过这些看似无害、提高生产力的工具来推动和影响人们对某些事物的态度。
与社交媒体上应用的推荐算法、过滤气泡、兔子洞相比……这里最有趣的是它的“秘密”。
发现这个问题的研究人员认为,最好的防御措施是让人们意识到这个问题。
从长远来看,要求人工智能透明的监管是让用户知道特定人工智能存在哪些偏见的另一种方式。
哥伦比亚大学教授莉迪亚·奇尔顿指出,当人们了解人工智能所持有的特定偏见并选择利用这种偏见为自己谋利并决定何时使用它时,人们就会重新获得自主权。
这是一种“偏见”和“目标观”。
AI没有“价值观”,但由于训练材料和训练人的价值偏差,AI就会产生偏差。
研究人员认为,这种偏见在某种程度上可以帮助我们了解特定群体对特定事件的态度。
不过,在使用它之前,我们首先要研究清楚AI的偏见是什么。
Tatsunori Hashimoto博士和同事想出了一个方法——让AI来做问卷。
桥本的团队要求AI对皮尤研究中心的理念进行民意调查,并将AI的结果与皮尤自己的调查群体进行比较,以找出特定AI的“偏见”与哪个群体更相似。
研究发现,OpenAI语言模型(不是最新版本)的“偏见”并不符合大多数美国群体的观点,而是更接近大学生群体。
研究推测,或许因为这个群体的人最有可能负责类似语言模型的调整,所以语言模型更能反映这个群体的想法。
哥伦比亚大学教授莉迪亚·奇尔顿认为,当人们能够清楚地看到人工智能背后的“偏见”立场是什么时,我们不仅可以避免受到“隐性说服”的影响,还可以更好地利用这些工具。
例如,销售部门可以创建一个以销售为中心的AI助手,以完成销售为目标;客户服务部门还可以创建自己的服务型人工智能助手,以让客户满意为目标。
此外,人们还可能积极地使用特定的人工智能来推动自己走向特定的表达(或他们的理想表达):我发现兴奋并用快乐的语气说话很累。
一般来说,咖啡因对此有一点帮助,现在 ChatGPT 也可以提供帮助。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-18
06-18
06-17
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态