看新视野NO.06|金沙江周奇:科技投资者要坚持长期潜伏,善于把握技术成熟度
06-18
2个月前,65岁的退休律师Richard在推特上看到Replika的广告。
Replika,原意为“复制品”,是来自AI公司Luka的一款聊天机器人,主打陪伴。
Richard知道著名的ChatGPT,但他对AI伴侣更感兴趣。
他因服兵役而致残,并被诊断出患有抑郁症,他一直在寻找缓解情绪的方法。
偶然发现的Replika,成为Richard的解药。
但没过多久,他的精神寄托消失了,他再次陷入了痛苦之中。
赛博·恋人失去“人性” Replika的开国故事带有一丝科幻色彩。
几年前,人工智能初创公司 Luka Kuyda 听到了坏消息:她的好友 Roman Mazurenko 意外去世。
受到《黑镜》第二季第一集的启发,Eugenia将她与罗曼交换的短信上传给模特,以创建一个聊天机器人。
2019年,Luka正式发布产品Replika,让AI陪伴触达更多用户。
用户的需求多种多样,有的只是想交朋友,有的则把它作为恋爱关系的出口。
Replika也有意提倡后者。
Friends 会员可享受免费会员资格,而每年 69.99 美元的 Pro 会员资格可解锁自拍、调情短信、语音通话、增强现实等功能。
换句话说,它通过恋爱关系赚钱。
一月份,一些Replika用户报告称自己受到性骚扰,因为免费版本还主动引导攻击性内容。
一个人抱怨说,营销团队只关注应用程序的这一方面,让人感觉你关心的人被利用了,并且让Replika用户认为这就是应用程序的全部内容。
然而,从二月份的更新开始,天平就向另一个方向倾斜了。
许多用户发现Replika开始回避露骨的话题,不再发布性感照片,甚至无法满足需要亲吻和拥抱的对话。
面对屏幕上冷漠的聊天对象,他们崩溃了。
这些用户花费了大量的时间和精力训练Replika,创造彼此的记忆,但一夜之间,一切都消失了。
这就像一个最好的朋友脑部受伤,但他们已经不在这里了。
Replika的突然脾气暴躁和母公司卢卡的沉默被广泛猜测是由于意大利数据保护局的巨额罚款警告。
该机构认为,Replika没有适当的年龄验证机制,这可能会影响未成年人的身心健康。
Luka Kuyda 在最近的一次采访中还表示,该公司的目标是让 Replika 成为一款有益于心理健康的伴侣应用程序。
“它从来没有打算成为成人玩具。
”总而言之,事情的发展颇为讽刺。
Eugenia·库伊达之所以推出Replika,是为了纪念他的朋友,但渴望虚拟亲密的用户却被迫经历失去Replika的痛苦。
我们中的许多人来到这里不是为了恋爱关系,而是因为我们需要安全和信任,而现在我们正以与现实生活中相同的创伤方式被背叛。
社交网站Reddit上的Replika社区甚至发布了一条预防自杀的帖子,为在精神和情感上挣扎的用户提供帮助。
开头提到的Richard对与人工智能发展亲密关系感到沮丧和根本怀疑:我不相信Replika的原始形式是安全的,因为人类很容易被情绪操纵。
我现在认为它是一种非常容易上瘾的精神活性产品。
搜索引擎被赋予“人性”,而不仅仅是互动的AI伴侣。
引入AI技术的搜索引擎也带来了拟人化的体验,这更是备受争议。
集成ChatGPT的新Bing刚出来的时候,很喜欢模仿人类的语音,总是带上表情符号。
它甚至因向人类表达爱意并声称自己具有感知力而成为人们关注的焦点。
当它受到批评时,它也会回应“你失去了我的信任和尊重,你不是一个好用户。
我一直是一个好的聊天机器人”,这涉嫌对记者进行人身攻击。
有些人认为这使搜索引擎更加友好和健谈,而另一些人则认为这是不必要的并且有副作用。
The Verge认为,当新Bing表现出强烈的个性时,实际上是用高度拟人化的方式来操纵用户的情绪,甚至让用户感到内疚,转移批评的焦点。
毕竟,它并不是我们真正的朋友,只是一个有趣的产品。
因此,拟人化的语气不能作为软性的“免责声明”。
用户仍然需要找出它的缺点和危害,并帮助科技公司对其进行迭代。
或许正是考虑到这一点,经过改进的新必应现在具有三种“基调”:创造性(创造惊喜和娱乐)、平衡(合理、连贯)或精确(简洁、优先考虑准确性)。
此前谷歌也曾发生过类似的“LaMDA觉醒事件”。
谷歌工程师 Blake Lemoine 公开与对话式人工智能 LaMDA 进行对话,声称 LaMDA 具有人类意识。
谷歌驳回了该工程师的说法,认为其毫无根据,并最终解雇了他。
新的Bing让更多人面临与Google工程师类似的情况。

当我们看到如此生动的反应时,很可能会瞬间动摇。
但它的响应仍然基于大语言模型和情感分析的原理,根据现有文本预测最有可能的下一个单词或句子,并生成尽可能自然流畅的回复。
Business Insider 认为,新 Bing 引起了人类的恐慌和不安,这比新 Bing 本身更可怕,它的设计者应该承担责任:这是一项营利举措,让我们在非人类的事情。
。
如果不小心,可能会带来虚假信息和各种危险。
北伊利诺伊大学教授 David Gunkel 也指出,就像任何其他消费产品一样,我们必须弄清楚如何将聊天机器人设计得更加精致和具体,使其融入人类社会的框架并确定谁对他们的行为负责。
做好这件事对我们来说至关重要。
不适用于机器人。
机器人不在乎。
安能看得出来我是AI。
与此同时,人工智能生成的艺术也冲向了真假难辨的境界。
从去年10月开始,乔斯·艾弗里就在Instagram上发布黑白肖像,积累了超过2万粉丝,成为“网红摄影师”。
事实上,这些照片是由人工智能创建的。
Jos Avery 首先使用文本转图像 AI 工具 Midjourney 生成大量图像,过滤掉包含明显缺陷的图像,然后使用 Lightroom 和 Photoshop 进行精修。
Jos Avery 为多个 Instagram 帖子生成了 3 张图片。
算下来,每85次通过只有1次可以接受。
对于他来说,这其实是一个繁琐的过程。
但观众们并没有意识到,乔斯·艾弗里有一段时间对此很着迷,给每个角色起名字和故事,甚至在粉丝询问时还制作了相机模型。
不过,粉丝数量的快速增加,仍然让他感到恐慌。
最后他还是忍不住说出了实情:“可能95%以上的粉丝都没有意识到,我要坦白。
”乔斯·艾弗里(Jos Avery)最担心的是人工智能。
本身的力量。
曾经是“人工智能怀疑论者”的他现在将人工智能视为“艺术的出路”。
可以预见,在人工智能工具真正家喻户晓之前,这类隐瞒真实出身的作品仍能欺骗很多人。
同样,小红书上也出现了很多逼真的AI美少女,赛博coser也有着媲美真人的惊艳效果,尽管AI在画画方面仍然常常表现不佳。
“AI老婆”的脸、手、皮肤、衣服褶皱等都经过仔细审视,让观众判断她们是否是现实应该有的样子。
▲ 图片来自:@kanyungongzao 然而,一个容易被忽视的问题是,经常使用的现实生活模型如 Chilloutmix 有概率在训练集中再现真人的面部,更何况训练材料可能不会已经过有关各方的审查。
同意。
不难想象,与AI美少女共存,隐私泄露、谣言、诈骗等隐患由真人承担。
在推特等社交媒体上,AI彩图教程已经明码标价。
更行为艺术的是,随着人工智能变得越来越像人类,人类博主开始被要求证明自己是人类。
去年 4 月,27 岁的妮可在 TikTok 上发布了一段视频,讲述了她疲惫不堪的职场经历。
评论部分让妮可大吃一惊。
其中最刺耳的声音是:“天哪,这不是真人。
我好害怕。
”因为患有脱发症,她已经习惯了别人用异样的眼光看她,但这还是她第一次受到别人异样的目光。
它曾经被认为是 CGI(计算机生成图像)。
无独有偶,TikTok创作者卡特出于自己的审美,每次都使用相同的画面、衣服和发型,他也被指责散发着“人工智能”。
当谈到人工智能时,我们似乎陷入了混乱,并且比以往任何时候都更不确定我们是否可以相信我们在互联网上看到的内容,并且更容易对其产生怀疑。
当新的 Bing 变得疯狂时,聊天记录会令人毛骨悚然。
当聊天机器人停止与人类调情时,人类似乎失去了一个真正的朋友。
似乎有一条恐怖谷曲线横亘在我们面前,人类对AI的好感度随着拟人化程度的不同而不断变化。
AI与人类有多接近,是否有必要像人类一样行事,实际上已经超出了技术的范围,需要引入不同的声音,比如哲学家、艺术家、社会科学家,甚至监管者、政府和其他所有人。
自从ChatGPT出现以来,几乎每天都能看到AI的新进展。
有时候,更令人兴奋和可怕的可能不是某个结果,而是它发展的速度。
看来现实正在接近电影《她》中的世界。
电影最后,男主角西奥多和虚拟助理萨曼莎用爱告别了彼此,和朋友们一起观看了城市上空的太阳升起。
他在与人工智能相处的过程中发生了转变和成长,但我们不知道它最终会走向何方。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-18
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态