金辉控股预计去年净利润同比增长40%,成功过“三条红线”
06-17
如果你向ChatGPT倾诉过你的烦恼,它很可能一开始就会说,很遗憾听到你感到难过。
当例行公事一而再、再而三地重复时,你会觉得奇怪或不奇怪,甚至可能觉得这是应付。
这就是为什么医生是不可替代的。
只有他们才能与患者建立真正有效的治疗关系。
但这并不意味着AI不能应用于医疗行业。
ChatGPT 以意想不到的方式帮助医生打开新世界的大门。
他们不仅懂得更多,而且比医生更体贴。
前段时间,加州大学圣地亚哥分校进行了一项有趣的研究。
研究人员在社交网站上找到了真实的医患问答,然后将同样的问题反馈给ChatGPT,然后提交给ChatGPT。
专家盲审,比较人类医生和AI的表现。
问题范围从“如何治疗长期咳嗽”到“我的朋友说我吞下牙签后会死”。
结果令人瞠目结舌。
ChatGPT 在信息质量和同理心方面都击败了人类医生。
专家的喜好影响了比赛的结果。
在这项研究中,ChatGPT 的同理心通常体现在对患者的不适感到抱歉。
它也不同于医生简短、节省时间的风格,因为它的答案更长、更贴心。
举个简单的例子,当被问到“漂白剂进眼睛会失明吗?” ChatGPT首先表达了同情,然后详细说明了清洁眼睛的步骤。
医生只是说“听起来好像没什么问题”,并建议病人冲洗眼睛。
你可能会觉得医生的回答更让人放心。

不过,这项研究并不打算讨论ChatGPT是否可以取代医生。
这只会增加ChatGPT在远程医疗等场景中提供帮助并节省医生时间的可能性。
因为ChatGPT存在无意义的问题,所以医生必须做最后的检查。
研究人员设想了医生和人工智能合作的未来:如果患者的更多问题得到快速、高质量和同理心的回答,可能会减少不必要的临床就诊,为有需要的人腾出资源。
不难想象,人类与人工智能的合作除了效率之外,还为弱势群体赋能。
行动不便、工作时间长、无力承担费用的患者可能更需要相关服务。
此类产品已经存在。
今年 5 月,纽约健康科技公司 Belong.Life 推出了 Dave:世界上第一个针对患者癌症的对话式人工智能。
它只专注于癌症领域,基于两个大型语言模型,训练数据包括七年来来自该公司应用程序的数十亿个数据点。
作为一名 24 小时待命的 AI,Dave 擅长全天候回答问题。
它可以帮助患者了解他的病情,以便他们稍后可以与他的医生讨论。
此外,安慰患者、表现出同理心也是戴夫的“职业道德”。
Belong.Life联合创始人在接受采访时表示:戴夫减轻了患者的压力水平,也减少了医生教育患者的时间。
戴夫发出的每一条信息,都会说明它是由人工智能生成的,可能并不总是准确的,患者在实际做出决定之前必须咨询医生。
因此,人工智能不能取代医生,但可以成为医生与患者之间的桥梁。
人工智能对每个医生的影响就像冲洗出来的照片一样逐渐变得清晰。
外媒采访了几位使用ChatGPT的医生。
方法多种多样,但都或多或少与同理心有关。
一些医生在解释医嘱和传达坏消息时使用 ChatGPT 来更好地组织语言。
他们半开玩笑地说,他们的术语有时“太深奥”:连我们认为容易理解的词其实也不是那么回事。
一些医生需要定期与酗酒者沟通。
他们请求 ChatGPT 帮助列出谈话要点。
如果患者没有足够的医学知识,那就让AI按照小学生的阅读水平重写。
其中一位医生对人工智能写的开头非常满意。
这句话乍一看似乎平淡无奇,但它的真诚却给医生留下了深刻的印象:如果您认为自己喝得太多,那么您并不孤单。
许多人都有这个问题,但有些药物可以帮助您感觉更好,过上更健康、更快乐的生活。
其实,并不是很多医生不想表达同理心,而是他们的工作强度和压力太大了。
光是应付门诊和远程会诊的需求就让他们不堪重负,而他们自己也陷入了倦怠和疲惫。
因此,有的医生也请ChatGPT帮忙写邮件给保险公司,要求他们为自己的患者投保。
这其实是一项繁重、重复的工作,甚至可能需要几个小时,但交给AI再进行微调后,仅需几分钟即可完成,让医生有更多的时间投入到拯救生命上。
话虽如此,医生对同理心的定义可能与公众的不同,可能更加细分。
“认知同理心”是指医生识别患者情绪并在做出决定时考虑到这些情绪的能力。
相反的“情感同理心”更接近我们理解的“同理心”。
《摆脱共情》书中提到了类似的观点。
作者布鲁姆将共情大致分为两种类型:“认知共情”和“情感共情”。
他认为更好的行为和道德决策应该依赖于认知而不是情感同理心。
很多时候,共情是微妙而复杂的,楚河汉难以区分,往往需要认知共情和情感共情。
医生这个职业,既需要情感上尊重患者的感受,又需要理性地展现专业精神。
工作压力更是外人难以理解的。
如何把握同理心的尺度,对他们来说是困难的。
AI无法真正共情,但也因此给一些患者带来了同理心,或许实际上能够充当助手,分担医生的负担。
谨防机械移情的陷阱。
人工智能的“同理心”不仅仅是一句陈词滥调。
另一端的患者也能感觉到。
《连线》杂志的一篇报道提到,一些患有自闭症的患者认为,与人工智能交流是一种很好的体验,因为这更接近他们的说话和行为方式。
自闭症的症状各不相同,但社交互动障碍很常见。
一些患者在与他人发生争执时,会要求人工智能提出建议,并尝试表达自己的情绪,而不是像以前那样保持沉默。
对他们来说,人工智能成为一种新的、有价值的、独立的资源,可以随时随地使用,而且不按小时计费。
然而,这只是一个例子。
目前还没有认真研究如何利用ChatGPT帮助特殊群体,也没有人知道风险有多大。
因此,Hugging Face 首席伦理科学家玛格丽特·米切尔(Margaret Mitchell)建议,应该限制经历严重情绪困扰的人使用人工智能。
我们无法完全控制它所说的内容,这是一个大问题。
但聊天机器人疗法还是有痕迹的,这个概念可以追溯到几十年前。
ELIZA 是第一个允许人与机器之间进行类人对话的程序,于 20 世纪 90 年代诞生于麻省理工学院。
从现在的角度来看,其实是非常粗糙的。
它通常会重复用户以问题的形式发送给他们的内容。
让用户感觉自己被倾听了,明白了人类作为复读者的本质。
事实证明,无论多么简单粗暴,人们都需要机器的“同理心”,哪怕这只是一种幻觉。
ELIZA 的推出是为了演示计算机如何从表面上理解人类语言。
但它吸引了大量用户,人们把自己锁在房间里好几个小时只是为了对它低声说话。
如今,基于大型语言模型的生成式人工智能可以做出更加多样化的反应,许多版本比 ELIZA 更智能,但它们也有独特的问题。
除了偏见、虚假信息和隐私泄露之外,“ChatGPT”可能会让人们陷入“机械同理心”的陷阱,即在回答某些类型的问题时给出重复和标准化的模板。
当心理治疗师 Daniela Marin 尝试 ChatGPT 时,她发现当你告诉它“你想自杀”时,它给出的答案几乎和课本上的答案一模一样。
ChatGPT 获得了所有分数,但这毕竟不是考试,Daniela Marin 觉得还不够好。
如果您与治疗师聊天,您会得到更有意义和更具体的答复。
重症监护室医生Wael Haddara也认为,同理心应该有丰富的表达方式,而不仅仅是AI生成的词语。
他平均每周与 30 个家庭一起工作,发现当家庭经历亲人去世时,开放的沟通可以更有效地减少创伤。
同理心不仅仅是言语,有时只是默默地递纸巾的行为。
然而,像 ChatGPT 这样的聊天机器人是为多功能性而设计的。
OpenAI还强调ChatGPT不应替代心理健康治疗。
对于人类来说,共情也是一件困难的事情。
从之前的ELIZA到现在的ChatGPT,机器同理心,哪怕是虚假的、机械的同理心,仍然是人们所渴望的。
不仅仅是医生和患者,对人工智能“同理心”的需求也存在于更广泛的情感和社会关系中。
通过非人类人工智能,人们可以学习如何更好地与同伴沟通。
可见,人与人之间的沟通在很多时候确实是困难的。
AI聊天应用Replika背后的公司最近推出了一款新的AI约会应用“Blush”。
它的受众很明确:那些想要更好地管理亲密关系的人。
《Blush》就像一款爱情模拟游戏。
用户可以与AI创建的不同性格和背景的NPC聊天,并与他们建立亲密或疏远的关系,以增强沟通和恋爱技巧。
《脸红》不仅能让你们聊牵手、约会,还能聊分歧和误会,就像在现实生活中一样。
▲ 某“NPC”。
Replika首席产品官Rita Popova强调,Blush并不是用来取代亲密关系,而是让你在提前练习后更好地进入现实世界。
与人交谈并深入了解他们确实很难,我认为解决问题的最好方法就是练习。
Blush的存在让我们想起了人际交往的尴尬。
许多用户下载它只是因为他们不知道如何开始与人交谈。
帮助他们排练的人工智能就像一面镜子,让他们看到自己以及与他人的沟通模式。
与 Blush 类似,还有人工智能约会助手,可以为 Tinder 等约会应用程序提供建议。
里兹就是其中之一。
根据你的语气和对方的信息,它会建议你如何聊天才能给对方留下更好的印象。
如果对方也在使用AI,可能是AI在互相聊天,而你和对方都成了替身。
或许有点悲哀的是,手机让我们忘记了写作之后,思考如何通过小屏幕与人交流就像写论文一样困难。
这可能是因为技术既是原因也是解药。
Shirley Turkle的《群体性孤独》谈到了信息超载的社交媒体,不仅给了我们一种有人陪伴的错觉,也削弱了我们对彼此的期待,而不需要像现实中那样为友谊付出代价,而且作为一个结果,让我们更加孤独。
。
看起来更有同理心的人工智能怎么样?它是让人锻炼同理心和沟通能力,还是让人完全依赖它,毫不在意地进行虚伪和妥协?当前的情况复杂而微妙——我们之前认为人工智能不会轻易介入涉及情感和社交技能的职业,但它正在建立一种新的关系。
AI需要的领域也被AI暴露出来,并提供可能的解决方案。
从更广阔的维度来看,人工智能与时代产生共鸣,展现出一个信息丰富但缺乏时间和人际关系的社会。
我们还可以用社交媒体来比喻,它缓解了短暂的孤独感,但过度依赖它只会加剧与现实的疏离。
人工智能也类似。
人工智能应该是手段,人是目的。
最终还是要回归到人与人之间的关系上。
文本交流工具Keys AI的创始人认为,当人们承认他们在人工智能的帮助下进行交流时,他们也在努力成为更好的沟通者。
因此,我们需要AI的“同理心”,不是脱离人类的互动,而是重新想象我们如何互动。
虽然人工智能使用统计模式将单词相互关联,但人类有责任赋予这些概念意义,在工作场所和生活中与他人建立更好的联系,并专注于更重要的事情。
事实上,自从科技发展以来,情况就是如此。
我们总是要探索如何在不断变化的社会关系和情感体验中更好地与他人建立联系。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-18
06-18
06-18
06-18
06-18
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态