以色列团队推出世界上最大的实验室培育牛排,由真正的牛细胞 3D 打印而成
06-21
雷锋注:【图片来源:连线 楼主:连线】雷锋注:人工智能会对人类产生什么影响一直是值得讨论的话题,会它更好地帮助人类,还是攻击人类?本周,由斯坦福伦理与社会中心、斯坦福以人为中心的人工智能研究所和斯坦福人文中心主办的一场关于“人工智能”的活动以该领域的先驱之一弗拉基米尔·李飞飞为主角。
以下为活动讨论内容。
雷锋网全文编译如下:“用以人为本的方式重构人工智能与技术的教育、研究和对话”。
主持人:感谢斯坦福大学邀请我们来到这里。
我希望这次对话可以分为为三主义部分:首先,解释我们现在所处的位置;第二,我们现在必须做出的一些选择;最后,给大厅里的每个人一些建议。
飞飞,你有博士学位,有计算机科学学位,或者斯坦福大学的教授,你认为生物知识乘以计算能力,乘以数据,等于入侵人类的能力吗?李飞飞:作为工程师和科学家,我觉得我们现在面临着一场必须解决的危机。
当谈到人工智能危机时,我坐在那里想,这是一个我热爱、充满热情并研究了 20 年的领域,年轻的科学家成为了该领域的博士学位。
。
对人工智能的好奇心。
但20年后发生了什么,人工智能变成了一场危机?事实上,正是人工智能的发展,让我和斯坦福大学的同事取得了今天的成就,以人为中心的人工智能是一项革命性的技术。
这是一项新兴技术。
与物理、化学、生物学相比,人工智能仍然是一门新兴科学。
但是,正如你所说,随着数据和计算的力量,以及人工智能正在产生的各种影响,人工智能正在广泛而深刻地发展。
它影响人类生活和商业的方式。
针对人类面临的这些问题和危机,我认为斯坦福大学试图提出的解决方案之一是,我们能否以人为本的方式重构人工智能和技术的教育、研究和对话?我们今天不一定要找到解决方案,但我们可以让人道主义者、哲学家、历史学家、政治学家、经济学家、伦理学家、法律学者、神经科学家、心理学家以及更多其他学科进入下一阶段的研究和开发人工智能。
主持人:别那么肯定我们今天得不到答案。
还剩72分钟,我们来试试吧。
人们说人工智能危机很多,是吗?他们说人工智能正在变得有意识,这意味着什么?他们谈论工作替代,谈论偏见。
但这是思考人工智能的人们应该关注的具体问题吗?李飞飞:当然。
人类从火开始创造的任何技术都是一把双刃剑。
人工智能可以改善生活、工作和社会,但也带来风险。
你知道,我每天醒来都担心人工智能的多样性和包容性。
我们担心公平或缺乏公平、隐私、劳动力市场。
因此,我们绝对需要注意,这就是为什么我们需要将有关人工智能的研究、开发政策和对话扩展到人类空间、社会问题,而不仅仅是代码和产品。
所以我完全同意你的观点,现在是开始对话、开始研究这些问题的时候了。
人工智能的诞生是AI科学家与生物学家,尤其是神经科学家之间的对话。
人工智能的诞生很大程度上是受到大脑活动的启发。
60 年后的今天,人工智能正在医疗保健领域取得巨大进步。
我们从生理学和病理学中收集大量数据,并使用机器学习来帮助我们。
“人工智能能让我爱上观众中的某个人吗?”主持人:我们来谈谈什么是攻击大脑。
现在,我的大脑在某种程度上被黑客入侵了,对吗?这个设备有一种非常吸引人的东西,它让我不断地检查它,就像我的大脑被黑客入侵了一样。
你的不会,因为你每天冥想两个小时,但我的会,而且可能大多数人都会这样做。
但未来的大脑黑客究竟会是什么样子呢?飞飞,在反乌托邦A,自由民主的反乌托邦中,有没有人类独有的东西是不能被侵犯的?李飞飞:当你两分钟前问我这个问题时,我首先想到的是爱情。
爱情可以被侵犯吗?但对于这两个反乌托邦,我没有答案。
但我想继续说的是,这正是我们现在需要寻求解决方案的时刻。
正因为如此,我们现在认为,人工智能的新篇章需要由人文主义者、社会科学家、商界领袖、民间社会、政府等共同努力书写,才能坐在同一张桌子上,共同发展一个人工智能的新篇章。
多边合作对话。
我认为你确实强调了这场潜在危机的紧迫性、重要性和规模。
但我认为面对这种情况我们需要采取行动。
主持人:你认为这个装置有一天会比现在更强大吗?它能让我爱上观众中的某个人吗?李飞飞:这是我的研究领域,我想发表两点评论,就我个人而言,我们在这部分谈话中做出了两个非常重要的假设。
首先,人工智能是如此无所不能,以至于它已经达到了超越任何物理现象预测的状态。
已经达到了意识的层面,甚至达到了爱的极限。
我很确定我们意识到我们距离那个目标还非常非常遥远。
这项技术仍处于起步阶段。
我对当今人工智能的部分担忧是对其能力的过度夸大。
所以我并不是说这不是一个有效的问题。
但我认为谈话的一部分是基于这样的假设:这项技术已经变得如此强大,我什至不知道距离我们还有多少年。
第二个相关的假设是,我觉得我们的对话是基于这样的假设:我们正在谈论一个只存在强大人工智能的世界或世界状态,或者只有一小群人创造了强大的人工智能并打算攻击人类存在。
但事实是,我们人类社会是如此复杂,我们有很多人,对吗?我的意思是,人类在其历史上见证了很多技术,如果我们把它单独放在一个坏玩家手中,没有任何治理、跨国合作、规则、法律、道德,技术可能不会攻击人类,而是,它以巨大的方式摧毁或伤害人类。
这已经发生了,但从历史的角度来看,我们的社会总体上正在朝着更加文明和受控的方向发展。
所以我认为重要的是要着眼于更大的社会并让其他演员和人们参与到这场对话中。
所以我们不会说只有全能的人工智能才会决定毁灭一切,直到最后。
这让我想到了你的话题,除了你所说的攻击人类之外,还有一些非常紧迫的问题:多样性、隐私、劳工、法律变革、国际地缘政治。

我认为现在解决这些问题至关重要。
以人为本的人工智能主持人:我喜欢和人工智能研究人员交谈,因为五年前,所有的人工智能研究人员都说它比你想象的要强大得多。
现在他们说它没有你想象的那么强大。
好吧,我问——李飞飞:这是因为五年前,你不知道人工智能是什么,而现在你已经了解得太多了。
主持人:我并不是说这是错误的。
我只是说事情就是这样。
让我们谈谈今天我们可以做什么,思考人工智能的风险和人工智能的好处,并告诉我们您认为我们应该考虑人工智能的最重要的事情。
李飞飞:今天我们可以做很多事情。
我想多谈谈斯坦福大学的努力,因为我认为它很好地代表了我们相信我们可以做很多事情。
在以人为中心的人工智能这一总体主题中,我们认为人工智能的下一章应该以人为中心,我们相信三个主要原则。
其中一项原则是投资下一代人工智能技术,该技术更能反映我们想要的人类智能。
我只是在考虑您对数据依赖的评论,以及应该如何制定数据政策和管理来规范和管理人工智能的影响。
我们应该开发能够解释人工智能的技术,我们称之为可解释的人工智能,或者人工智能可解释性研究;我们应该关注能够更细致地理解人类智能的技术。
我们应该投资开发不太依赖数据的人工智能技术,这些技术将考虑直觉、知识、创造力和其他形式的人类智能。
因此,受人类智能启发的人工智能是我们的原则之一。
第二个原则是人工智能的多学科研究再次受到欢迎。
它与经济学、伦理学、法学、哲学、历史学、认知科学等学科交叉。
因为我们需要了解更多关于社会、人类、人类学和伦理的影响。
作为技术人员,我们无法单独做到这一点。
我们中的一些人甚至不应该这样做。
伦理学家和哲学家应该研究这些问题并与我们合作。
这是第二个原则。
在这方面,我们与政策制定者合作,召开多方利益相关者对话。
第三,也是最后但并非最不重要的一点,尼克,你在谈话开始时说过,我们需要促进这项技术的人性化、协作性和辩论性方面。
你有一定道理。
即使在那里,它也可能变得具有操纵性。
但我们需要从警觉和理解开始,但仍然促进这项技术的善意应用和设计。
至少,这是斯坦福大学以人为中心的人工智能研究所所依据的三个原则。
我感到非常自豪的是,在该学院成立后的短短几个月内,该校园的多名教师从事这种研究、对话、学习和教育,而且这个数字还在不断增长。
主持人:在这三个原则的基础上,我们开始深入挖掘。
让我们看第一个,可解释性,这是人工智能领域一个非常有趣的争论。
一些从业者说,你应该有算法来解释他们做了什么以及他们做了什么选择。
听起来很有道理。
但你要怎么做呢?我做出了各种各样的决定,但我无法完全解释。
比如,我为什么要雇用这个人而不是那个人?我可以讲一个故事来说明我为什么这样做。
但我不确定。
如果我们不够了解自己,无法始终如实、全面地解释我们所做的事情,那么我们怎么能期望使用人工智能的计算机也能做到这一点呢?如果我们西方国家要求这一点,那么世界其他国家就不会要求谁行动得更快。
所以第一部分是,如果我们很难解释自己,我们可以获得可解释性吗?李飞飞:嗯,我很难将两个数字相乘,但是,你知道,计算机可以做到这一点。
因此,仅仅因为某些事情对人类来说很难,并不意味着我们不应该让机器来做这件事。
尤其是,你知道,毕竟所有这些算法都是基于非常简单的数学逻辑。
当然,我们现在处理的是具有数百万个节点和数十亿个连接的神经网络。
所以可解释性实际上是很难的。
这是正在进行的研究。
但我认为这是沃土。
当涉及医疗决策、财务决策、法律决策时,这一点非常关键。
在很多情况下,这种技术都非常有用。
有了这种可解释的能力,我们必须尝试,而且我非常有信心,有很多聪明的人认为这是很容易破解的东西。
最重要的是,我认为你提出了一个观点,如果我们拥有可以解释算法决策过程的技术,那么操纵和欺骗就会变得更加困难。
正确的?这是一个技术解决方案而不是整个解决方案,这将有助于阐明该技术在做什么。
如果人工智能用概率来给出潜在特征的一个维度,那是不可理解的,但人类文明史上的整个科学史已经能够以越来越好的方式传达科学结果。
正确的?就像我刚刚做了年度体检一样,一堆电话号码打到了我的手机上。
首先,我的医生,一位专家,可以帮助我解释这些数字。
现在,甚至维基百科也可以帮助我解释其中一些数字,并且解释这些数字的技术也会得到改进。
如果我们只是向您抛出概率数字,那么作为技术专家,我们将是失败的。
人工智能算法偏差 主持人:在结束这个话题之前,我想谈谈一个非常相关的问题,我认为这是最有趣的问题之一,那就是算法的偏差问题,您已经说得很清楚了。
让我们从金融体系开始。
您可以想象银行使用一种算法来决定是否应该借钱给某些人。
您还可以想象用有关种族主义的历史数据来训练它。
我们不想要这个。
因此,让我们来看看如何确保这些数据不带有种族主义色彩,并允许其不分种族地借给人们。
这里的每个人都认为这是一个很好的结果。
我们假设,分析历史数据表明,女性比男性更有可能偿还贷款。
我们想删除它吗?或者我们允许它继续下去吗?如果你允许它继续存在,你会得到一个稍微更高效的金融体系吗?如果你把这一点去掉,你会发现男性和女性之间曾经有更大的平等。
您如何决定要消除哪些偏见以及可以保留哪些偏见?李飞飞:是的,这是一个非常好的问题,尼克。
我的意思是,我不会亲自给出答案,但我认为你触及了一个非常重要的问题,那就是,首先,机器学习系统偏见是真实存在的。
就像你说的,它从数据开始,可能从我们收集数据的那一刻开始,从我们收集的数据类型开始,通过整个管道,然后一直到应用程序。
但偏见以非常复杂的方式出现。
在斯坦福大学,我们拥有针对机器学习科学家研究偏差的技术解决方案,例如消除数据偏差或规范某些决策。
但我们也有人文主义者争论什么是偏见,什么是公平,什么时候偏见是好的,什么时候偏见是坏的?所以我认为你刚刚为这个话题的研究、辩论和对话开辟了一个完美的话题。
我还想指出,您使用了一个非常相关的示例,说明机器学习算法揭示偏见的潜力。
正确的?要知道,我最喜欢的研究之一是几年前的一篇论文,该论文分析了好莱坞电影,并使用机器学习人脸识别算法(这是当今非常有争议的技术)来系统地识别好莱坞给予男性演员比女性演员更多的屏幕时间。
没有人可以坐在那里数一数所有的面孔,看看是否存在性别偏见,而这是利用机器学习揭露性别偏见的完美例子。
因此,总的来说,我们应该研究一系列丰富的问题??,并且再次呼吁将人文主义者、伦理学家、法律学者、性别研究专家纳入其中。
主持人:同意。
不过,甚至在那篇文章发表之前,我就知道好莱坞是性别歧视的。
李飞飞:你是个聪明人。
主持人:我问你一下,因为已经有三四个人问了这个问题,也就是说,人工智能的集中化似乎会加剧,无论是在国内还是在全球范围内,人工智能都会使数据和最好的计算机变得更加强大。
收入不平等,对吗?正如你提到的,中国和美国领先,其次是欧洲国家,加拿大更差,但都遥遥领先于中美洲。
这种现象将加剧全球收入不平等。
答:你觉得可能吗? B、你有多担心?李飞飞:我们一再注意到的一件事是,即使是在建立以人为中心的人工智能社区以及与内部和外部人们交谈的过程中,世界各地的企业和世界各地的政府都有机会思考关于他们的数据和人工智能战略。
企业和国家还有很多机会真正认识到这是他们的国家、他们的地区、他们的企业进入数字时代的重要时刻。
我认为,当您谈论这些潜在危险以及世界上尚未真正跟上数字变革的部分地区缺乏数据时,现在是我们想要提高这种意识并鼓励这种变革的时候了。
“这是一个在分享和传播知识和技术方面非常开放的全球社区。
”主持人:下一个问题是:斯坦福大学的人将帮助建立一些公司,这些公司将进一步推进数据殖民化进程,或者扭转或努力,至少由斯坦福大学资助,创建一个基于虚拟墙和世界的公司。
关于正在迅速兴起的人工智能。
对于在座的所有同学,您希望他们对人工智能有什么看法?你想让他们学到什么?让我们利用最后10分钟来讨论一下在座的每个人应该做什么。
李飞飞:如果您是计算机科学或工程专业的学生,??请参加罗布的课程。
如果您是人文主义者,请参加我的课程。
我教深度学习。
但实际上,我想说的是斯坦福大学的学生,你们有一个很好的机会。
我们拥有将这项技术变为现实的光荣历史。
斯坦福大学处于人工智能诞生的最前沿。
事实上,我们自己的乔·教授、约翰·麦卡锡创造了人工智能这个术语,他于 2011 年来到斯坦福大学,并建立了美国最古老的人工智能实验室之一。
从那时起,斯坦福大学的人工智能研究一直处于每一波人工智能变革浪潮的前沿。
2016年,我们也站在了以人为中心的人工智能革命的最前沿,或者说我们正在书写人工智能的新篇章。
在过去的60年里,我们所做的这一切都是为了你们,为了那些走进来的人,为了那些即将毕业成为实践者、领导者和公民社会一部分的人,这就是我们的底线。
以人为中心的人工智能需要由下一代技术专家编写,他们参加过像罗布这样的课程,以思考伦理影响和人类福祉。
它还将由来自斯坦福大学人文学院和商学院的未来潜在决策者撰写,他们精通技术的来龙去脉,了解技术的含义,并且有能力与技术专家沟通。
也就是说,无论我们如何同意或不同意,底线是我们需要这样的多语言领导者、思想家和实践者。
这就是斯坦福大学以人为中心的人工智能研究所的宗旨。
主持人:好的,飞飞,让我们快速看几个问题。
我们经常谈论大公司自上而下的人工智能,但我们应该如何设计个人人工智能来帮助加速我们的生活和职业生涯呢?我对这个问题的解释是,很多人工智能正在大公司中发挥作用。
如果你想在小公司或者个人拥有人工智能,你能做到吗?李飞飞:首先,大公司确实投入了大量的投资、精力和资源来进行人工智能的研发,但并不是所有的人工智能都发生在那里。
我想说的是,学术界在人工智能的研发,特别是在人工智能的长期探索中持续发挥着巨大的作用。
什么是学术界?学术界是一个由学生和教授家族组成的全球网络,他们对不同观点进行非常独立和创造性的思考。
因此,从这个角度来看,这是人工智能研究中一项非常草根的努力,仍在继续。
小企业和独立研究机构也可以发挥作用。
有许多公开可用的数据集。
这是一个在分享和传播知识和技术方面非常开放的全球社区。
所以,是的,无论如何我们都希望全球参与。
主持人:嗯,这是我最喜欢的问题。
不幸的是,这是来自一位匿名人士。
如果我已经八年级了,我还需要学习吗?李飞飞:作为一名母亲,我会告诉你是的。
回去做作业吧。
主持人:飞飞,75分钟前,你说我们不会得出任何结论。
您认为我们取得了任何进展吗?李飞飞:嗯,我们已经在人文主义者和技术专家之间展开了对话,我希望看到更多这样的对话。
主持人:太好了。
太感谢了。
谢谢你,飞飞。
雷锋网注:本文编译自雷锋网WIRED版权文章,未经授权禁止转载。
详情请参阅转载说明。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-21
06-18
06-17
06-18
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态