首次发布 -盈科资本正式宣布两只基金,龙头PE吸资效应凸显
06-17
就在 Meta 宣布新一代开源大语言模型 Llama 2 的三天后,该公司高管与微软、OpenAI、亚马逊、Anthropic 等目前 AI 行业的其他 7 家公司讨论了巨头和热门初创公司管理人员。
再次相聚美国白宫。
本次活动期间,7家企业签署了《自愿承诺》(Voluntary Commitments),就AI技术及研发的安全性、透明度、风险等做出了“八项重大承诺”。
AI企业“寻求监管”的大戏已经达到小高潮。
《纽约时报》专栏作家凯文·罗斯撰写了一篇关于作者的文章,详细解释了这“8大承诺”所说的内容以及它们带来的变化。
研究结果是,安全测试、分享AI安全信息、报告漏洞、“优先利用AI解决社会挑战”等项承诺的这8项似乎是一些大问题,相应的承诺也缺乏细节,其中很多都是AI公司向公众“公布”的事情。

这份“资源承诺书”更像是过去六个月美国监管机构对AI企业多次问询的间接“结果展示”,恐怕没有太多执行层面的意义。
但监管机构多次表达了对AI的担忧,表明了政府对AI技术应用的立场,这也是本次展会的最大意义。
以下是凯文·罗斯在《自愿承诺》中对8项承诺的解读: 作者:凯文·罗斯 来源:NYT 链接:编译者:靖宇 承诺一:公司承诺在发布人工智能系统之前对其进行内部和外部安全测试。
这些人工智能公司在发布模型之前已经对其模型进行了安全测试——通常称为“红队测试”。
从某些方面来说,这并不是一个真正的新承诺。
这很模糊。
没有提供有关需要进行哪些测试或由谁进行测试的详细信息。
在随后的声明中,白宫仅表示,人工智能模型的测试“将部分由独立专家进行”,并将重点关注“生物安全和网络安全等人工智能风险及其更广泛的社会影响”。
让人工智能公司公开承诺继续进行此类测试,并鼓励测试过程更加透明,这是一个好主意。
还有一些类型的人工智能风险,例如人工智能模型可用于开发生物武器的危险,政府和军事官员可能比公司更适合评估。
我很高兴看到人工智能行业就一套标准安全测试达成一致,例如 Alignment Research 对 OpenAI 和 Anthropic 预发布模型的“自主复制”测试。
我还希望看到联邦政府资助此类测试,这些测试可能成本高昂,并且需要具有重要技术专业知识的工程师。
目前,许多安全测试都是由公司资助和监督的,这引发了明显的利益冲突问题。
承诺2:公司承诺与整个行业以及政府、民间社会和学术界分享有关管理人工智能风险的信息。
这个承诺也有点模糊。
其中一些公司已经发布了有关其人工智能模型的信息——通常是在学术论文或企业博客文章中。
其中一些公司,包括 OpenAI 和 Anthropic,还发布了名为“系统卡”的文件,概述了他们为使这些模型更加安全而采取的步骤。
但他们有时会以安全问题为由隐瞒信息。
当 OpenAI 今年发布最新的人工智能模型 GPT-4 时,它打破了行业惯例,选择不透露训练数据量或模型有多大(称为“参数”的指标)。
该公司表示,出于竞争和安全考虑,拒绝透露这些信息。
这也恰好是科技公司喜欢远离竞争对手的数据类型。
根据这些新的承诺,人工智能公司是否会被迫披露此类信息?如果这样做有加速人工智能军备竞赛的风险怎么办? 我怀疑白宫的目标不是强迫公司披露其参数数字,而是鼓励他们相互交换有关其模型确实(或不)构成风险的信息。
但即使是这种信息共享也可能带来风险。
如果谷歌的人工智能团队在预发布测试期间阻止新模型被用来设计致命的生物武器,它是否应该在谷歌之外分享这些信息?这会让坏人知道如何让受保护较少的模型来执行相同的任务吗? 承诺3:公司承诺投资网络安全和内部威胁防护措施,以保护专有和未发布的模型权重。
这个问题很简单,在我采访的人工智能业内人士中也没有争议。
“模型权重”是一个技术术语,指的是赋予人工智能模型运行能力的数学指令。
如果您是外国政府(或竞争对手公司)的代理人,并且想要构建自己版本的 ChatGPT 或其他人工智能产品,那么权重就是您想要窃取的东西。
严格控制这一点符合人工智能公司的既得利益。
模型权重泄漏问题是众所周知的。
例如,Meta 的原始 LLaMA 语言模型的权重在模型公开发布几天后就在 4chan 和其他网站上泄露。
考虑到更多泄密的风险,以及其他国家从美国公司窃取这项技术的潜在兴趣,要求人工智能公司在自身安全方面进行更多投资似乎是理所当然的。
承诺4:两家公司承诺促进第三方发现和报告其人工智能系统中的漏洞。
我不太确定这意味着什么。
每个发布模型的人工智能公司都会发现其模型中的漏洞,通常是因为用户试图用模型做坏事或以公司未预见到的方式规避“越狱”。
白宫已承诺要求公司针对这些漏洞建立“强大的报告机制”,但尚不清楚这可能意味着什么。
应用内反馈按钮,类似于允许 Facebook 和 Twitter 用户报告违规帖子的按钮?像OpenAI今年推出的错误赏金计划是为了奖励在系统中发现缺陷的用户吗?还要别的吗?我们将不得不等待更多细节。
承诺5:公司致力于开发强大的技术机制,以确保用户知道内容何时由人工智能生成,例如水印系统。
这是一个有趣的想法,但留下了很大的解释空间。
到目前为止,人工智能公司一直在努力设计工具,让人们能够判断他们是否正在观看人工智能生成的内容。
这有很好的技术原因,但当人们可以将人工智能生成的工作当作自己的工作时,这是一个真正的问题(询问任何高中老师)。
目前许多人被宣传为能够检测人工智能,具有智能输出的工具可以实际上并没有以任何程度的准确性来做到这一点。
我对这个问题能否得到彻底解决并不乐观,但我很高兴各公司致力于解决这个问题。
承诺 6:公司承诺公开报告其人工智能系统的功能、限制以及适当和不适当使用的领域。
另一个听起来很明智的承诺,有很大的回旋余地。
公司需要多久报告一次其系统的功能和局限性?这些信息必须有多详细? 考虑到许多构建人工智能系统的公司在事后都对其系统的功能感到惊讶,那么他们在提前描述这些系统方面到底能走多远呢? 承诺7:公司承诺优先研究人工智能系统可能带来的社会风险,包括避免有害的偏见和歧视以及保护隐私。
承诺“优先研究”是一个模糊的承诺。
尽管如此,我相信这一承诺将受到人工智能伦理群体中许多人的欢迎,他们希望人工智能公司优先考虑防止偏见和歧视等近期危害,而不是像人们一样担心世界末日场景,比如人工智能安全。
如果您对“人工智能道德”和“人工智能安全”之间的区别感到困惑,请注意人工智能研究界内存在两个敌对派系,每个派系都认为对方专注于防止错误造成的伤害。
承诺8:公司致力于开发和部署先进的人工智能系统,以帮助解决社会面临的最大挑战。
我认为没有多少人会认为先进的人工智能不应该被用来帮助解决社会最大的挑战。
白宫将“癌症预防”和“缓解气候变化”列为希望人工智能公司重点关注的两个领域,我对此没有意见。
然而,让这一目标变得更加复杂的是,在人工智能研究中,一开始看起来很无聊的事情往往会产生更严重的后果。
DeepMind 的 AlphaGo(一种经过训练来玩棋盘游戏围棋的人工智能系统)采用的一些技术在预测蛋白质的三维结构方面非常有用,这是推进基础科学研究的重大发现。
总体而言,白宫与人工智能公司的交易似乎更具象征意义,而不是实质性的。
没有执行机制来确保公司遵守这些承诺,其中许多承诺反映了人工智能公司已经采取的预防措施。
尽管如此,这仍然是合理的第一步。
同意遵守规则表明人工智能公司从早期科技公司的失败中吸取了教训,这些公司等到遇到麻烦才与政府接触。
在华盛顿,至少在科技监管方面,尽早出现是值得的。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-08
06-21
06-18
06-17
06-17
06-18
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态