解决工业领域信息安全问题,“木连科技”完成近亿元B轮融资
06-17
“Don't Be Evil”的口号一直是 Google 的座右铭和行为准则,直到 2011 年。
▲ 图片来自:substack 这意味着 Google 做事时必须遵守道德和法律,不做有损于人类利益的事情社会和用户。
但到了当年,这句话被修改为“Do the right thing(做正确的事)”。
谷歌的这一改变被许多人认为违背了其初衷。
▲ 图片来自:vox 而在随后的一些商业行为中,谷歌并没有保持技术中立。
相反,它更看重商业利润,收集用户隐私,并利用一些数据来保证业务的扩张。
之所以提到谷歌的这句经典口号,是因为AIGC当前的突然爆发与互联网之前的爆发节点有些相似。
在接受 CBS《60 分钟》 节目采访时,谷歌现任首席执行官桑达尔·皮查伊 (Sundar Pichai) 提到了当前人工智能的“不作恶”。
他还表示,谷歌的Bard目前之所以显得有些笨拙,实际上是因为没有公布Bard的高级版本。
“我希望它能给社会更多的时间来适应人工智能,也给企业更多的时间来开发安全围栏。
”简单来说,皮查伊认为谷歌的AI实力并不比OpenAI差,只是出于社会责任而暂时使用AI。
技术是密封的。
不过,从彭博社、The Verge、英国《金融时报》等多家媒体的报道来看,谷歌内部对于巴德和谷歌目前对AI技术的开发和监管存在着截然不同的声音。
为了与ChatGPT竞争,道德可以抛在一边。
2016年左右,谷歌创建了Google Brain项目,涉足深度学习领域,这也意味着谷歌开始涉足AI。
此后,谷歌几乎每年都会在AI领域取得一些小成绩,实现一些小目标。
从AlphaGo战胜国际象棋世界冠军李世石,到TensorFlow开源框架的发布,再到机器学习芯片TPU的发布,以及近期的BERT、LaMDA等语言模型。
谷歌是人工智能领域的老手。
在研究AI的过程中,也拥有比较完善的内部风险团队、技术团队等,可以说是实力雄厚。
当然,也有一点傲慢。
一年一度的谷歌开发者大会的内容也开始转向AI,向外界展示谷歌在AI领域的深厚实力。
人们也普遍认为,谷歌将率先引领AI行业的变革。
直到ChatGPT,或者准确地说是GPT-3的出现,以及随后GPT-4的出现,Midjourney V5开始变得非常流行。
还没等谷歌做出反应,微软就抓住了机会,与OpenAI合作,将ChatGPT应用到新Bing上,引发了一场“搜索”革命。
当Google醒悟过来,连夜推出Bard时,刚推出就犯了一个错误。
有很多事实错误,而且目前只支持英文。
与ChatGPT和new bing相比,就远远逊色了。
巴德仓促推出的最终结果是引发信任危机,股价暴跌。
即使谷歌后来调整了,Bard的影响仍然无法与ChatGPT相比。
由于这种情况,谷歌内部的一些员工也表示,巴德根本没有通过一些道德基准测试,并且容易撒谎和发表负面言论。
在内部测试期间,一名员工询问巴德如何降落飞机,巴德的回答是很容易导致坠机的步骤。
当另一名员工向巴德提出潜水问题时,它给出的答案很容易导致严重伤害或死亡。
除了这些危险的答案外,谷歌还放松了对一些道德和社会问题的要求。
谷歌内部有一个人工智能伦理研究团队,负责探索、建立和评估人工智能带来的风险。
他们有权直接给一项技术贴上红标,如果没有通过测试,暂时不会向公众曝光。
▲Timnit Gebru,前谷歌AI伦理团队研究员。
图片来自:彭博社 谷歌还承诺在2020年扩大AI伦理研究团队,投入更多资源遏制技术研究人员的逐利行为。
但有趣的是,球队领导层一直在变化,去年还经历了一轮裁员。
谷歌目前的人工智能相关技术研究人员数量是其道德安全团队的 30 倍。

即使在 ChatGPT 抢走了 AIGC 行业的风头之后,谷歌也开始动摇,道德团队的人员被告知不要阻止或“杀死”任何正在开发的生成式 AI 工具。
在经历了内部测试并收到大量“质疑”后,谷歌面对微软和ChatGPT的商业压力,最终选择将其作为“实验产品”向外界发布。
因为在一些统计调查中,实验性的产品即使有缺陷,也更容易被大众接受。
而一些员工也认为,新技术应该尽快向公众发布,这样才能快速获得反馈,让产品更快更新和改进。
事实上,在Bard发布后的很长一段时间里,Google只做了一处改变,为其添加了数学逻辑修改。
没有提及是否对一些敏感围栏和敏感话题进行了更改或优化。
巴德似乎也在日新月异的人工智能浪潮中被边缘化。
马斯克:他必须监管。
有趣的是,几乎在皮查伊采访前后,马斯克还在福克斯新闻上谈到了谷歌。
马斯克和谷歌创始人拉里·佩奇曾经是亲密的朋友。
佩奇甚至购买了 SpaceX 10% 的股份,想去火星和马斯克一起玩沙子。
但2006年谷歌收购DeepMind后,两人对AI产生了不同看法,最终决裂。
同年,佩奇在TED演讲中表示,他的最终目标是打造一个超级数字人工智能,他称之为“数字之神”。
对于这个想法,皮查伊在采访中没有否认也没有同意。
相反,他只是表示谷歌将在5月10日的Developer I/O大会上发布新的AI产品。
马斯克对于“数字上帝”有着清晰的认识。
谷歌拥有一支在全球接近垄断的高性能计算机和人工智能团队,最有可能成就所谓的“数字上帝”。
但公司领导佩奇根本不关心人工智能带来的安全问题,这对世界来说是相当危险的。
这也是为什么他最近看到ChatGPT、New Bing、Bard喜欢胡说八道后就想介入,推出了一款类似的产品,叫做TruthGPT。
此外,马斯克还呼吁各国组织出台相应政策,限制人工智能当前的一些异常行为。
由于生成式人工智能的特点,其数据来自互联网论坛、论文、网站等,由于这些数据没有脱敏、没有严格限制,很容易产生风险、有害或不准确的言论。
此外,随着AIGC行业目前的火爆,进入者犹如淘金热,仿佛人工智能正在进入新的发展阶段。
但目前大规模模型、高算力的产业化生成方式也使得AI很容易被大公司垄断。
当他们内心难以权衡追求利润还是维护安全时,很容易在人工智能定位上犯错误,造成不可挽回的后果。
尽管马斯克在AIGC有一点自私,但在一些重大问题上马斯克确实必须更加清醒。
拥有权利的同时也被赋予了重大的责任。
Google Photos将使用AI识别和标记图像,帮助用户对图像进行整理和分类。
这是谷歌早期的人工智能应用之一。
尽管Google Photos调整了免费容量,但它仍然是我最常用的应用程序。
但在 中,谷歌照片错误地将一名黑人软件开发人员和他的朋友的图像标记为“大猩猩”。
更正常的反应是道歉并重建算法以逐步修复这个识别错误。
然而,谷歌选择删除“大猩猩”、“黑猩猩”和“猴子”等所有搜索结果。
现在谷歌巴德的问题是,谷歌仍然没有承担责任的意思,仍然选择看不起。
为了赶上ChatGPT,Google内部存在的AI伦理团队并没有对它进行全面评估,只对敏感话题进行研究,最后仓促推出。
彭博社还援引了一位前AI道德团队高管的评价,认为谷歌在开发尖端AI或开发有道德底线的AI方面一直存在争议。
事实上,在AIGC行业,不仅是谷歌,英国《金融时报》也透露,微软、亚马逊等科技巨头正在大规模裁员AI道德团队。
看来,在AIGC快速发展、相互竞争的当下,AI伦理和AI安全已经成为了他们追求彼此的桎梏。
正如斯坦福大学研究人员在报告中指出的那样,AI产业的快速发展已经从学术化转向产业化。
在商业利益的诱惑下,各种人工智能不断涌现,但其背后的伦理、安全、敏感、有害等信息却逐渐被忽视。
大公司也变得不愿意承担更多的社会责任,只是徘徊在法律法规的边缘,这最终可能会对社会和AI行业产生深远的影响。
目前,许多国家和地区,甚至一些公司和组织都在积极研究制定一些规则来限制人工智能的无节制发展。
正如前《福布斯》中文副主编尹盛所言:“大公司必须做得比用户和法律要求的更多,因为你创造了一个新世界并从中受益,你必须帮助整个社会学会如何治理它。
”不采取主动,社会就会接管。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-17
06-18
06-18
06-17
06-17
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态