乐视网发起设立规模5亿至10亿元的投融资并购基金
06-18
人工智能的成功不仅仅归功于金字塔顶端的天才。
人工智能无法识别物体,需要大量数据来学习区分面部特征和交通信号灯。
人工智能接受所有信息,并依靠人类帮助它消除数据库中的有害部分。
当人工智能最终出现在聚光灯下时,数据注释者完成了他们单调而重要的职责,然后消失在黑暗中。
风靡全球的ChatGPT,大概就是一个“一将成功,万骨枯死”的故事。
ChatGPT的“幕后英雄” ChatGPT的强大程度不言而喻。
它可以用自然语言与你交谈、编写代码、写论文、通过考试、创作诗歌。
与之前的“人工减速”相比,ChatGPT的前身GPT-3也是一个很大的改进,但它有一个问题。
很容易脱口而出暴力、性别歧视和种族主义言论,因此无法真正普及。
吸取了过去的教训,为了确保ChatGPT温和无害,OpenAI建立了额外的安全机制。
▲ 图片来自:shutterstock 根据涉及暴力、仇恨和性虐待的内容示例,训练一个能够检测有害内容的 AI,然后使用这个 AI 作为检测器并将其内置到 ChatGPT 中,以阻止该内容到达用户手中。
起到检测和过滤的作用。
上面的例子需要数据标注,这是大量的人力劳动,由肯尼亚的工人负责标记有害内容。
从今年 11 月开始,OpenAI 向外包公司 Sama 发送了数万条文本片段,其中大部分反映了互联网最黑暗的角落,涉及性虐待、自杀、酷刑等。
▲ 图片来自:Sama 数据注释者开始在阅读不可接受和有害的内容后反复产生幻觉。
繁重的工作量并没有带来优越的待遇。
《时代周刊》调查发现,为 OpenAI 工作的 Sama 数据注释员每小时的工资约为 1.32 至 2 美元。
他们九小时轮班工作,阅读并注释最多段落的文本,每个段落的范围从一个单词到多个单词。
但 Sama 回应称,每 9 小时轮班注释 70 段的工人(而不是最多)税后每小时的收入在 1.46 至 3.74 美元之间。
Sama 还称自己是一家“有道德的人工智能公司”,已帮助超过 50,000 人摆脱贫困。
如果讲道德意味着帮助摆脱贫困,那么也许这并没有什么错,毕竟这些贫困工人没有更多的选择。
但“副作用”始终存在,身心的折磨成为必要的代价。
由于萨玛对员工工作效率要求极高,因此公司很少组织心理咨询活动,更何况这些活动本身用处不大。
一名员工曾要求进行一对一咨询,但多次遭到萨玛管理层的拒绝。
OpenAI 也对外媒 Quartz 做出回应,称他们支付的费用几乎是东非其他内容审核公司的两倍,并为员工提供福利和养老金。
虽然各方说法不同,但基本事实是一致的。
为了让AI更加安全,为了让OpenAI的通用AI造福人类,大量的工作者付出了巨大的努力,甚至遭受了创伤。
但当 OpenAI 估值接近 1 亿美元时,他们仍然默默无闻。
最后的毛细管数据注释器并不是什么新工作。
早在 2017 年,计算机视觉专家李飞飞就以每小时 10 美元的价格雇佣了一群普林斯顿大学的本科生来进行数据标注实验。
如今,数据标注已经发展成为一个行业,但薪资大幅下降,主角也不再是大学生。
大约在这个时候,有媒体报道了国内的数据标注员,他们分散在河南、山东、河北等地的四五线城镇。
同样,Sama 总部位于旧金山,在肯尼亚、乌干达和印度雇用员工。
除了OpenAI之外,它还为谷歌、Meta和微软等硅谷客户标记数据。
然而,这两年,萨玛下定决心,要金盆洗手。
今年2月,Sama决定终止与OpenAI的合作。
员工不再需要忍受痛苦,但生计也难以维持。
“对我们来说,这是养家糊口的一种方式。
”今年1月,Sama更加果断,计划退出所有自然语言处理和内容审核工作,只做计算机视觉数据标注,并与所有涉及敏感内容的业务分道扬镳,包括终止与东非Meta的合同。
在非洲内罗毕办事处为 Meta 工作的 Sama 员工专注于审核本地制作的内容,发现斩首、虐待儿童等超出他们舒适区的内容。
一名员工将查看图像内容描述为“生活在恐怖电影中”。
有需求就有市场,不乏这样的外包公司。
据报道,负责 TikTok 在非洲审核服务的卢森堡外包公司 Majorel 已准备接手 Meta 的工作。
该公司也受到了一些批评。
2019年8月,Insider调查了摩洛哥Majorel的情况,发现工人们经常轮班工作超过12小时,被贴上涉及虐待动物、性暴力等的标签,而且休息时间比美国同行少。
公司的“健康顾问”也帮无事可做。
作为科技产业链末端的毛细血管,数据标注也出现在更多的地方。
去年 11 月,The Verge 报道称,亚马逊在印度和哥斯达黎加雇佣了工人,通过观看仓库摄像机的数千个视频来改进其计算机视觉系统。
▲ 图片来自:路透社 但因为至少八个小时无法转动眼睛,他们出现了头痛、眼睛疼痛和视力丧失的症状。
自动驾驶汽车还需要数据注释来学习如何识别路标、车辆、行人、树木和垃圾桶。
它对注释的准确性要求更高,因为它可能直接决定一个人的生死。
2019 年 4 月的一项调查发现,包括特斯拉在内的自动驾驶公司平均每小时向委内瑞拉工人支付 90 美分多一点的工资来注释自动驾驶数据。
至少目前来说,数据库仍然需要人类去净化,AI图像识别仍然需要人类去画框。
问题是,与付出的努力相比,工人们的待遇和心理健康状况并不理想。
自从ChatGPT出现以来,许多越来越边缘化的人开始担心自己的工作。
这可能是一种非常具体的危机感。
与此同时,人工智能与人类的关系也在另一个维度发生了微妙的变化——它改变了人类的工作方式和存在的工作类型,让大量的劳动力隐藏在幕后。
例如,对于数据标注员来说,他们的工作门槛并不高,往往没有硬性的学历要求。

经过几天的培训,他们就可以开始工作了。
一旦你知道了要标记什么以及标记在哪里,那么你基本上就已经入门了,剩下的时间就留给练习以求完善。
他们通常不是正式员工,而是外包的,就像为 OpenAI 工作的肯尼亚工人一样。
这意味着他们生活在一个更加不稳定的世界,工资更低,地位更边缘,在工作场所的发言权更少。
他们只是追随潮流。
他们可能不知道人工智能进展到什么程度。
2016年,《GQ》在《那些给人工智能打工的人》报道:“我们没有研发能力,我们只是一个(合约)富士康”。
▲勒德运动。
历史上也曾上演过类似的情况。
19世纪初的英国,自动化纺织机变得司空见惯,工厂更愿意雇佣廉价、非熟练劳动力来操作机器,导致许多熟练体力工人失业。
时代的车轮不断前进,为AI服务的数据标注者也慢慢被AI取代。
6月,特斯拉计划解雇两名负责视频注释的美国员工,以帮助改进驾驶员辅助系统。
原因可能是特斯拉的自动化数据标注近年来取得了进步,可以替代人类完成的部分工作。
特斯拉 Autopilot 软件总监曾在 AI Day 上表示,该公司可以在一周内收集并自动标记 10,000 个 45 至 60 秒的视频片段。
相比之下,“手动标记每个片段可能需要几个月的时间。
”2009年,世界经济论坛预测,到2019年,将有1万个工作岗位被机器取代,并创造1万个新工作岗位。
他们看好的职位基本都是人工智能和机器学习专家、数字化转型专家、信息安全分析师等技术人才。
相比之下,低收入、低技能的职业正在逐渐退出舞台,并可能最终消失在机器的阴影中。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-18
06-17
06-18
06-18
06-18
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态