更近了一步!美的精选小额IPO申请获证监会受理
06-18
《少数派报告》《疑犯追踪》这样的影视作品可能这几年才出现。
如果是近几年的影视作品,观众在观看的时候会非常“心慌”。
犯罪预防、预测模型、用系统来预测没有发生的事情……这意味着大量的信息会被收集,也意味着你会被一个未知的系统判断,以确定是否存在威胁。
我想没有多少人喜欢把命运留给未知的感觉。
但如果你不喜欢它,你可能也无能为力,因为在你不知不觉中,越来越多的公司正在收集你的公开信息,以从你在社交网络上的日常内容来确定犯罪的可能性。
▲ 图片来自:《少数派报告》社交媒体成为最大的“吹哨人”。
这是自我暴露吗? Voyager、Kaseware、Aura、PredPol 和 Palantir 是一些试图通过社交网络识别潜在威胁的公司。
他们中的许多人还与当地警察部门合作,站在预测犯罪的最前沿。
从每个人的社交媒体获取所需信息是此类公司的核心。
他们利用用户在社交网络上发布的内容来预测对方是否有可能实施犯罪。
这类公司的算法各有不同,但基本上都是利用人工智能来破译用户的在线消息,并从用户分享的内容中判断主体是否已经犯罪、是否可能犯罪,或者是否坚持某种危险的意识形态。
▲ Kaseware 官网页面 这其实并不是一个新的开发。

毕竟,2010年,有人将社交网络变成了“城市的脉搏”。
很少有一个空间和产品能够同时容纳如此多的用户,并让他们愿意分享自己的一切。
社交网络的特性为人们寻找目标创造了条件。
学生在社交网络上寻找受访者,统计机构在社交网络上预测选举结果,还有人工智能侦探想要在社交网络上寻找罪犯。
因为每个人都使用社交网络,社交网络往往可以反映一个人的真实情况。
美国密歇根州众议员泰隆·卡特认为,警方对公共社交网络的搜查并没有违反任何法律,也没有侵犯用户的权利,因此这一预测是可行的。
当您在公共页面上点击发送时,该帖子就不再属于您了。
人们会因为自己发布的内容而陷入各种麻烦,因为社交媒体是我见过的最大的自我报告者。
▲图片来自:Lifehacker 但秘密只有在引导下才会被揭晓。
与洛杉矶警察局合作的 Voyager Labs 在这一过程中发挥着主导作用。
然而,非营利组织布伦南中心通过洛杉矶警察局提供的公开信息发现,Voyager 的作品也涉嫌种族歧视和侵犯隐私。
像 Voyager 这样的公司的运作方式并不复杂。
它收集一个人社交媒体上的所有公共信息,包括帖子、联系人甚至常用的表情符号。
在某些特殊情况下,它会利用这些公开信息与非公开信息进行交叉引用,以进行进一步的分析和索引。
▲ Voyager 会根据个人社交媒体参与话题做出判断。
通过Voyager的服务,警方可以清楚地看到一个人的社会关系。
他们如何联系以及如何在社交平台上互动。
更进一步,Voyager 甚至可以检测两个用户之间是否存在间接联系(两人至少有四个共同朋友)。
听起来它只是查看用户在社交网络上做了什么,并将其用作调查的辅助信息。
但事实上,Voyager不仅收集和展示信息,它还做出判断。
▲ Voyager 将通过社交网络关系链做出判断和预测。
Voyager 在提交给洛杉矶警察局的白皮书中提到了一起袭击案件。
这个案例具体展示了平台的做法——AI无需人工干预即可运行。
根据人们在社交网络上发布的内容完成自动审核和分类(用户分别用蓝色、橙色和红色标记)。
在一个具体案件中,枪击嫌疑人亚当·阿尔萨利(Adam Alsahli)因在 Facebook 和 Instagram 上发布伊斯兰主题照片,被系统认定为“对阿拉伯传统有强烈的自豪感和认同感”。
结果,Adam Alsahli 在发起特定攻击之前就被 Voyager 的 AI 工具标记为橙色。
这可以是一个成功预测潜在犯罪分子的案例,但同时也是一个“偏见”的案例。
▲ 枪击嫌疑人 Adam Alsahli 作案前社交媒体信息已被标记为橙色。
数据可以预测犯罪吗?但数据并不能完全令人信服。
这些结论真的可信吗?他们的判断依据是什么?大数据下如何让每个人自证清白?确实有很多数据证实了社交网络的内容偏见与犯罪事实之间的相关性,但这并不是百分之一的相关性数据。
纽约大学坦登工程学院和全球健康与公共卫生学院发布的研究结果显示,推特上种族仇恨言论较多的城市相关犯罪率也较高;芬兰的一项研究还表明,根据二十年的数据,气温每升高1℃,犯罪活动就会增加1.7%;美国研究证明,周末晚上车辆失窃率激增;事实证明,当当地足球队意外输球时,家庭暴力事件将会增加10%。
▲ AI 无法做出 % 正确的决定,但这些并不能证明什么,因为概率和事实是不同的。
即使有相关数据支持,也无法证明在种族仇恨言论最多的城市,夏季周末晚上车辆会被盗,当地主队在热天输球时会发生更多家庭暴力案件。
类似的犯罪预测系统是基于现有的犯罪事实和研究成果。
由此引发的另一个问题是,它充满了“刻板印象”。
图灵奖得主杨立坤曾表示,当数据有偏差时,机器学习系统就会有偏差。
具体到单个案例,当机器学习收到的信息是监狱里黑人男性用户比例很大时,这样的系统可能会做出黑人男性更有可能犯罪的判断。
▲ 杨立坤表示,机器学习系统的偏见来自于人。
对于机器学习来说,“黑人男性更容易犯罪”可能是数据分析的事实,但实际上这将是种族偏见和差别待遇。
对用户进行秘密评级,对哪些人更具威胁性进行分类,并对威胁者进行更密切的跟踪和预防,是整个系统的运行逻辑。
类似的初创公司将使用算法和人工智能来解释他们处理和分析信息以做出决策的过程。
尽管目前尚无证据证明这一预测有效,且公众也存在不少质疑,但警方仍希望与类似平台合作。
▲ 对于警方来说,平台的预测服务非常有价值。
对于警察来说,这样的工具非常有吸引力。
社交网络上Voyager等平台的发现可以为用户画像提供有效帮助,避免漏线。
微妙的线索。
如果只是为了协助调查,这可以是一个非常有效的工具。
但当该工具发展到后期,开始发挥预测犯罪的作用时,它也可以成为伤害人的武器。
经过前几年的融资狂潮,不少AI产品已经进入应用阶段。
但在某些领域,它们仍然发挥着辅助作用。
医疗是AI介入非常谨慎的领域。
即使在发展最快的AI医学影像领域,如今的AI技术仍然无法保证10%的准确率,需要人类医生的干预。
因为大家都知道,医疗是一个要求近%准确率的行业,任何偏差和错误都可能造成严重的后果。
▲现阶段,我们可能更需要人类警察,警务领域也是一个力求%正确的领域。
任何没有证据支持的猜测和推断,也会产生严重的后果。
一个在社交媒体上发表各种歧视和暴力言论的人可能会被贴上潜在犯罪分子的标签,有90%的可能性实施暴力犯罪,但在他真正实施犯罪行为之前,他只是一个普通人。
在整体数据集中,我们永远不能忽视每个人都是独立的个体。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-18
06-18
06-17
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态