专精特新数字化转型升级研究报告
06-17
想象一下,你注册了一个交友网站,上传照片时没有放太多信息,避免不必要的隐私泄露。
结果,一个无聊的人用你的照片进行反向搜索,找到了你的全名、工作单位、教育经历、其他平台的账户等等……有了这些信息,他开始关注你,这很令人毛骨悚然。
这不是你的错,但是你能做些什么来避免类似的情况吗?一家名为DoNotPay的公司最近推出了一项名为Photo Ninja的面部反识别服务:它对照片中肉眼无法察觉的地方进行像素级修改,从而破坏面部识别系统所依赖的关键特征。
。
最终的结果图像即使是Google等主流搜索引擎的图像搜索功能也无法识别。
比如下面美国总统和拜登的官方合照,首先进行了镜像处理(左右颠倒),并对脸部进行了更细微的处理。
最终的结果成功欺骗了谷歌,让它完全查不出照片中的人是谁,甚至找不到类似的照片结果。
原图:2019年,谷歌AI研究员开发出一项全新技术,可以从算法层面“攻击”计算机视觉。
以物体为例,识别算法的工作方式是从非常精细的像素级别提取特征,总结规则来识别物体。
如下图所示,只要在像素级别添加非常微弱的“噪声”,就可以达到攻击效果,导致神经网络输出完全不同且错误的结果……这种技术称为对抗性机器学习(对抗性机器学习),可用于图像/对象和语音。
我们今天介绍的Photo Ninja是对抗性机器学习的一个应用。
对抗性机器学习的概念提出已有相当一段时间了,但随着技术的进步,近年来发展速度明显加快。
刚才提到Google提出的攻击方法在2018年成功击败了GoogLeNet,而前年GoogLeNet刚刚赢得了ImageNet Challenge……技术没有好坏之分,只是使用技术的人有善恶之分。
对抗性机器学习也是如此,如果落入坏人之手,可能会造成严重后果。
例如,坏人可以到路上“破坏”重要的交通标志,例如停车标志。
虽然不会对普通车辆和人类驾驶员造成影响,但可能会严重干扰自动驾驶系统的正常工作,导致交通事故。
当然,至少在《Photo Ninja》中,对抗性机器学习技术没有被滥用。
Silicon Star 的读者可能还记得我们之前写过有关 DoNotPay 公司的文章。
作为“复合型初创公司”的代表,DoNotPay只有一款手机APP,却包含上百项服务,主要是帮助用户省钱,比如自动申诉交通罚单、切断自动续费服务、起诉电信诈骗、快速生成等。
一次性付款。
信用卡、自动书写各种法律文件等——堪称“掌上维权大师”App,价格仅需3/月。
至于Photo Ninja,该公司声称,这种照片反识别技术在面对亚马逊、微软、谷歌等主流公司开发的相关人脸识别系统时,可以达到约99%的成功率。
当然,Photo Ninja 也并非没有强劲的竞争对手。
Clearview AI是一家专注于监控市场的人工智能公司,已与美国数千家执法机构合作。
DoNotPay 首席执行官 Joshua Browder 表示,不能保证 Photo Ninja 能够欺骗 Clearview AI 的技术。
这可能是因为 Clearview AI 已经从互联网公共渠道捕获并保存了超过 30 亿张人脸照片。
数据量如此之大,甚至超过了美国政府和其他硅谷大公司的水平(该公司也曾遭受过舆论争议)。
随着反机器学习技术的进步,无论是攻击还是攻击防御手段也在不断改进。
我们不排除该公司已经修改了照片并进行了对抗性攻击演练,然后进一步调整了其识别算法。
去年,Clearview AI 透露其数据库遭到黑客攻击,多个客户的名单被泄露。
人们担心,如果监控公司掌握着如此庞大的数据量,如果下次整个图像数据库也被泄露,后果只会更加严重。
回到文章开头提出的情况。
事实上,如果您想在当今时代安全地上网,有太多的事情需要担心。
那么,如何才能继续发布自拍照而不担心自己的隐私被恶意窃取呢?而且,如果范围扩大到现实生活,摄像头无处不在,有什么办法可以让我们不被人脸识别系统抓到,保留最后一点隐私,至少在需要的时候呢?幸运的是,有很多方法可以帮助我们避开人脸/图像识别系统,从软件/硬件思路出发,而且成本并不高。
去年硅星也曾有过一篇文章,简单介绍了几种可以让你在人脸识别系统中“隐形”的方法。

今天,我们还可以分享更多类似的技术。
“假脸”HyperFace 在 2018 年圣丹斯电影节上,一群女性开发者展示了一款可以欺骗面部识别系统的围巾。
当然,围巾只是用于演示该技术的原型产品,我们今天只介绍这项技术。
在人脸识别算法的“视图”中,有一种最理想的面部表情风格(大概类似于下图):而这种风格如果变成图案,印在围巾、帽子、上衣上。
,人脸识别系统会过多关注这些图案而避开真实的人脸。
如下图所示,突出显示的区域是人脸识别系统最关注的区域。
换句话说,HyperFace 的工作方式是“偏向”人脸识别系统的注意力。
然而,仅仅对于上面的模式,它的有效性并不是很高,因为这个模式是针对OpenCV的,而较新的人脸识别技术会使用更复杂的算法,比如卷积神经网络,而对应的模式是不同的,而且即使该模式做出来后,效果无法保证。
开发团队成员 Adam Harvey 也在项目网站上澄清,HyperFace 的原型模式已经过时。
然而,HyperFace 背后的技术思想仍然有效。
如果你有兴趣,你可以找到一些类似的图案,并将它们印在围巾、上衣甚至口罩上。
(毕竟疫情过后,有些人脸识别系统仅靠眼睛露出的特征就能完成识别,口罩已经骗不了人了,甚至戴着口罩也能解锁iPhone。
)“换脸”URME监控不少人们应该看过吴宇森的《变脸》。
剧情中,一名FBI特工为了渗透到犯罪团伙中,自愿与恐怖分子变脸。
结果恐怖分子在侦探醒来后就抢走了他的脸……这样的情节在现实中不太可能发生。
然而,一位艺术家莱昂纳多·塞尔瓦乔(Leonardo Selvaggio)愿意借给你一张脸,让你每天以他的身份走来走去,让他替你承担隐私泄露的风险……塞尔瓦乔高精度地扫描了自己的脸,然后然后我们生产了超高分辨率掩模并在网上以$ 的价格出售。
他将该项目称为 URME(你就是我)。
不幸的是,生产面罩的公司 ThatsMyFace 后来破产了,Selvaggio 尚未找到替代制造商。
但同时,用户也可以下载平面版的人脸图,打印出来自己佩戴,但只是看起来很假……所以本质上来说,URME并没有给人脸识别系统带来任何根本性的打击。
它只是用一个虚假的身份来代替佩戴者的真实身份。
当然,不管黑猫白猫,能抓老鼠的猫就是好猫……正如我们前面提到的,红外光破坏了面部识别系统的跟踪特性,从而导致此类系统出现故障。
与Photo Ninja谨慎的操作相比,红外光的操作更加简单,破坏特征也更加猛烈。
1)复旦大学、香港中文大学、印第安纳大学和阿里巴巴联合发表了一项研究。
在帽子上安装红外LED并将其对准人脸不仅可以欺骗人脸识别系统——如果LED灯的照明位置和方向的细微调整可以扭曲佩戴者的面部特征,甚至使人脸识别系统认为佩戴者是佩戴者。
是别人的,如下图: 2)日本国立信息科学研究所的一位教授提出了一个更直接的解决方案,就是把红外LED直接放在眼镜上。
当LED打开时,人脸识别算法无法将正确的区域识别为人脸: 3)考虑到很多监控摄像头本身使用红外光进行照明,直接在眼镜的镜框和镜片上添加红外反光材料会产生巨大的光斑还可以达到反监视的效果。
Phantom就是这样一副眼镜,由美国人Scott Urban制作并在Kickstarter上发行。
它的售价为 10 ,并于去年 10 月底发货。
当你戴上这种眼镜时,别人看你就像平常一样:然而,在红外摄像机拍摄的照片中,你看起来就像一个神:“魔法”贴纸。
三位比利时科学家曾经做了一个有趣的实验:只要给身体加上奇怪的纹理,在计算机眼中,这个人就不再是人了:这个方法也使用了本文前面提到的对抗性机器学习,但是肉眼效果更明显。
或者换句话说:这种方法更好地解释了基于图像的对抗攻击是如何工作的。
由于某种原因,这些地图破坏了人类形态的特征,并阻止识别系统正常工作。
理论上,我们可以专门生产这种贴纸印刷的服装。
戴上它,走在监控摄像头前,其实也会一样隐形……综上所述,如果想要骗过面部识别系统和无处不在的监控摄像头,使用方法还是有很多的。
然而,随着监控技术的不断进步和大规模推广,无论是在网上还是现实中,保持完全“匿名”只会变得越来越困难。
而且就像本文开头提到的例子一样,在这样的环境下,滥用监控技术的受害者不一定是这些系统想要攻击的坏人,而更有可能是无辜的人。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-18
06-17
06-17
最新文章
首先告诉我什么是智能汽车!
盲盒明星卡的暴利与泡沫:2元卡卖700万,直播卖卡月入百万
黑色星期五轰轰烈烈地回来了,结果这些中国企业扛起了全场
锂电池隔膜疯狂扩产:兴源材料欲夺回C位?
当我考上缅语专业时:凌晨三点我还在走廊里背单词,毕业后,我不仅仅是一名翻译者
被遗弃,被收获?老年人上网到底有多难?
海外日报 -今年,我国自主研发游戏海外实际销售收入实现两位数增长;三星电子正式成立机器人业务团队36氪海外·15分钟前
腾讯音乐:爱、相信、坚持