看新视野NO.06|金沙江周奇:科技投资者要坚持长期潜伏,善于把握技术成熟度
06-18
在悬疑英剧《真相捕捉》中,情报机构伪造监控录像,以给罪犯定罪。
他们认为,伪造监控录像只是将窃听材料等非法证据“重放”成合法证据。
所发生的事情确实发生了,罪犯确实犯了罪。
但没有人知道使用技术的人是否会越界。
毕竟,距离人性只有一步之遥,从嫁接他人到无中生有,从被针对到肆意伪造。
随着人工智能制图的快速发展,这样的世界或许离我们并不遥远。
特朗普和教皇争夺银幕霸主地位,这一切都归功于人工智能的神奇作用。
上周,数十张张特朗普被捕的照片在推特上走红。
他们记录了特朗普入狱的全过程。
当他穿着西装打着领带走出大楼时,他受到了压力。
地上,穿着囚服,在铁丝网旁思考人生。
然而,这些只是人工智能生成的图像。
发起者艾略特·希金斯的账号被锁在暗室中(现已恢复正常),“被捕”一词也被平台屏蔽。
周末,轮到推特@skyferrori让教皇方济各穿着Balenciaga风格的羽绒服走了出来。
有人评论说是说唱、DJ的风格,就像是要发专辑一样。
这条推文浏览量超过1万次,转发超过3万次,欺骗了很多人。
后来在图片下方添加了“AI生成图片”的描述。
有推特网友认为,这起事件是首例真正大规模的人工智能造谣案例,可以载入史册。
更多的模仿随之而来。
特朗普下乡再就业,在街上拉黄包车;教皇穿上羽绒服,走向星星和大海;外星人体验生活,整天上班,然后深夜喝醉。
这些虚构的平行世界名人图片大多来自AI绘画工具MidJourney V5版本。
V5版本模型可以比V4版本生成更高质量和更真实的图像,并且具有更多的自定义选项和更快的渲染速度。
它是目前可用的最高级别的AI绘图工具之一。
最直观的一点就是,它基本解决了之前AI无法很好地画手指的问题,人类失去了另一种辨别真假的方法。
(顺便说一句,2020年7月就发布了V1版本,可见迭代速度有多快。
)输入提示(提示词)并不难。
名人的名字、动作、地点等都可以用来创建图片。
上面也有很多图片“一看就是假的”,然后还有更让人眼花缭乱的高级版本。
上周,这张使用 Midjourney 生成的一对中国夫妇的照片在互联网上疯传。
日前,一位Reddit用户发布了一组新闻图片,记录了北美西海岸卡斯卡迪亚发生的9.1级地震和海啸。
你可以看到对这场灾难的各个角度的报道:房屋被毁、巨浪咆哮、滞留在机场的人们露出惊恐的表情、救援人员竭尽全力从废墟中救出被困的幸存者、新闻记者争先恐后地进行现场直播。
整组照片的色调、服装、场景都有着世纪初的味道。
有的看起来很“业余”,像是当地居民随手拍的,但这样的照片往往被视为珍贵的资料。
不过,这组图像也是使用中途生成的,灾难并不存在。
同样,网友Arctic_Chilean伪造了“2020年7月美国太阳超级风暴和大停电”事件。
他觉得MidJourney擅长捕捉年初新闻镜头的美感,在生成天际线和地标的极光照片方面也表现出色,但无法生成城市。
停电场景。
另一位网友FinewithIX则利用AI生成了2016年登月的幕后图片,模仿了当时颗粒感更强的电影风格。
这种写实的新闻图片不具备特朗普和教皇鲜明的个人特征,所以你更容易感到困惑。
从Deepfake到Cheapfake创造了“时尚教皇”的@skyferrori,在作品上映后接受了媒体采访。
他是一名来自芝加哥地区的 31 岁建筑工人,使用 Midjourney 没有什么特殊目的,也没有对教皇的恶意,只是为了好玩。
出乎意料的受欢迎让他姗姗来迟地意识到人工智能的广泛影响。
别有用心的人甚至用这些照片来指责天主教会铺张浪费。
我之前没有想过这个问题。
人们接受它并认为这是真的而不质疑它,这绝对是可怕的。
现在的玩家大多只是玩玩,但就像《真相捕捉》中讨论的伪造证据和程序正义一样,我们不知道边界何时被跨越,终点在哪里。
在大多数情况下,色情、政治和谣言总是排在第一位的。
一张地铁女子照片被AI一键扒掉,成为今日微博热门话题,但肇事者却隐藏在AI背后。
当时间和地点都合适的时候,普通人如何能够自己辨别呢?声音克隆正在以同样可怕的速度发展。
诈骗者利用人工智能模仿家庭成员的声音,拨打诈骗电话来勒索钱财。
此类案例在美国已发生多起。
声音克隆技术并不新鲜。
问题是门槛越来越低。
正如加州大学伯克利分校教授哈尼·法里德所说:两年前,甚至一年前,克隆一个人的声音需要大量音频。
现在,如果你有一个 Facebook 页面,或者你录制了一段 TikTok 并且你的声音持续了 30 秒,人们就可以克隆你的声音。
它们甚至变得更便宜,ElevenLabs 的语音克隆技术于 2016 年推出,每月仅需 5 美元。
有了语音和图片,完全可以用AI生成视频。
有人用ChatGPT生成语音内容,用Midjourney生成头像,用ElevenLabs生成声音,用D-ID生成口型同步视频,创建了一个完整的短视频。
找到了?我们仍然可以争论某个图片或视频是真是假,但问题的核心是它们的冲洗速度。
换脸Deepfake有一定的技术门槛,但现在如果你愿意花一些时间入门AI软件,学会如何写别人的提示语,最多订阅一个plus会员,造假的成本已经是比以前低。
然后,它们广泛传播到 Twitter、Reddit、TikTok 等社交媒体。
有人称之为“Cheapfakes”(廉价假货),考虑到生产和传播成本,这是恰当的。
The Verge 指出,人工智能曾经只是一种功能,现在它正在成为一种产品。
这有点类似于史蒂夫·乔布斯在麦金塔电脑上安装鼠标和图形界面操作系统,并将多点触摸屏连接到智能手机。
大众使用的门槛已经解决,技术不再为少数精英所拥有。
从那时起,相关服务就必须能够起飞。

过去我们常说没有图片就没有真相,但在不久的将来,图片可能不是真相,视频也可能不是真相。
他们无法证明任何事情。
如何在科技的未来生存 在科技面前,意识和法律总是稍显滞后。
已经出现的漏洞还有时间弥补吗?提供AI服务的企业自然要坚守一线。
今年1月底,由于太多用户存在语音克隆行为不当,AI语音工具ElevenLabs宣布推出新的保护措施。
其中两个更重要的是:推出新的人工智能检测工具来验证音频剪辑是否是使用他们的技术生成的。
;让某些功能仅收费使用,减少用户的匿名性,让他们“三思而后行”;社交媒体也在寻找减少错误信息传播的方法。
TikTok 上周宣布,所有展示现实生活场景的 Deepfake 都必须被贴上虚假或更改的标签,并且公众人物的 Deepfake 不能用于政治或商业代言。
事实上,假图片、假声音、假视频早已存在。
过去有无数的讨论和争议,但直到今天它们才成为真正的问题。
2016年,Adobe宣布了内容真实性计划(CAI),希望创建一个系统,将源和详细信息永久附加到带有加密签名的图像上,目前该系统仍在开发中。
每当有人下载??、截屏或编辑图像时,CAI 元数据标签都会表明该图像已被处理。
这听起来非常有用,也可以用于人工智能工作。
但Adobe也指出,要使系统有效工作,需要大量的硬件和软件支持,包括支持添加标签的相机、记录处理细节的照片编辑工具、显示标签的社交媒体等等。
这几乎涉及到从制造到传播的方方面面,可想而知其难度有多大。
现在,人工智能欺诈的困境也类似。
就像过去无数次讨论过Deepfake一样,科技公司、媒体机构甚至每个个人都应该承担一份责任,但这恰恰是一种难以实现的理想情况。
退出“时尚教皇”圈子后,拥有近万推特粉丝的模特克丽丝·泰根 (Chrissy Teigen) 感叹:我以为教皇的羽绒服是真的,没想太多。
我不可能在科技的未来中生存。
人工智能的发展速度超出了公众意识和法律法规的承受能力。
只能说,当我们看到某个图片时,最好不要假设它是真实的。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-18
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态