真实与虚假
说到最近两年 AI 领域的“黑科技”,那一定是 Deepfakes 无疑了。自 Deepfakes 诞生至今,在伴随着高关注度的同时,巨大的争议也如影随形。
Deepfake 是一种利用深度学习算法合成虚假图像、视频等技术的统称。这项技术诞生在 2017 年底,一个名为“Deepfakes” 的用户,在 Reddit 社区里上传了一些视频,视频中成人电影女主的脸被换成了当红明星的脸,竟毫无违和感,真假难辨,盖尔·加朵、黛茜·雷德利、娜塔莉·波特曼等一众女星都成了“受害者,相关视频很快热度窜升。
随后,Deepfake 算法被公开,APP 也做了出来,这一下子激发了不少计算机爱好者的兴趣,他们想出了各种各样的玩法儿,有“腹黑”网友将它当作色情复仇的工具,收集自己讨厌的女生的照片,用 Deepfakes 来定制“小黄片”。还有很多网友特别喜欢用 Deepfake 来恶搞政治人物,将程序员的脸换成奥巴马、普京,把希拉里变成“希拉里·川普“…
在国外火了一段时间之后,Deepfake 的热度也传到了中国,技术大神们纷纷开始施展脑洞,把六小龄童“变”成帅气的蔡徐坤,普通的网红可以瞬间变成杨幂、刘亦菲,徐锦江分分钟变身美国英雄“海王”,杨幂的脸换到朱茵版黄蓉的脸后竟意外达到了演技巅峰…
现在业内有人提出了 Deepfake 2.0 阶段的概念,相对于 1.0 阶段的换脸,以后 Deepfake 还可能会做到模仿人的行为举止、声音、习惯、动作,以达到和真人视频难以区分的程度。今年 6 月初,Facebook 上一个关于马克·扎克伯格的假视频传播度特别高,视频里的人从长相、声音、穿衣、手势、说话时的动作神情都与真人无异,但确实是合成的。
- 3.0x
- 2.5x
- 2.0x
- 1.5x
- 1.25x
- 1.0x
- 0.75x
- 0.5x
一周前,又出现了一种新的“Deepfake”技术,只需要一张照片,加上一段音频,就能让爱因斯坦张嘴演讲,让百年以前就去世的人大唱歌手碧昂斯的歌曲。
- 3.0x
- 2.5x
- 2.0x
- 1.5x
- 1.25x
- 1.0x
- 0.75x
- 0.5x
是不是感觉到细思极恐了?Deepfake 技术在迅速迭代的过程中,也在挑战着人类的认知限度。
Deepfakes“作恶”越来越突破边界
现在,人们普遍担忧,Deepfakes 的不良应用正在变得越来越没有边界。这项原本存在高门槛的技术在开源之后变的更加接地气,任何人即便是一个没有技术背景的人只要投入一定的资金购买工具和掌握基础计算能力都可以在较短时间内生成一个换脸的假视频。
不久前,一位程序员出于娱乐目的利用 Deepfake 开发出的 DeepNude 应用让不少人直呼“节操掉了一地”。在这个 App 上,只要传上去一张女性的照片,在神经网络技术的帮助下,DeepNude 可以自动“脱掉”女性身上的衣服,显示出裸体。令作者万万没想到的是,这款应用竟在短时间内
得到了如此大规模的病毒式传播。试想,一旦 DeepNude 大规模滥用,对于女性的隐私权、名誉权将会带来巨大损害。
所幸,因为饱受争议,目前作者已经关闭了 DeepNude。不过今天有外媒消息称,DeepNude 可能有了“死灰复燃”的迹象,有人认为直接下架应用破坏了信息自由传播的理念,他便收集了原应用的神经网络框架和训练模型,在 GitHub 上新建了一个开源的 DeepNude 项目。
现在看来,仅仅下架并不能完全解决问题,此前已售卖的旧版本的 DeepNude 仍然还在流通,不排除以后还会有其他人再次“复制”DeepNude 并传播。
在过去的两年时间里,Deepfake 的负面影响多在名人、明星等群体范围内,但现在它传播的巨大威力已经让很多人坐立难安了,在极短的时间里,利用 Deepfake 的“恶搞行为”已经从娱乐圈
蔓延到了政坛上。
有报道评论称,现在美国的政治界到处充斥着对于“虚假新闻”与操纵社交媒体的指责。一旦有人
利用 Deepfake 蓄意炮制关于政要根本不存在的公开动作、发言等,这势必带来假新闻的泛滥,牵一发而动全身,由政治风险波及到的经济问题、外交问题等带来的损失将不可估量。
2016 年美国总统大选佛罗里达州候选人共和党参议员卢比奥就曾经痛批过 Deepfake,他表示,Deepfake 的威力堪比核武器。“过去,如果你想威胁美国,那你需要 10 艘航母、核武器,还有洲际导弹。现在,你只需要登录我们的互联网系统、银行系统、电网、基础设施网络,甚至,你只需要具备弄出一段可以以假乱真的虚假视频来搞乱我们的选举就行了。这就足以让我们的国家陷入巨大的内乱,深深削弱我们。”
卢比奥的观点虽然有一些偏激,但这也从侧面说明了政客们对于 Deepfake 的担忧。
其实,逼真的“换脸术”现在还不是最可怕的。最可怕的问题是,除了视频内容,AI 还可以生成虚假文本、在线体验甚至是电话交谈内容。为了提高公众对于 Deepfakes 的问题及风险的认知,一直致力于 AI 安全与有益的非营利性组织 OpenAI 曾于今年 2 月发布了一种能编写文本及文章的 AI 算法 —— GPT-2。GPT-2 能够创作任何主题,它编写的文字能够以假乱真到让大多数读者认为这就是出自某位作家之手。
随着深度学习、NLP 等技术的发展,识别计算机生成的内容变的越来越困难了。有数据显示,
亚马逊上高达 30%的产品评价都是伪造的,如果 AI 写作被大规模用于电商销售上,对电商平台以及商品供应商带来很大的品牌影响力损伤。
AI 生成文本加上虚假图像、视频以及语音合成等带来的挑战还有很多。除了在政界传播混乱之外,未来也很有可能引发新的网络安全威胁浪潮,包括数字伪造、利用虚假数字语音导致的身份信息被盗,甚至是执法挑战——“超出合理水平的可疑证据”将迎来更高的甄别门槛。最终,公众将越来越不信任一切数字媒体。
技术性探测和立法监管已有进展
今年早些时候,深度学习专家 Yann LeCun 在自己的推特上反思,要是他早先能够预料到卷积神经网络(CNN)会被滥用,当初还该不该开源 CNN 呢?
有研究人员反驳,如果绝对的因为担忧技术风险而一刀切,那么可能也就失去了当初研发 AI 的意义。
AI 技术是一把双刃剑,关键看掌握技术的人如何使用。与其从源头上遏制其传播,倒不如在预见一种技术将会带来负面影响的前提下从技术、监管等方面做好各种防御准备。而我们如今也正身处基于 AI 的图像、视频、音频、文本生成器以及基于 AI 的探测器之间不断升级的战斗当中,这种猫鼠游戏类似于细菌与抗生素、恶意软件与反病毒平台之间的永恒对抗。
目前研究人员已经在注意从技术维度去做一些风险防御措施。诸如,为应对 AI 处理文本的威胁,
麻省理工学院——IBM Watson 实验室与 AI HarvardNLP 推出了巨型语言测试室(GLTR)。这是一种深度学习模型,旨在检测由 OpenAI GPT-2 5 等模型生成的伪造文本。
IBM 也有自己最先进的探测器,客户可以利用包括 IBM Watson Studio 在内的各类解决方案开发高质量模型,从而防范各种各样的 Deepfakes 及网络威胁。IBM Watson 机器学习加速器可以帮助组织在生产环境中部署、管理并维护这些模型。此外,IBM 的 Debater 项目、深蓝项目以及 IBM Watson 等有望提供新的工具来帮助打击 Deepfakes 和其它的欺诈活动。
目前在监管和法律层面上,对于 Deepfake 换脸技术是否侵权,存在较难界定的问题,因为它不受现行法律的约束。如今,这种情形已经有了可喜的改变。
本周,美国弗吉尼亚州正式宣布扩大复仇色情法,严禁经过“深度伪造”的内容,包括制作或操纵的视频和使用机器学习制作的图像等,利用 Deepfake 制作的黄色图像亦包括在内。如果违反该规则属于第一类轻罪,最高可判 12 个月的监禁,罚款额高达 2500 美元。
据悉,该法令已经于 7 月 1 日生效。根据法律,规定未经许可分享某人视频的裸照照片是违法的 ,无论它是真实的还是假的。审查该法律的委员会将重点关注复仇色情和网络传输色情内容,其中包括利用蓝牙等允许基于邻近文件共享的技术将未经请求的性图像发送到人的手机上。
英国政府也正在讨论一项法律,该法律专门涉及制作和分享非自愿的亲密图像,以应对滥用和冒犯性数字产品。讨论该法律的委员会将重点关注复仇性质的色情视频,以及利用 Deepfake 算法生成的色情内容。
写在最后
在得知 DeepNude 宣布关闭后,百度前首席科学家吴恩达在推特上批评称,“这是人工智能最令人作呕的应用之一,DeepNude 死了,我很高兴”。
其实,AI 技术一直是“剑”有双刃、利弊共存,创造技术的时候要小心,应用技术的时候更要谨慎。
评论