近日,两位斯坦福大学的互联网研究员起底了领英上一起利用 Deepfake 谋利事件。70 多家公司借助超过 1000 个用 AI 生成的人脸做头像的领英账户假装公司的销售给潜在客户发送消息,然后再让有购买意向的客户与真人销售建立联系,由此规避大量人力资源花费并扩大自身业务。

无独有偶,月前,一条乌克兰总统泽连斯基呼吁乌克兰士兵放下武器的 “视频” 被广泛传播,这条视频被黑客放到乌克兰一家被黑的新闻网站上,随后被揭穿和删除。这条 “换头” 视频在推特上传播甚广,观看人数超过 25 万,为了避免影响进一步扩大,泽连斯基本人也不得不在推特发文辟谣。对此,加州大学伯克利分校教授、数字媒体取证专家 Hany Farid 说,“这是我们看到的第一个真正站稳脚跟的案例,但我怀疑这只是冰山一角。”AI 换脸技术自诞生以来,屡屡被别有用心之人利用,难道真的无解了吗?

什么是 Deepfake

Deepfake 即深度伪造,是指以某种方式使合理的观察者错误地将其视为个人真实言语或行为的真实记录的方式创建或更改的视听记录, 其中 “视听记录” 即指图像、视频和语音等数字内容。其最初源于一个名为 “deepfakes” 的 Reddit 社交网站用户, 该用户于 2017 年 12 月在 Reddit 社交网站上发布了将斯嘉丽·约翰逊等女演员的面孔映射至色情表演者身上的伪造视频。

的确,视频伪造是 Deepfake 技术最为主要的代表,制作假视频的技术也被业界称为 AI 换脸技术。其核心原理是利用生成对抗网络或者卷积神经网络等算法将目标对象的面部 “嫁接” 到被模仿对象上。由于视频是连续的图片组成,因此只需要把每一张图片中的脸替换,就能得到变脸的新视频。

具体而言,首先将模仿对象的视频逐帧转化成大量图片,然后将目标模仿对象面部替换成目标对象面部。最后,将替换完成的图片重新合成为假视频,而深度学习技术可以使这一过程实现自动化。随着深度学习技术的发展,自动编码器、生成对抗网络等技术逐渐被应用到深度伪造中。

2019 年陌陌推出了一款名为 ZAO 的 AI 换脸应用,上架几天就冲到应用榜榜首,但很快就因存在滥用隐患而下架。2021 年,一段用换脸技生成的 “蚂蚁呀嘿” 视频及其制作软件 Avatarify 再掀风波,并在一周之后火速下架。

较为正向的运用在一些选举活动中,今年年初的韩国大选中,以韩国国民力量党候选人尹锡悦(Yoon Suk-yeol,已成为韩国现总统)为原型构造了是世界上第一个官方 Deepfake 政界候选人 “AI Yoon”。当地一家 Deepfake 技术公司借助尹锡悦 20 小时的音频、视频片段以及其专门为研究人员录制的 3000 多个句子,创建了虚拟形象 AI Yoon,并在网络上迅速走红。

此前也有 AI 技术被用于选举,比如纽约市长候选人杨安泽(Andrew Yang)曾在虚拟世界中进行竞选。但 “AI Yoon” 的创造者认为这是世界上第一个官方 Deepfake 候选人。

除了图像、视频方面的 Deepfake,语音方面的 Deepfake 也日渐滋长。虽然语音钓鱼并不是什么新鲜事,但 Photon 研究人员指出,Deepfake 技术的进步使语音钓鱼尝试看起来比以往任何时候都更加可信。Photon Research 团队表示,“虽然人工智能发展历程有限,但如今公开市场上可用的语音模拟工具可谓非常复杂。深度学习 AI 技术可以创建非常逼真的 Deepfake。当然,模拟的成本可会随着可信度的增加而增加。”

研究人员表示,在 Deepfake 音频技术的帮助下,威胁行为者可以冒充其目标并绕过语音身份验证机制等安全措施,来授权欺诈交易或欺骗受害者的联系人以收集有价值的情报。

积极应对

人脸合成技术向着越来越便捷的方向发展,不断进化的技术应用也带来了隐私和安全问题。过去几年来,研究人员积极提出各种 Deepfake 检测技术。这些研究主要是在真实图像和合成图像之间,捕捉细微差异作为检测线索。就在 Deepfake 开源不久,Facebook 首席技术官 Mike Schroepfer 就发博客宣布,公司正和微软联合来自麻省理工、牛津等大学的研究者,通过置办 “Deepfakes 鉴别挑战赛”,探索如何通过数据集和基准测试检测 Deepfake 换脸视频。

美国国防部也研究了一项名为 Forensic 的图像鉴定技术。他们的思路是寻找图片和视频中的不一致性,例如不一致的灯光、阴影和相机噪音。

加州大学河滨分校的学者也提出了检测 Deepfake 伪造图像的新算法。同样的,算法的一个组成部分是各种 “递归神经网络”,它能将有问题的图像分割成小块,然后逐像素观察这些小块。神经网络经过训练可以检测出数千幅 Deepfake 图像,它找到了仿图在单像素水平上的一些特质。

孵化自清华大学人工智能研究院的 RealAI 团队也曾宣称,由于 Deepfake 生成的造假视频画面会有不 “自然” 的纹理存在,他们通过海量视频训练神经网络,让其学习正常情况中的纹理特征,再以此检测造假视频中不一致的纹理。利用该技术,可以对造假视频实现逐帧检测,准确率高达 90% 以上。

为了更好地检测出 Deepfake,来自武汉大学的汪润等人合作开发了一个系统:FakeTagger。FakeTagger 是首个通过图像编辑为 Deepfake 出处和跟踪进行的工作软件。它利用编码器和解码器将视觉难以分辨的 ID 信息,以足够低的级别嵌入到图像中,使其成为基本的面部特征数据,然后再通过嵌入的信息对图像进行恢复,从而确定是否为经过 GAN 处理的 Deepfake 图像,重新识别率高达 95%。

除了大企业和科研院校,有关部门也开始关注相关话题。今年 1 月 28 日,网信办在针对深度合成技术及内容的征求意见稿中提出,深度合成服务提供者应当对人脸生成、人脸替换等深度合成信息内容须进行显著标识。2021 年 7 月,最高人民法院发布了关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定。

2021 年 4 月,欧盟首次发布了针对人工智能技术的监管法规草案,宣布所有远程生物辨识(remote biometric identification)系统都被视为高风险的人工智能系统。欧盟最新法案将高风险 AI 应用涵盖重大基础建设、大学入学筛选系统及银行贷款审查系统等。根据新法,这类高风险 AI 应用将受到欧盟严格监管,违法企业最高面临全球年营收 6%的罚款。

总结

“深度伪造” 作为近年来人工智能深入发展下的产物,相关的技术应对与治理都还很难完全解决问题,一旦任其蔓延,真假信息将越来越难以分辨。目前,“深度伪造” 技术最主要的隐患在于传播错误信息,影响舆论。而有些公司如 Hour One 另辟蹊径,直接租用一些心甘情愿者的面部信息,该公司的一些客户则光明正大在宣传或商业视频中使用这些面孔中适合用来包装的角色。显然,“深度伪造” 不应该被滥用成颠倒黑白、逃避责任的避难所,在保护大众隐私安全之下,商业社会依然可以对其做一些有益的探索。

推荐内容