什么是deepfake?

摘要

新颖的数字技术使区分真实和假冒媒体变得越来越困难。导致该问题的最新进展之一是Deepfake的出现,这些Deepfake是应用人工智能(AI)来描绘某人的发言和做从未发生过的事情的超逼真的视频。再加上社交媒体的覆盖面和速度,伪造品可以迅速影响数百万人,并对我们的社会产生负面影响。尽管对该主题的学术研究很少,但该研究分析了84条公开的在线新闻文章,以检查什么是深造品以及深造者,深造技术的益处和威胁是什么,深造品的实例是什么,以及如何对抗深造品。 。结果表明,尽管深造假对我们的社会,政治体系和商业构成重大威胁,但可以通过立法和法规,公司政策和自愿行动,教育和培训以及深造假检测技术的发展来打击深造假。身份验证和深度防御。该研究提供了对深度欺诈的全面审查,并为网络安全和AI企业家提供了打击媒体伪造和虚假新闻的商机。

引言

最近的技术进步使使用面部互换几乎不留痕迹的方式轻松创建如今所谓的“ deepfakes”(超真实)视频(Chawla,2019年)。 Deepfake是人工智能(AI)应用程序的产品,它们可以合并,组合,替换和叠加图像和视频剪辑以创建看起来真实的伪造视频(Maras&Alexandrou,2018)。 Deepfake技术可以生成一个人说任何话的幽默,色情或政治视频,而无需涉及其图像和声音的人的同意(Day,2018; Fletcher,2018)。伪造品改变游戏规则的因素是所涉及技术的范围,规模和复杂程度,因为几乎任何拥有计算机的人都可以制作与真实媒体几乎没有区别的伪造视频(Fletcher,2018)。虽然Deepfake的早期例子主要集中在政治领导人,女演员,喜剧演员和演艺人员的脸上被编织成色情影片(Hasan&Salah,2019),但未来的Deepfake可能会越来越多地用于报复色情,欺凌,假视频法庭上的证据,政治破坏,恐怖主义宣传,勒索,操纵市场和虚假新闻。

虽然散布虚假信息很容易,但更正记录和打击深造品却更加困难(De keersmaecker&Roets,2017)。为了与深度仿冒作斗争,我们需要了解深度仿冒,其存在的原因以及其背后的技术。但是,学术研究直到最近才开始解决社交媒体中的数字虚假信息(Anderson,2018)。由于伪造品仅在2017年才在互联网上浮出水面,因此有关该主题的学术文献很少。因此,本研究旨在讨论什么是深造品,深造者是谁,深造技术的益处和威胁是什么,当前深造品的一些示例,以及如何与之抗衡。通过这样做,该研究分析了许多来自新闻媒体网站的关于深造的新闻文章。这项研究通过提供对伪造品和伪造品的全面评论,并将新兴的话题植根于学术辩论中,从而为虚假新闻和伪造品的新生文献做出了贡献,该辩论还为政治家,记者,企业家和其他人提供了与伪造品作斗争的选择。

Deepfake是“深度学习”和“伪造”的结合,是数字化处理的超真实视频,用于描述人们说和做从未真正发生的事情。Deepfake依赖于分析大量数据样本的神经网络,以学习模仿人的面部表情,举止,语音等。该过程涉及将两个人的素材输入到深度学习算法中,以训练它交换面孔。换句话说,深造假使用面部映射技术和AI将视频中的人的面部交换为另一个人的面部。 Deepfake于2017年出现,当时Reddit用户发布了一些视频,这些视频展示了一些名人性侵的视频。Deepfake难以识别,因为它们使用的是真实镜头,可以具有真实的声音,并且经过优化可以在社交媒体上快速传播。因此,许多观众认为他们正在观看的视频是真实的。

Deepfakes的目标是社交媒体平台,阴谋、谣言和虚假信息很容易传播,因为用户容易随大流。与此同时,人们相信来自的社交网络的信息,包括家庭成员,亲密的朋友或亲戚,并支持他们已经持有的观点。事实上,许多人对任何证实他们现有观点的东西都持开放态度,即使他们怀疑它可能是假的(GRD09)。低质量的视频和稍微篡改过的真实内容,已经到处都是,因为廉价的硬件,如高效的图形处理单元是广泛可用的。为虚假信息制作高质量、真实的深度伪造的软件越来越多地成为开源软件(FOX05;FT02;PCM04)。这使得用户几乎没有技术技能,没有任何艺术专长,几乎完美地编辑视频,交换脸,改变表情,合成语音。

在技术上,深度伪造是生成对抗网络(GANs)的产物,即两个人工神经网络共同创造看上去真实的媒体。这两个被称为“生成器”和“鉴别器”的网络是在同一个图像、视频或声音数据集上训练的(GRD03)。然后,第一个网络试图创建新的样本,足以欺骗第二个网络,而第二个网络则用来判断它看到的新媒体是否是真实的(FBR07)。通过这种方式,它们相互推动以改善(PCM05)。GAN可以查看一个人的数千张照片,并生成与这些照片近似的新肖像,而不是其中任何一张照片的精确复制(GRD07)。在不久的将来,GANs将接受更少的信息训练,并能够交换头部、整个身体和声音(GRD08;USAT01)。尽管深度造假通常需要大量图像才能伪造出真实的伪造品,但研究人员已经开发出一种技术,只需向视频输入一张照片(比如自拍),就可以生成假视频。

deepfake 的好处

Deepfake技术在许多行业也有积极的用途,包括电影、教育媒体和数字通信、游戏和娱乐、社交媒体和医疗保健、材料科学和各种商业领域,如时尚和电子商务。电影行业可以通过多种方式从深度造假技术中获益。例如,它可以帮助那些因疾病而失去工作的演员制作数字声音,或者更新电影胶片而不是重新拍摄(FRB01;PCM10)。电影制作者将能够再现电影中的经典场景,创造由过世多年的演员主演的新电影,在后期制作中使用特效和先进的面部编辑,并将业余视频提高到专业质量(FOX05;GRD07)。Deepfake技术还允许为任何语言的电影自动和真实的配音(PCM09;使不同的观众能够更好地欣赏电影和教育媒体。在2019年的全球疟疾宣传活动中,大卫·贝克汉姆打破了语言障碍,通过一个教育广告,使用视觉和语音技术让他看起来会多国语言(USAT03)。同样,deepfake技术可以通过翻译语音,同时改变面部和嘴部动作来改善眼神交流,让每个人看起来都在说同一种语言,从而打破视频电话会议中的语言障碍

深度造假背后的技术使多人游戏和虚拟聊天世界能够增加网真(CNET07)、声音和外观自然的智能助手(PCM09)和人的数字替身。这有助于发展更好的人际关系和在线互动(CBS03;FRB02)。同样,这项技术也可以在社会和医疗领域发挥积极作用。深度伪造技术可以帮助人们处理失去亲人的痛苦,通过数字技术让死去的朋友“起死回生”,从而可能帮助悲伤的亲人和她说再见(FOX05;PCM10)。此外,它还可以数字化重建截肢者的肢体,或让跨性别者更好地将自己视为首选性别(USAT04)。深度伪造技术甚至可以帮助阿尔茨海默氏症患者与他们可能记得的更年轻的面孔互动(FOX05)。科学家还在探索使用gan来检测x射线中的异常(CNET04),以及它们在创造虚拟化学分子以加速材料科学和医学发现方面的潜力。

企业对品牌适用深度造假技术的潜力感兴趣,因为它可以显著地改变电子商务和广告(FRB02)。例如,各大品牌可以聘请并非真正的超级名模,并为各种肤色、身高和体重不同的模特展示时装(FRB07)。此外,深度造假允许提供超个人内容,将消费者自己变成模特;这项技术能让虚拟试衣员在购买衣服之前预览衣服在他们身上的效果,并能产生针对性的时尚广告,这些广告会根据时间、天气和观看者的不同而变化(FRB02;FRB07)。一个明显的潜在用途是能够在网上快速试穿衣服;这项技术不仅可以让人们创造出自己的数字复制品,并让这些个人虚拟形象在商店中四处走动,还可以试穿数字形式的新娘礼服或套装,然后虚拟体验婚礼场地(FRB02)。此外,人工智能可以提供独特的人工声音,区分公司和产品,使品牌更容易区分

谁生产deepfake?

深度造假制作者至少有四种主要类型:1)深度造假爱好者社区;2)政治参与者,如外国政府和各种活动人士;3)其他恶意参与者,如骗子;4)合法参与者,如电视公司

在deepfake爱好社区中很难找到个人(FRB06)。2017年底,一名用户在Reddit上引入了深度伪造名人色情内容,短短几个月后,一个新成立的深度伪造爱好者社区的成员就达到9万。

许多爱好者专注于与色情相关的深度伪造(USAT01),而其他人把著名演员放在电影中,他们似乎从来没有产生喜剧效果(GRD05)。总的来说,爱好者们倾向于将aicrafated视频视为一种新的在线幽默形式,并为解决智力难题等技术的发展做出贡献,而不是作为一种欺骗或威胁人们的方式(CNN07;GRD05)。他们的深度伪造是为了娱乐,有趣,或政治讽刺,并可以帮助在社交媒体上获得追随者(FOX01)。一些爱好者可能在寻找更具体的个人利益,比如提高人们对深度造假技术潜力的认识,以便获得与深度造假相关的有偿工作,比如音乐视频或电视节目(GRD02)。因此,业余爱好者和合法的演员,如电视公司,可以相互合作。

deepfake的威胁

虽然业余爱好者的类似米姆的深度伪造可以娱乐在线用户,但更多恶意的演员也参与其中。各种各样的政治参与者,包括政治煽动者、黑客活动分子、恐怖分子和外国国家可以利用深度造假来制造虚假信息,操纵公众舆论,破坏对特定国家机构的信心(CBS01;CBS02)。在这个混合战争的时代,深度造假是武器化的假信息,目的是干扰选举和制造内乱(CNET12)。我们可以预见,将会有越来越多的国内外国家资助的互联网“喷子农场”使用人工智能创建并发布针对社交媒体用户特定偏见的政治虚假视频(CNN06)。深度造假也越来越多地被诈骗者用来操纵市场和股票,以及各种其他金融犯罪(USAT03)。犯罪分子已经使用人工智能生成的假音频,在电话中假扮一名高管,要求紧急现金转移(CNN01;FT01)。在未来,视频通话也将能够实时伪造。在互联网上经常可以找到模仿行政人员所需的视觉材料。Deepfake技术可以利用视觉和音频模仿高管

由于深度造假(USAT01),新闻业很可能将不得不面对一个巨大的消费者信任问题。深度假新闻比“传统”假新闻构成更大的威胁,因为它们更难被发现,而且人们倾向于相信假新闻是真的(CNN06)。该技术允许生产看似合法的新闻视频,将记者和媒体的声誉置于危险之中(USAT01)。在2019年印度和巴基斯坦之间的紧张关系达到顶峰时,路透社发现了30个关于该事件的假视频;大部分是其他活动的旧视频,加上新的标题(DD02)。错误的视频片段,如真实的抗议游行或暴力冲突,说明它发生在其他地方是一个日益严重的问题,并将被深度伪造的增加(WP01)。在寻找新西兰基督城大规模枪击事件的目击者视频时,路透社发现了一段视频,该视频显示了一名嫌疑人被警方击毙的那一刻。然而,他们很快发现这是来自美国的另一起事件,克赖斯特彻奇枪击案的嫌疑人并没有被杀死。

相关阅读:deepfaceLab人脸交换框架

See Also