查看原文
其他

Deepfake到底有多可怕?(图文版)

小青 华尔街俱乐部 2021-10-26


视频中的这段讲话,奥巴马告诉我们,你看到的不一定是真的。


其实,奥巴马本人从来没说过这段话。这是美国演员Jordan Peele采用一种叫做Deepfake的工具,伪造的一段视频。

 


这种工具运用人工智能、机器学习技术,让一个普通人也可以轻松地让奥巴马在视频里说出任何你想让他说的话,达到以假乱真的效果。

 

这个视频,这个以下这些,都是伪造的,全部都是通过 Deepfake 技术做出来的。只要你收集一个人足够多的真实录像素材,你就能用AI让这些名人“发表”任何观点。

 

人类开启了一个从来没有面对过的潘多拉魔盒。本期视知研究所带你了解一下,它的可怕之处。

 

1. 

你所获得的信息,80%以上来自视觉。大多数情况下,我们会本能地相信,眼睛看到的就是真实的。

 

创造“假”图像也不是什么新鲜事。只不过,篡改历史图像的技术,曾经只有少数人掌握,并且代价高昂。

 

以前想要伪造一段名人的录像,怎么弄?

 

先得从茫茫人海里找一个长得像的人。我小时候喜欢看一个综艺节目叫 《超级明星脸》,每期都会有长得跟某个明星很像的素人来模仿那个明星来一段表演。有的选手长得是刘德华张惠妹,但是一张口,声音是东北味儿。

 


今年《脱口秀大会》上老四模仿呼兰,言行举止恨不得比呼兰更像呼兰。如果这时候有一种“障眼法”能让老四的长相和声音也和呼兰一模一样,那可能亲妈都认不出来。Deepfake就是这样一种障眼法。

 

如果有这么一个工具又简单又免费,你会用它模仿呼兰吗?

 

和互联网很多新技术一样,Deepfake刚出来的时候,最主要的应用就是搞黄色。根据 Deeptrace 的报告,截至2019年9月,利用深度网络制作的虚假视频内容 96% 都是色情视频。



一个人真实的音画素材越多,AI模拟就越准确。不难想象,女明星因为常常在各种媒体露脸,所以素材丰富,就成了最常见的受害者。

 

然而现在,普通人的照片、视频也可以轻易地从社交网络上采集到,所以也许哪天某个奇奇怪怪的网站上,就莫名其妙地有了以你为主角的视频,让你在老板、父母和朋友面前百口莫辩。


2. 

有人可能会说,这个不过是一个更高级的PS技术,以前也有给人换头,PS出假照片的,这个新技术能有多大危害呢?

 


这两者之间的差异完全不是一个数量级。到底区别在哪儿呢?

 

先来说说这种令人头大的黑科技到底是从哪里冒出来的。

 

人工智能、机器学习技术我们往期节目中也多次提到过,它可以精确地识别语音和面孔这不奇怪。无非就是给AI一堆素材,让它去学习找规律。那Deepfake的厉害之处在哪里呢?

 


它采用了一种叫做生成对抗网络的训练方法,是2014年由一位在读博士生发明的。原理就是用两个独立的神经网络,一个叫“发生器”负责写作业,一个叫“鉴别器”负责检查作业。通过反复地以己之矛攻己之盾,等到鉴别器的鉴别真假成功率下降到50%以下,就意味着“发生器”人工合成的图像已经足以以假乱真了。

 

2018年底,互联网上有近 8千个deepfake假视频,短短九个月后,数量就翻了一倍。

 


普通人在越来越厉害的Deepfake面前,就像西游团队刚刚组建时的唐僧,视频里看到的是人是妖,根本分不清楚。

  

试想如果在某个敏感的时间节点,有人用deepfake合成出某大国总统宣布核平某小国的演讲,然后视频全网病毒式传播,小国赶紧撩起导弹先发制人,或者在一些族群对立严重的国家,制造和散播冲突爆发的假视频……这结果,我是不敢想。

 

3.

真正可怕的地方还不止于此。

 

俗话说:“眼见为实”。如果是别人转述的事情,我不一定相信,可能是假新闻啊。那如果我都看见事情发生了,那不就是事实证据吗?

 

所以,这种视频造假的技术实现了一个质的飞跃:从制造假新闻,变成制造“假证据”,从而生产“假事实”。

 

如果说特朗普是“后真相时代”的一杆发射谎言的机关枪,那 Deepfake 就是喷射谎言的大规模杀伤性武器。

 

它的致命危害,不仅在于人们更容易去相信那些假的新闻视频,而更加在于人们连真的新闻都不知道要不要相信了。

 


“亲眼所见”曾经是事实和虚假之间的一堵隔离墙,现在,这个隔离墙正在倒塌。如果我们无法分辨真假,那我们跟真实世界的联系就会被切断,会丧失判断是非善恶的能力。

 

4.

那怎么办?有的人就会想,用法律禁止Deepfake啊,严刑重典啊。

 

人类现有的法律确实常常跟不上技术引发的全面、快速的社会变革,需要去跟进。不过,这个技术既然已经存在,并且有利可图,那即使明文禁止,也会有人去钻法律的漏洞。

 

从短期来看,最有效的解决办法还是采用技术手段去识别deepfake的内容,尽量限制它的传播。

 


毕竟,用Deepfake造出的视频还是会露出马脚的。就像孙悟空和二郎神斗法的时候,变出的房子还有个尾巴什么的。


举个例子来说,真人说话的视频中,说话人的脸色是会随着心跳而有节奏地微弱变化的。还有,正常人一边说话一边眨眼睛也应该是有一个合理的节奏的。如果一个视频,里面的人永远在且仅在你眨眼的时候眨眼睛,那他多半不对劲。

 

话说回来,道高一尺魔高一丈,一旦我方科学家透露出自己的推理,对方黑暗组织的 deepfake 也会针对性地完善算法。我方怎么办?我方科学家能做的,也只能是不断地提高检测水平,把普通人造假的门槛抬得更高一些。

 

因为人性永远有弱点,人类与谣言的赛跑,恐怕也会永无止境。

  



参考资料:

[1]J.M. Porup, “How and why deepfake videos work — and what is at risk”, CSO, 2019-4

[2]William A. Galston, Report “Is seeing still believing? The deepfake challenge to truth in politics”, Brookings, 2020-1

[3]Rob Toews, “Deepfakes Are Going To Wreak Havoc On Society. We Are Not Prepared.”, forbes.com, 2020-5

[4]John Donovan, “Deepfake Videos Are Getting Scary Good”, howstuffworks.com, 2019-7

[5]Michael Kan, “Most AI-Generated Deepfake Videos Online Are Porn”, pcmag.com, 2019-10

[6]“It’s Getting Harder to Spot a Deep Fake Video”, Bloomberg Quicktake, 2018-9

Claire Wardle, “Deepfakes: Is This Video Even Real?”, NYT Opinion, 2019-8

[7]“Could deepfakes weaken democracy?”, The Economist, 2019-10

[8]“Deep Fakes: How They’re Made And How They Can Be Detected”, NBC News, 2018-10

[9]“Don't Trust ANYTHING You See - Deepfakes Explained”, Techquickie, 2019-11

[10]“Deepfake Videos Are Getting Real and That’s a Problem”, Wall Street Journal, 2018-10


转自视知 作者 小青

本文由「华尔街俱乐部」推荐,敬请关注公众号: wallstreetclub

声明:本文仅代表作者个人观点,不构成投资意见,并不代表本平台立场。文中的论述和观点,敬请读者注意判断。


版权声明:「华尔街俱乐部」除发布原创市场投研报告外,亦致力于优秀财经文章的交流分享。部分文章、图片和资料来自网络,版权归原创。推送时未能及时与原作者取得联系。若涉及版权问题,敬请原作者添加WSCHELP微信联系删除。谢谢授权使用!


关于我们

华尔街俱乐部凝聚华尔街投行的高端资源,为中国民营企业“走出去”提供全方位的顾问服务,包括企业赴美上市、战略投资、并购、私募路演和投资者关系等。在投资理念和技术方面提供华尔街投行专家实战培训,为您进入华尔街铺设成功之路。联系我们:ecompo@mail.com


视频 小程序 ,轻点两下取消赞 在看 ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存