查看原文
其他

被换脸的ZAO刷屏,素人秒变阿汤哥!背后危害,比你想象的还可怕

大眼 独到英语 2020-10-28


深度伪造、只看表面、丧失信心

用英语怎么说?


马斯克在双马对话里谈到AI时,说的脑机接口、火星探测等等,似乎离我们还很遥远,但有些AI技术已经实实在在地影响着我们的生活。


比如,最近一款AI换脸应用ZAO在网络上大火,而前不久油管上也有一段流行视频,美国演员Bill Hader模仿汤姆·克鲁斯说话时,竟然秒变阿汤哥的帅脸,让网友大呼惊奇!



早在去年,网上就有一段奥巴马一本正经的骂特朗普的视频,其实全是《逃出绝命镇》导演Jordan Peele制作的换脸效果。


这些实际上都运用到了一种名为GAN(生成式对抗网络)的深度学习模型。


但人们担心,这一技术有可能演变成“深度伪造”,不仅会侵害普通人的肖像权、隐私权,甚至有可能被人用来操纵选举,影响国际政治。


最近popularmechanics.com网站上就发表了一篇长文,解释这项技术的来龙去脉、潜在风险以及应对方法。


01

What is a Deepfake?

什么是深度伪造?


Deepfake is a technology invented in 2014 by Ian Goodfellow, a Ph.D. student who now works at Apple. Most deepfake technology is based on generative adversarial networks (GANs).

深度伪造是由博士生Ian Goodfellow在2014年发明的一项技术,他现在任职苹果公司。大多数深度伪造技术都是基于生成式对抗网络(GANs)。


三星公司的人工智能中心最近发布的研究报告,揭示了这项技术背后的奥秘:GAN是近年来流行的一种深度学习的模型,模型中至少包含两个模块--生成模块(generator)和识别模块(discriminator),通过彼此间相互“欺骗博弈”来进行学习。


使用这种方法,甚至只用真人的一个图像,GAN就能创建出此人的一个完整视频!


目前这项技术只用于说话的头部视频(talking head videos),但试想一下,如果将来该项技术可以让人跳舞、拍手甚至全面操控人类,会产生怎样的后果?



02

Why Are Deepfakes Dangerous?

为什么深度伪造很危险?


报道称,深度伪造最显而易见的危害是,色情视频中的女主角,可能会被替换成明星或普通人的脸,而且你很难把它改回来。


但深度伪造的危害还远不止于此。


“At the most basic level, deepfakes are lies disguised to look like truth,” says Andrea Hickerson, Director of the School of Journalism and Mass Communications at the University of South Carolina.

“在最根本的层面,深度伪造就是伪装成真相的谎言,”南卡罗来纳大学新闻与大众传播学院院长安德里亚·希克森表示。


“If we take them as truth or evidence, we can easily make false conclusions with potentially disastrous consequences.” 

 “如果我们把它们作为真理或证据,我们很容易做出错误的结论,带来潜在的灾难性后果。”


随着2020美国大选的临近,人们非常担心深度伪造技术被政客们利用,影响或改变人们的投票行为。


希克森院长还担心,这项技术也可能被用来伪造某个政治家煽动暴力或恐慌的视频,挑起与别国的争端。



03

What’s Being Done to Fight Deepfakes?

人们现在如何应对深度伪造?


既然深度伪造技术的潜在危害这么大,美国政府和学界都已经开始研究,如何在利用GAN技术的同时,抑制它的不利影响。


Feeding algorithms deepfake and real video, they’re hoping to help computers identify when something is a deep fake. If this sounds like an arms race, it’s because it is. We’re using technology to fight technology in a race that won’t end.

通过给算法提供深度伪造和真实视频,他们希望让计算机识别出深度伪造来。如果这听起来像是一场军备竞赛,那是因为它的确就是。我们正在一场不会结束的竞赛中,使用技术来对抗技术。


“以彼之道,还施彼身”,用技术来对抗技术,真的能解决问题吗?


即便随着技术的进步,能帮助人们识别深度伪造,但也许那时已经太迟了。


Once trust is corroded in a technology, it’s nearly impossible to bring it back. If we corrupt one’s faith in video, then how long until faith is lost in the news on television, in the clips on the Internet, or in live-streamed historic events?

对于某项技术的信任一旦丧失,就几乎不可能恢复。如果人们对于视频的信任失去了,那么让人们失去对电视新闻、网络视频或现场直播的重要活动的信任,又需要多久呢?

△ corrode 是(渐渐)损害、腐蚀的意思,和下一句中的corrupt是近义词,corrupt常用作形容词,表示腐败的,这里是动词,也表示破坏、损坏。



04

How to Spot a Deepfake?

如何识别深度伪造?


在识别技术还没有成熟之前,文章建议在深度伪造面前,个人最好的应对方法就是依靠自己的一双“火眼金睛”。


“The best way to protect yourself from a deepfake is to never take a video at face value,” says Hickerson. 

“不受深度伪造欺骗的最好方法是,对待一个视频,永远不要只看表面,”希克森说。


“We can’t assume seeing is believing. Audiences should independently seek out related contextual information and pay especially attention to who and why someone is sharing a video. ”

“我们不能想当然的认为眼见为实。观众应独立寻找相关的背景信息,并特别留意是谁以及为什么分享这个视频。”

△ contextual 是指上下文的,也就是要了解前后相关联的信息,名词是context,常用的一个短语是put sth. in context,表示需要结合背景、环境,来更好的理解某事。


的确如此,在一个小视频泛滥的时代,擦亮自己的眼睛,保持独立思考和搜寻背景信息的能力很重要。


在按下“转发”小箭头之前,不妨先问下自己:这个视频的原始来源是什么?里面的信息可靠吗?


即便,它是你最好的朋友推送给你的。


视频来源:梨视频

文字来源:popularmechanics.com

图片来源于网络 

独到英语

deepfake 深度伪造

GAN 生成式对抗网络

arms race 军备竞赛

corrode 损害

live-streamed 现场直播的

take sth. at face value 只看表面

Seeing is believing. 眼见为实

独到英语


精彩回顾

马云对话马斯克,做完同声传译的一些思考

《纽约时报》撒过多少关于香港的谎?火锅大王逐句反驳!

奥巴马转型制片人,第一部电影竟是关于这家中国企业

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存