查看原文
其他

神奇女侠“下海”了?呸!有了视频换脸术,也不能乱用啊!

2018-01-05 不存在者 果壳网

什么?神奇女侠盖尔·加朵“下海”了?


而且还“有视频有真相”?


将加朵的脸“P”到女优脸上的视频。


这段视频,乍一看真的会让人以为是“神奇女侠”加朵出演的。但是仔细看,还是存在一些破绽:脸部轮廓线条不光滑,边缘处肤色发生了一些突变,好像戴着薄薄的面具一般。


左:P得看不出破绽,右:破绽明显


“神奇女侠”当然没有“下海”!这是最近 Reddit 网站的一个用户,将盖尔·加朵的脸“P”到了某段成人视频的女优脸上。目前,该网站的这段视频已下架。据说“中枪”的女星还不止加朵一个。


Reddit网站的这个用户是如何做出这段视频的?换脸成功的关键是替换的脸要和原视频上的脸表情同步,他用机器学习的方法达到了这个效果。


其实,视频换脸不是什么新鲜玩意儿,这种技术早就被广泛地运用在大片和游戏中了。



神奇换脸术


大片中的换脸技术已经较为成熟。还记得《加勒比海盗》里面那个令人作呕长满触手的船长戴维·琼斯吗?他的形象就是通过换脸技术呈现出来的,同样的还有《魔戒》里的半兽人和咕噜,《霍比特人》里的史矛革,以及《阿凡达》里的主角们等等。


《加勒比海盗》中的戴维·琼斯(Davy Jones)图片来源:gamedev.stackexchange.com


扮演深井冰,哦不,史矛革的卷福 

图片来源:百度贴吧


绝大多数商业作品只是用这种技术制作奇幻生物,然而工业光魔公司(Industrial Light & Magic)更进一步,用换脸术在银幕上复活了已经故演员。


恐怖片演员彼得·库欣逝世于1994年。2016年在电影《星球大战外传:侠盗一号》中,技术人员将他拉进现代的巨幕。这位“现代”演员的背后是另外一位演员盖·亨利,技术人员捕捉了盖·亨利的表情,然后合成了数字版的彼得·库欣。虽然两位演员的脸挺相似的,但是技术人员仍旧要处理很多细节问题,比如彼得·库欣发“啊”这个音的时候是不动上嘴唇的。


这一技术引发了不少争论,一些人表示不能接受。虽然电影获得了肖像授权,仍旧有一些伦理问题亟待回答。


左:合成的彼得·库欣扮演的威尔霍夫·塔金,右:演员盖·亨利 

图片来源:nytimes.com


换脸术不仅出现在电影里,在游戏中也得到了运用。小岛秀夫的《死亡搁浅》是一款开放世界类动作互动游戏,因《行尸走肉》走红的演员诺曼·瑞杜斯将“参演”这部游戏,他的形象会出现在游戏中推动游戏剧情的发展。


小岛秀夫的《死亡搁浅》图片来源:dualshockers.com



面部捕捉与深度学习


换脸术究竟是怎么实现的?

 

简单来说,换脸术的大致原理是通过算法识别出面部的特定结构——不仅仅是眼睛、鼻子、嘴巴的位置,也包括颧骨、下巴、脸颊的形状,然后按照这些特征点做替换。


严格说,这一技术属于动作捕捉技术的一个小类,叫面部捕捉(face capture)。下图中脸上的黄点,是表情变化中的关键点,就像脸的“关节”一样,计算机只需要这些信息就能合成表情。而在面部识别技术中,它被称为面部追踪(face tracking)


面部的点是“关节”,连上线变成骨骼.图片来源:petapixel.com


动作捕捉技术的关键在于识别人的表情,特别是脸上那些关键的位点。而深度学习技术也能满足这一要求。


深度学习是机器学习的一个分支。目前面部捕捉的一个较为优秀的深度学习算法是Face2Face,这个算法能够对RGB视频进行实时的人脸捕捉和同步显示。举例来说,一个研究者想让视频中的特朗普和自己做出一样的表情,他应该怎么做呢?


用深度学习处理后的视频,特朗普会做出和研究者一样的表情。图片来源:参考1


第一步:获得特朗普的视频序列,称为目标视频;


第二步:用摄像设备获得研究者表情的视频,称为源视频;


第三步:通过通过“光度密度一致性估计(dense photometric consistency measure)”的方法,追踪源视频与目标视频,并在两者之间进行实时形变传递( deformation transfer)。


face2face算法示意图。图片来源:参考1


深度学习和那些专门的影视工业技术相比,得到的结果要粗糙很多,更容易识别出来,然而它也要便宜很多。谷歌、微软、亚马逊这些大公司的软件技术和平台都是公开的,深度学习技术飞速发展,很多论文都在研究者之间共享,而且家用级别的显卡就能处理深度学习算法,不一定要用到云计算和超级计算机等技术。



用手机就能换脸


电脑视频换脸还没完!面部捕捉已经能手机上用了,比如 iPhone X 的 Animoji 技术就可以做到。能够用于识别面部表情的技术就能用于伪造表情。


苹果官方演示Animoji


一些技术爱好者也正在将这一技术移植到安卓手机上,我建议谨慎使用这些app。另外也希望手机的软硬件厂商更加注意信息的安全,我们在得到便捷的同时,手机也存储了更多的私密信息,手机和电脑系统本身的安全性也值得花更多的力气去重视,而不是随便打个补丁然后又让补丁失效。



不仅是脸,声音也能换


好吧,看来现在图片和视频都不能随便相信了,但声音还是造不了假的……吧?


并不是!连声音也能造假。


Adobe 公司在2016年演示了 Voco 技术,他能让你简简单单输入文字就能伪造人的声音到目前为止这项技术都没有看到商业化的迹象,技术演示过程中Adobe表示,他们会在技术上做类似水印的东西,帮助人识别伪造的声音。


无独有偶,加拿大的AI创业公司 Lyrebird 在2017年4月份声称,只要有1分钟的样本,他们就能模仿出你的声音。这听起来比 Adobe 的技术还要夸张,因为 Adobe 声称它们需要20分钟的样本。




耳听为虚,眼见也为虚


看到这里,可能你已经懵了。打开一段视频,眼前的脸不是脸,你说的话是什么话???所以……怎么办?


我不由得又想到伪造视频大大Zach King,他很早就开始利用各种特效技术伪造视频。网上的各种换脸换声视频并不少,有些只是娱乐,有些东西却是别有用心。


人家只是娱乐一下啦 图片来源:pinterest.com


好消息是,已经有人意识到了伪造视频可能引发一系列问题,因此开始研发识别伪造视频的技术应用了,可能很快创业公司就会如雨后春笋般出现。

 

但是,在识别换脸换声的技术也得到广泛运用之前,我们一定要保持警惕,不要盲目相信网上的视频。随意放在网上的照片、视频、声音、文字都需要认真去对待,因为它们会被人用来伪造我们自己。虽然没有加朵的颜和思聪的钱,我们也经不起“被伪造”的损失,毕竟是独一无二的自己哦!


技术不能乱用,不然神奇女侠不会放过你!


参考:

1.Thies J, Zollhofer M, Stamminger M, et al. Face2face: Real-time face capture and reenactment of rgb videos[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016: 2387-2395.


本文来自果壳网,谢绝转载

如有需要请联系sns@guokr.com

(欢迎转发到朋友圈~)


果壳网

ID:Guokr42

果壳整天都在科普些啥啊!

吓得我二维码都歪了!


为啥这样的二维码也能扫?

扫码发送【二维码】告诉你原理~


不点个赞再走吗?


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存