查看原文
其他

“深度伪造”,眼见不实

之江轩 浙江宣传 2023-01-02

 戳蓝色字关注我们!



人们常说“耳听为虚、眼见为实”。然而在今天,“眼见”就真的是真实的吗?

随着数字技术的迅猛发展,一种叫“深度伪造”的技术正慢慢渗入人们的生活。这种技术可以利用人工智能和大数据生成虚假图片、视频、文本等,其逼真程度往往让人难辨真伪。

先进的技术本无好坏之分,但当技术披上了“伪造”的外衣,则不仅会让一些不明真相的网民受到欺骗,更深层面上来看,它最大的威胁,是在广大群众中造成信任的危机。

图源:视觉中国




想知道什么是“深度伪造”,首先要知道它的技术原理——“深度合成”技术。简单来说,就是指利用深度学习、虚拟现实等合成类算法,实现文本转语音、音乐生成、人脸生成替换、图像增强等功能的技术。

举几个例子就会发现,“深度合成”在我们身边其实已经运用得比较广泛。

图片合成,包括人脸替换、专属表情包制作、写真换装等,人们可以一键创造出任何自己想看到的全新图像。比如在一些小程序中,只需上传一张自己的照片,一键换装、一键美颜、一键换背景等都可以通过AI技术轻松实现。就算想要合成“粉红色大象在撒哈拉沙漠玩扑克”等天马行空的图片,也都不是难事。

语音合成,即运用AI技术生成接近真人语调和节奏的声音。比如,当你听到“注意看,这个男人叫小帅”这句话时,脑海里是不是有一个声音已经呼之欲出?没错,这个常常出现在抖音、B站的电影解说配音,就是“深度合成”出的一款声音。它的音色、语气和停顿非常自然,几乎没有机器的生硬之感。而这种无限接近真人的声音合成技术,在智能语音导航、有声书朗读、客服电话中已经得到广泛应用。

视频合成,即通过改变人的面部特征,从而操纵面部表情,可以让一个人看起来在说他从未说过的话。比如,在电影《阿甘正传》中,制作方就曾将肯尼迪的影像填充在影片中,炮制了肯尼迪接见阿甘的画面。而在一些“换脸”小程序里,网友也可以用自己的照片替换影视剧主角的脸,合成一段由自己“出演”的经典影片。

近年来,“深度合成”技术已在很多领域大量应用,生产出的内容数量和关注度呈快速增长态势。统计数据显示,在国内外主流音视频网站、社交媒体平台上,2021年新发布的“深度合成”视频数量较2017年已增长10倍以上。

由此可见,在“深度合成”技术的世界里,耳听、眼见甚至连触摸,都不见得是真实的。

然而,每一次技术变革在带来福祉的同时,也经常伴随着风险。正如同硬币的正反两面,“深度合成”的另一面就是“深度伪造”,即利用“深度合成”技术生成虚假的视频、照片和文本等。



“深度伪造”可以说一出生就带有“原罪”。2017年,一位名为“deepfakes”的美国网友上传了经过合成技术编辑的色情视频,这是“深度伪造”在世人面前的第一次亮相,很不光彩。

此后,随着技术逐步“平民化”,造假手段也一日千里、突飞猛进,由此带来的风险隐患也越来越多。

图源:新华社

“深度伪造”造成的虚假信息传播,给社会治理增添了不少难题。麻省理工学院分析了十多年来300万推特用户发布的信息后发现:一个捏造故事传播到1500人的速度是真实故事的6倍。有数据显示,自2018年11月以来,在线识别的“深度伪造”视频数量每6个月翻一番。

正因为“深度伪造”的信息极易迷惑人,这一技术也成了认知战信息战的新武器。美西方国家近年针对我国的舆论战中,大量使用“深度伪造”作品。像香港“修例风波”期间,一些境外媒体伪造“港警殴打无辜民众”等视频,颠倒黑白,煽动舆论,极易让人产生错误认知,损害我国形象。

除此之外,利用“深度伪造”实施的经济诈骗更是五花八门。比如在2020年,香港一银行经理被诈骗者使用语音克隆技术冒充“合作伙伴”骗取了3500万美元,这也成为目前已知造成最大经济损失的“深度伪造”案件。一项研究估计,受“深度伪造”影响,全球企业每年损失高达780亿美元。

“深度伪造”不仅给个人、企业和社会带来隐患,更是给国家安全带来威胁。一些国家的现实政治显示,特定情况下“适时”出现的“深度伪造”,会造成社会动荡,甚至改变一个国家的政治进程。有美国政客曾说:“过去威胁美国需要核武器、航母和导弹,但今天,制作一个逼真的‘深度伪造’视频,就能破坏选举,使国家陷入巨大的内部危机。”



“深度合成”这项技术本身并没有错,但一旦被恶意滥用,跨越道德和法律的边界滑向“深度伪造”时,就会遗祸无穷。当“深度伪造”这个“魔盒”被打开,虚实交界处必须设置一道明辨是非的防火墙。

首先,还是要用好法律这把武器。近几年,很多国家针对“深度伪造”等新技术,出台了相关法律法规或管理办法。我国从2019年11月起,先后出台《网络音视频信息服务管理规定》《网络信息内容生态治理规定》等法律法规,对生成合成类内容等提出监管要求。

比如《网络音视频信息服务管理规定》中明确,利用新技术新应用制作、发布、传播非真实音视频信息的,应当以显著方式予以标识,不得利用基于深度学习、虚拟现实等新技术新应用制作、发布、传播虚假新闻信息。同时也明确,违反该规定的,由网信、文化和旅游、广播电视等部门依照相关法律法规规定处理。

能否将这些规定执行到位,还需要有关部门加大网络安全执法力度,不断完善日常监督检查和定期检查相结合的监督管理制度,推动网络平台履责尽责,有效规范涉及“深度合成”技术应用的行为。

其次,要善于用技术制约技术,加快打造“深度伪造”信息检测系统。比如,美国五角大楼国防高级研究计划局启动了“媒体取证”计划,赞助十几个高水平的研究机构加强对“深度伪造”、合成媒体的检测。

在国内,部分互联网公司在这方面也具备一定的技术积累。早在2019年,百度安全就推出国内首个基于人脸搜索、人脸属性提取、语音识别和OCR识别的深伪检测平台,对主流“深度伪造”数据识别准确率在99%以上。

然而可以预见的是,随着技术的不断发展,“深度伪造”也将变得更加难以检测。要想在这场基于技术博弈的“猫鼠游戏”中占得上风,就需要加强“深度伪造”检测技术研发,在关键技术领域突破攻坚,持续提升和迭代检测技术能力。

最后,“深度伪造”面向的是广大网民,因此还需加强网络安全教育,提升全民网络素养。我国是网络大国,拥有世界上数量最多的网民,截至2022年6月,我国网民规模为10.51亿,互联网普及率达74.4%。但也要看到,我国数字素养教育起步晚,教育水平、知识水平参差不齐。还需要持续加强对网民的宣传教育,特别要注重对特定群体的数字技术扫盲,在整个社会接种防范“深度伪造”的“疫苗”。

“深度合成”技术可以说是一把双刃剑,而“深度伪造”就是那道颇具伤害性的锋芒。希望在各方的共同努力下,我们能用好这把剑,让它多朝着有利于社会发展的方向,发挥作用。



声明:稿件未经授权,不得转载。



点击下方名片关注浙江宣传 



往 期 精 彩 内 容





您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存