“蚂蚁呀嘿”刷屏背后,“数字人”时代的风险图景
“蚂蚁呀嘿,蚂蚁呀呼,蚂蚁呀呼呼……”这段时间,朋友圈、短视频平台被这首充满魔性的神曲刷屏。马云、马化腾、马斯克、马克·扎克伯格等商业明星一改平日的严肃形象,一起用夸张的表情唱起“蚂蚁呀嘿”,鲜明的反差引起网友疯狂转发。截至3月1日,抖音上该话题的播放量已经达到25亿次。
这个玩法来于国外的一款AI软件——Avatarify,用户只要向这款软件上传一张照片,照片上的任何人物、动物、卡通形象都能扭动脖子唱上一首“蚂蚁呀嘿”。
这不禁让人联想起2019年国内的一款换脸软件ZAO,也是类似的玩法。上线之后短短两天时间,该软件就成为苹果应用商店最受欢迎 App 之一。ZAO的 slogan 简洁明了:“仅需一张照片,出演天下好戏” 。这类软件的出现大大满足了人们的猎奇心、好奇心。
可以预见的是,随着人工智能技术的不断发展完善,AI合成技术的逼真度、灵活度、交互度将持续提升,一个“数字人”时代即将到来。所谓“数字人”,既可能是真人在虚拟世界的全息映射,也可能是数字世界独立创造的全新个体。
总的来看,目前的AI合成技术包括以下几类:
一是人脸替换,将图像或视频中的人脸替换为另一个人的脸。
二是人脸改造,对目标人物的脸部特征进行修改,从而改变其面部表情。通过这种方式,可以让目标人物说他们在现实中没说过的话、做没做过的事情。
三是人脸合成,通过技术手段生成现实中完全不存在的虚拟人物形象。
目前,除了用于休闲娱乐的应用之外,AI合成已在各个场景多点应用、全面开花。
在影视行业,影视演员已经可以无需本人出演,例如《速度与激情7》在拍摄期间,主演由于车祸意外离世,剩余部分由其兄弟作为替身加上AI合成技术得以完成;媒体行业,AI主播大显身手,搜狗、腾讯、新华社等纷纷推出AI合成主播,外形好看、声音好听,言行举止和真人无异;广告营销领域,AI合成的人脸和虚拟形象正在替代真人模特参与营销代言,且不会有人像版权问题。特别是在一些涉及社会性问题的领域,AI合成更能大显身手,发挥科技向善的力量,比如让失声患者“重获自己的声音”等。
当技术的潘多拉魔盒被打开
社会所普遍关注的首要问题,是个人信息保护问题。一方面在于平台主观的放纵,例如ZAO就存在用户协议和隐私政策中设置不合理霸王条款、未清晰说明个人信息处理规则、存在违规收集用户个人敏感信息等诸多问题;另一方面则在于黑客入侵等客观风险。要知道,人脸数据已经成为数据黑市上的“抢手买卖”。
信息安全公司趋势科技调查发现,暗网中存在很多AI合成视频和图片示例,网络犯罪分子在暗网上以超低价格出售 Deepfake 技术,视频 50 美元起步,伪造静态图片每张 2.5 美元,Deepfake 软件 25 美元起步。
由此带来的后果是,只要用户在社交媒体上发布了脸部视频,那么,这个用户的脸就有可能出现在各种各样的视频中。而且人脸作为一种生物数据,其保护失当的后果非常严重,因为一旦泄露,这个过程将是不可逆的。
那么人脸数据如果被泄露、如果被滥用,将会发生什么?
首先可能是不可逆的名誉侵害,人脸用以被恶搞、被诋毁、被用于污名化的报复。2017年,一位名叫Deepfakes的用户在社交平台上传了一段由《神奇女侠》主演盖尔·加朵“主演”的成人短片,并公布了相关代码,这意味着任何人都可能在 不自知的情况下,成为成人片的主角。
其次可能是严重的财产损失。在当代社会,“人脸”事实上已经成为了数字时代的“通行证”,各类应用软件,包括支付软件都是通过人脸识别来启动的。此外,假如不法分子将人脸用于假冒身份、以此向亲戚好友敲诈勒索,那么其欺骗性相比传统手段无疑是大大提升的。
值得注意的是,由于当代人往往不是独立存在的“原子体”,而是拥有多种身份的“组织人”,因此不可避免地,AI合成的风险也从个人走向公众空间。
假如一家公司的CEO或高管被假冒,“说出”一些不合时宜的话,那么这不仅会侵害公司商誉、给公司带来损失;而且会影响社会公众,对投资者产生误导。
例如,2019年有人利用英国某能源公司在德国母公司的CEO的声音,通过电话诈骗了22万欧元。这仅仅是“语音合成”,“人脸合成”的欺骗性必然更甚。
除了被应用于经济攻击之外;AI合成也有可能被滥用于政治领域。比如2018年,获得奥斯卡奖的导演乔丹·皮尔和他的妹夫BuzzFeed 首席执行官乔纳·佩雷蒂用AI合成了前总统奥巴马用脏话骂特朗普的视频。
当然,AI合成产生的破坏力绝不仅仅局限于政党斗争,对于整个国家安全都会带来威胁。比如不法分子通过制作散布虚假视频,煽动暴力、恐怖行动,操纵公众情绪、激发社会矛盾;或者挑拨国家关系,影响外交安全;甚至是恶意误导竞争国家在军事部署、科技战略、经济布局等方面的重要决策。
2016年美国总统大选佛罗里达州候选人、共和党参议员卢比奥,甚至将Deepfakes与核武器相提并论:“过去,如果你想威胁美国,那你需要10艘航母、核武器,还有洲际导弹。现在,你只需要登录我们的互联网系统、银行系统、电网、基础设施网络,甚至,你只需要具备弄出一段可以以假乱真的虚假视频来搞乱我们的选举就行了。这就足以让我们的国家陷入巨大的内乱,深深削弱我们。”
更进一步,还有可能对整个社会文明产生重要影响。在如今“浅伪”产品充斥,信息芜杂、数据爆炸的当下,就已经带来了许多困扰,众多虚假信息的盛行,让社会的不信任感持续加剧。
皮尤研究中心于2019年6月发布的一项报告显示,约有三分之二的受访美国人表示,篡改视频和图像已成为受众理解时事和基本事实的主要问题。超过三分之一的受访者表示,“虚假新闻”导致他们减少了接收新闻的数量。
“浅伪”已经如此,而“深伪”必将带来更复杂的问题。正如美国外交政策研究所研究员Clint Watts指出,“长期接触虚假信息和深度伪造技术,可能让公众在真真假假中迷失自我,从而做出比较极端的选择。如果长期无法分辨真伪,他们要么相信一切,要么不信任一切。”
如何让技术向善
随着技术的不断发展、问题的持续暴露,AI合成也成为了各国监管者关注的重点。迄今,美国已公布了《禁止恶意深度伪造法案》《2019年深度伪造责任法案》《2019年深度伪造报告法案》《德克萨斯州关于制作欺骗性视频意图影响选举结果的刑事犯罪法案》等法案。中国的多部法律中也已经有相关规定,比如《数据安全管理办法》《网络音视频信息服务管理规定》《网络信息内容生态治理规定》等。
纵观现有法律,对AI合成的监管措施主要从以下几个层面展开:
二是强化披露,通过水印、标注、数字签名等技术表明其AI合成内容的“虚构”身份,使公众产生防范意识,减少被误导的可能性。
二是限制应用,强化对身份假冒、恶俗内容、政治干扰等不法使用的限制,不得制作、传播可能侵犯他人权益或构成刑事犯罪的深度伪造信息。
三是加大保护,强化对个人信息的保护,压实对数据收集者的数据安全责任,要求平台遵循透明性和必要性的要求,让用户清楚了解后果并明确同意,并赋予其更正或删数据的权利。
当然,技术治理不可能一蹴而就,目前的规制程度还远远不够。下一步,必须从着重从以下几个角度提出更为有力、更为全面、更能落地的措施:
一是制度层面,如何基于包容审慎的理念,依据不同的应用场景、影响范围、可能的危害程度,对新技术进行分类监管、精准施策,在打击非法利用的同时,也能激发创新活力。
二是技术层面,加大对于AI合成的检测识别和反制技术,以技术来规范技术。
三是社会层面,如何基于多元共治的思想,不是单靠政府的力量,而是引导其他社会主体共同参与技术治理。例如,联合行业领先企业共同制定行业规范和技术标准,建立行业参与者广泛认同的框架协议;
总而言之,技术是把双刃剑,技术的威力越大、其所蕴藏的风险也就越大,必须及早进行重视和规范。但值得注意的是,正如“菜刀能伤人,但菜刀本身无罪”,技术本身是没有善恶之分的,需要要引导和规制的重点是使用技术的人,从而引导科技向善。
作者为互联网政策研究人士
往期热文