参加多人视频会议,结果只有自己是真人?这事听上去很离谱,却在现实中发生了。最近,香港警方披露了一起诈骗案件:骗子利用AI“多人换脸”实施诈骗,涉案金额高达2亿港元……据央视新闻报道,在这起案件中,一家跨国公司香港分部的职员受邀参加总部首席财务官发起的“多人视频会议”,并按照要求先后转账多次,将2亿港元转账到了5个本地银行账户内。其后,向总部查询才知道受骗。警方调查得知,这起案件中所谓的视频会议中只有受害人一个人是“真人”,其他“参会人员”都是经过“AI换脸”后的诈骗人员。香港网络安全及科技罪案调查科网络安全组署理高级警司陈纯青表示,这名受害员工在收到据称来自该公司驻英国首席财务官(CFO)的信息后,原本怀疑是一封钓鱼诈骗邮件,因为内容涉及秘密交易。然而,在和诈骗分子视频通话后,这名员工就打消了起初的怀疑,因为在场的其他人看起来和听起来都和他认识的同事一模一样。
据香港警方介绍,诈骗分子是利用了人工智能的深度伪造(deepfake)技术,从国外视频平台上下载了视频,模仿了公司高层人员的声音再对受害者发出行动指示,最终成功行骗。
由于AI形象在讲话时被人打断或提问容易漏出破绽,在视频过程中,嫌疑人曾要求受害者做简短的自我介绍,随后便没有其他口头互动交流,在用借口完结了对话之后,嫌疑人将沟通转移到线上即时通讯软件上进行。
据中国网络空间安全协会人工智能安全治理专委会专家薛智慧介绍:AI换脸过程主要包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染、图像与音频合成等几个关键步骤。其背后最核心的包括为三个部分,首先,利用深度学习算法精准地识别视频中的人脸图像,并提取出如眼睛、鼻子、嘴巴等关键面部特征。其次,将这些特征与目标人脸图像进行匹配、替换、融合。最后,通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假换脸视频。不过,专家介绍,以诈骗为目的,实施点对点视频通话,需要AI人工智能生成仿真度极高的视频。想要达到以假乱真效果用于诈骗,难度不小,需要投入很强的技术支持和大量的资金投入。这两年,“AI换脸”多次破圈,屡屡冲上热搜。不法分子利用“AI换脸”和AI音频合成的技术实施新型网络诈骗,这类骗局常常会在短时间内给被害人造成较大损失。那么,我们应该如何防范呢?专家支招:
1. 可以要求对方在视频通话时,在脸部前挥手,挥手过程会造成面部数据干扰,伪造的面部就会出现抖动等异常情况;2. 在沟通中可以问一些只有对方知道的问题,验证对方的真实性。3. 针对存疑的身份,如所谓领导或者熟人,可以通过打电话或询问对方的亲朋好友,确认对方的真实身份和情况。中国科技大学网络空间安全学院执行院长俞能海提醒,可以让对方摁鼻子、摁脸、观察其面部变化。他在一个采访中表示,如果是真人的鼻子,按下去是会变形的,但AI生成的鼻子并不会。专家表示,除了一些辨别AI换脸诈骗的小诀窍,我们每一个人都应该提高防范意识,在日常生活中也要做好相关防范措施,养成良好的上网习惯。
首先应该是做好日常的信息安全的保护,加强对人脸、声纹、指纹等生物特征数据的安全防护:另外做好个人的手机、电脑等终端设备的软硬件的安全管理。
第三,对可能进行声音、图像甚至视频和定位采集的应用,做好授权管理。不给他人收集自己信息的机会,也能在一定程度上让AI换脸诈骗远离自己。
陈纯青表示,利用人工智能“深度伪造”的欺诈手法,与传统诈骗手法其实如出一辙,只是利用不同手段以取得受害人信任进行诈骗,最终目的主要是诱骗受害人将款项转账到骗徒指定户口。
他强调,虽然科技发展一日千里,只要市民时刻保持警惕,养成一个高防骗意识的习惯,对任何社交平台或通讯软件所收到的信息,也要有一个查证真伪的意识及必须要有行动,谨记在人工智能“深伪技术”下,网上已经“眼见不一定为实,有图有片亦不一定是真相”。特别声明:本网登载内容出于直观传递信息。该内容版权归原作者所有,并不代表本网赞同其观点和对其真实性负责。如该内容涉及版权及任何第三方合法权利,请点击平台私信联系,我们会及时反馈并处理完毕。