9秒被骗245万!AI诈骗正在爆发
让人防不胜防。
去年,AI在诈骗案频发,“9秒被骗245万,10分钟被骗430万”等诈骗案件多次登上热搜
据安徽警方通报,
去年4月,
有人换脸成被害人的好友,
称有一个项目招标需要周转资金,
视频通话仅9秒钟,
制作她的裸照进行敲诈。
AI工程师聊了聊。
责编:倪楚娇
我目前正在读大二。有一天我在QQ上收到了一个好朋友发来的消息。她问我在干嘛,寒暄了几句,就说她的微信被限制了,想转钱到我的银行卡号,让我帮她买个东西。
▲
说实话我当时都快被吓哭了,又去QQ问对方,让她打开视频给我看,打开后还是我朋友的样子。她为了让我放心,甚至拿出了身份证给我看,根本看不出来脸是AI合成的。挂了电话,我骂了骗子几句,她看我迟迟不转账,好像也识破了,就没有继续装了。
我今年23岁,目前在美国读书。说实话,第一次碰到AI诈骗的时候我真的一身冷汗。
▲
她告诉我,她白天接到我的电话,来电显示是我国内的手机号,电话那头也是我的声音,我说自己在南美洲被绑架了,跟我妈要10万美元赎金,否则就活不了了,没说几句电话就挂了。
我妈当时差点就信了,她尝试给我的手机打电话,发现打不通,当时隔着太平洋,她也没办法确认真假,只感觉声音是我的,她甚至报了警,警察告诉她再通过别的途径确认一下,因为当时是夜里,我的微信也连续打不通。
她有点儿着急了,后来我爸给我打手机电话,我妈尝试给我打微信电话,两个人折腾了半天,幸好我的手机平常不会关声音,最后我还是接到了。
我安慰她我没事,就是在旅游。她当时都将信将疑的,问我刚才我的声音是怎么回事。我当时根本不知道还有AI诈骗这回事,也是吓得够呛。
▲
平常我和爸妈的联系频率还是比较高的,基本上每周都要打两三个电话,就是那次,我恰好在外面旅行,也发了自己旅行城市的定位,和家里联络比较少了。
所以我后来想,可能就是因为这样,诈骗犯利用了这个“空档”,他们通过我的社交媒体知道了我的位置,也不知道怎么黑到了我国内的号码,提取了我的声音,来诈骗我爸妈。还特意选择了我晚上在睡觉,可能接不到电话的时间。
A:AI诈骗主要采用的技术是Deep fake,意思就是深度伪造。它是一项人工智能的人体图像合成技术。AI诈骗主要就是利用这项技术,进行换声、换脸,再通过电话、社交媒体进行的欺诈。
▲
A:早期,这项技术主要用于影视的后期剪辑,比如说最出名的《速度与激情》,保罗·沃克意外车祸去世后,片子的后半部分就是用了deep fake的换脸技术。
2018年,当时出现过一个政治的恶搞视频,一个美国演员用Deep fake技术制作合成了一个视频,奥巴马大骂特朗普是个笨蛋,其实他本人从没说过这种话。这个视频在推特上获得200多万次的播放,影响力非常大。也就是因为这个虚假新闻,让这个技术慢慢走进大众视野。
Q:AI诈骗爆发有哪些原因?
A:在早期,硬件设施还不是非常完善,deep fake也有一定技术门槛,需要有一点代码能力的人才会去使用。所以AI诈骗没有那么猖獗。2023年,被称为“AI元年”,让人惊叹的chatgpt也出现了,可以说AI技术突飞猛进,加上这几年计算机硬件革新,算力大幅提升,让能使用deep fake的硬件比较容易获得。
而且,这项技术是开源的,比较容易获取。在专业的软件网站、应用商店,甚至网购平台就能找到。任何人都可以下载、学习和使用。
▲
Q:AI诈骗常见的一些方式和手段包括哪些?
A:首先就是语音诈骗,比如通过一些唱歌、配音软件提取你的声音,通过骚扰电话来提取你的声音,进行后期合成。还会通过盗号,用一些第三方的插件,实现语音转发,获取你的声音样本,再电话诈骗。
徐欣正在科普AI数字人,使用deep fake技术改换人脸。来源:@超级头脑AI魔法师
A:AI诈骗是一套“组合拳”。换脸变身,只是诈骗的最后一步。
第一步,犯罪分子会通过AI工具选取诈骗对象,一定是各方面条件都是他们可以把握的。我们在浏览网站的时候,会留下cookie。诈骗犯通过盗取QQ等社交媒体,对方可以推断出你大概的年龄段、经济水平。
通过公共的社交软件,比如说小红书、抖音等等,你可能发布了一些个人信息,诈骗者也可以通过这些大致推断出你的身份、对什么感兴趣。了解你的个人形象,你的生活圈、行动轨迹,才会为你量身定做一个“诈骗剧本”。
比如说之前新闻说一个人十分钟被诈骗了430万,假如说那是一个没有做过功课的骗子,就只是换脸成他的一个普通的朋友,单纯跟他去借钱,别说借430万,几万块可能都有困难。
因为骗子之前盗他的账号,收集了他个人隐私的信息,了解到他最好的朋友是谁。这个朋友在什么时候,刚好有一个项目,这个事是真实存在的。然后他就来冒充这个朋友打电话给被害人,说我这边的项目可能需要借点钱。当时肯定有顾虑,但是两个人打开视频,看了视频发现确实是朋友的脸,声音也是,才上当受骗。
还有一个学生,他是刚好那段时间出国旅游,没开国际漫游,诈骗犯就是盯准了他和父母电话沟通不是很顺畅这段时间,冒充他去跟他父母要钱,说是在国外遇到了什么事儿,让他父母把钱打到一个账户。利用这种时间、时空差也是他们常用的手段。
A:首先我们浏览网页的时候,尽量关闭cookie,及时清除浏览记录,关闭“登录网站自动保存密码”的选项,不要在非官网的网站留下身份信息,电话信息。
A:在开视频的情况下,我们可以有意识地引导对方做一些动作,比如说张大嘴巴,或者说大幅度摇头,让对方用手挡在脸前面等等。因为目前这个技术虽然可以换脸,但是它对于突然出现在摄像头的阻碍物,是没有办法进行快速分辨的,这个时候,人的面部就会有变化,产生一些变形。
而且deep fake训练模型的时候,大部分用的是人物正脸,对于侧面甚至后脑勺是训练不到的。它能够训练人物的五官,但是很难改变人的脸型、骨骼形状。所以说对方做大幅度动作的时候,可以从侧面,后面这些方位去看,就能看到一些瑕疵。
此外,伪造的人脸,他的眨眼频率会比较低,对方的情绪也可能和当时的情景不符合,画面会停顿,这时候先不要考虑是不是网不好,可以考虑有可能是伪造的。
如果对方打来的是语音电话,我们可以尝试用方言交流。假如骗子已经高阶到连方言都对答如流,那只有一个办法,就是聊隐私,聊你们没有从没有同任何人讲过,没有在社交软件上说过的事情。
还有一个办法是,直接拨打对方的电话,但是注意不要通过通讯录找对方的名字打,因为对方可能已经黑进了你的通讯录,最好直接输入对方的手机号打过去询问,关键就是多个渠道验证。核心就是,只要谈到钱,无论对方是谁,都要谨慎。
A:2023年1月份,我们国家颁布了一条《互联网信息服务深度合成管理规定》,规定了深度合成服务提供者的主体责任,就是从技术提供者的源头去规范和管理。
当然,漏洞依然有,目前急需完善的地方就是技术层面。对于第三方软件、Ai软件,我们对它的拦截、识别技术,还是比较滞后的。
其实在国外,已经有相关的技术,比如美国一家科技公司,去年6月份他们就宣布将增强AI反诈检测技术,设计了一款软件,可以立即发现伪造内容,能识别99.5%的deep fake的内容。