恐怖!一新型骗术或将爆发,福州老板10分钟被骗430万
The following article is from 砍柴书院 Author 书院特邀作者
公众号
(关注本号:法律人有益加强交流,共襄民主法治;
当事人可以后台留言,免费咨询法律问题)
本文作者 | 藤三花
策划 | 蓝橙
当你觉得骗子离你很远的时候,他们可能就在身边。
2023年4月20日中午,福州的郭先生手机响了。
郭先生拿起来一看,原来是自己的好朋友想跟他视频连线。这位好友正在外地参加竞标,需要430万多保证金,而且需要公对公转账过户,所以连线郭先生,想通过他的公司走账。
郭先生是福州市某科技公司的法人代表,账面现金充足,郭先生也没多想,就按照好友的要求,分了两笔,把430万转给了对方。
可是让他万万没想到的是,随后他再微信好友,问竞标情况的时候,对方一脸懵,这时候郭先生才知道自己被骗了!
骗子到底是怎么做到的呢?
原来他们通过AI换脸+模拟声音,又黑了郭先生好友的微信,本人微信+本人的脸+本人的声音,最终郭先生毫无防备地就被骗了。
幸好郭先生及时向好友确认,两人一起报警,福州、包头两地警银迅速启动了止付机制。虽然成功拦截了336.84万元,但是仍然有93.16万元被转移了,目前还在追缴中。
连资产雄厚的大老板都会中招,更不用说普通人了。
有一个真实案例。公司财务接到老板电话,要求给指定供应商转款2万元,转账信息还要邮件发送对方,证明已经转了,避免后续有滞纳金的纠纷。
老板的手机号,老板的声音,财务根本没有理由不相信,于是第一时间就把钱转过去了。
等着给老板汇报工作,想让老板看看自己效率多高,结果老板也傻了,说没打过这个电话。
骗子是怎么做到的呢?
原来我们平时接到骚扰电话的时候,只需要几句话,我们的声音就已经被对方提取了。这时候对方只需要对声音进行合成,就可以得到任何一段他们想要的对话。然后通过伪造的声音,就可以实施诈骗了。
老年人也是受骗的“重灾区”。
老王是一位住在乡下的老人,有一天,他接到了一通来自“儿子”的电话。
对方称自己在外面被抓了,需要付一笔钱才能保释。
为了救出自己的“儿子”,老王毫不犹豫地汇了7万元给对方。
随后,又有一个陌生电话打来,对方声称与老王的儿子关系密切,并通过AI技术实现了视频通话,并告诉老刘,他们已经帮助他老刘的儿子捞回了一些钱,需要老王再去网银上进行操作,才能将钱转回他儿子的账户中。
最终,老刘被骗了11万元。
直到儿子本人与他联系,他才知道自己被骗了。
还有一些女性受害者,遭遇要比被骗钱更让人难受。
李女士万万没想到,自己只不过是随手拍了几张照片,随手上传了某个短视频平台,竟然为自己招了麻烦。
某一个晚上,她突然收到了朋友发来的消息,说是在某个色情网站上看到了她的黄色视频。她赶紧打开链接,就看见了自己熟悉的脸。
脸是自己,但是这身体,明明不是自己啊!这样的视频要是传出去,自己还怎么做人!
她果断选择了报警。
经过调查,原来犯罪分子利用 AI 换脸技术,把受害女子的脸拍摄下来,并将其P成另外一个女性的身体照片,制作出了这段色情视频。
但是视频已经在网络上广泛传播。这让李女士不仅感到愤怒和羞耻,还遭受了精神上的极大痛苦。
还有一种更令人发指,某女士原本在地铁上正常乘车,却被人用软件恶意“一键脱衣”,之后这张所谓的“地铁裸女”照片被人在微信群里疯传,而受害者却只能在受到极大的伤害后被动地解释,但这根本无法消除别人看她的异样眼光。
看到这样的案例,有没有细思极恐?
AI换脸一旦被滥用,后果是极其可怕的。
可以想象,除了不法牟利外,一个人还可以为了自己的私心,非常轻松地用这样下三滥的方式,成功抹黑、报复、诋毁一个人,罪恶之花不断萌芽,人们走在街头还能有安全感吗?
还有一种不能算诈骗的“骗子”,就是开始流行的AI换脸主播。
有时候偶然刷到某个直播间,会发现竟然是当红女星在直播带货。再刷下去,发现同样的女星,竟然在同一个时间,不同的直播间里带货。
原来不是她们有分身术,而是普通主播通过AI实时换脸,让人一眼看过去,就以为是当红女星了。
虽然也是骗,但是比起前面几种,这种“骗”就显得斯文多了。
还有一种案例,就是通过AI换脸,3D打印人脸模型,然后在一些需要脸部识别的场景下,带上人脸模型,顺利通过脸部识别,获取必要的个人身份信息,甚至是控制系统的账号密码。
……
怎么样,看完这些,觉得恐怖吗?
但更恐怖的是,AI诈骗眼下正在如火如荼地发展。
如果说传统的电信诈骗模式,已经让所有人都心生防范,那么新型AI诈骗,却能老少通吃,让人丧失辨别能力,防不胜防。
老话讲眼见为实,可如果眼见的都是假的呢?
毕竟一张脸都怼你面前了,谁又能想到对方只是个换脸来的。
因此,有的大老板分分钟中招,几百万眨眼被骗走;
有的小姑娘被换脸后恶意传播色情视频,这让她第一次见识到这个世界满满的恶意;
有的老人攒了一辈子的血汗钱,却轻松流进骗子的腰包,想要追回时,却发现早已流向境外。
每每看到这些新闻,都不由得感叹:科技真是一把双刃剑!
这几十年来,从短信诈骗,到电话诈骗,再到AI换脸诈骗,科技在进步,诈骗技术也在不断地更新迭代。
虽然AI技术给我们的生产生活带来了极大的便利,但不可否认,科技如果到了不法分子手中,灾难也是对等的。
就像AI换脸技术,普通人只当是一个可以满足我们美拍的工具,而有的人却从中窥探到了“商机”。
早在2017年,浙江绍兴就破获了首例利用AI技术进行窃取公民信息的案件。
之后,AI机器人的诞生,为电信诈骗集团节省了大量的电话员劳动力,去年媒体还报道过,一个诈骗团伙利用AI机器人拨打诈骗电话多达1700万个,效率大大地提升,受害者也因此成倍地增加。
再往后,用AI换脸技术来顶替亲属进行诈骗的,以及女性被制作成色情视频进行牟利或者造谣的案件,逐渐成为受害的重灾区。
AI科技的迅猛发展,导致诈骗界的犯罪成本不断降低,成功率却大幅度提升。
就连警方都忍不住出来提醒:AI新骗局,成功率接近100%!
科技这把双刃剑,真可谓是杀敌一千,自损八百。
有人忍不住说,科技这样恐怖,不要发展了行不行?
但砍柴想说:科技无错,但人会犯罪。
如何能降低AI技术新骗局,唯有尽快立法,用“法”来打败“魔法”,大力度约束和惩治犯罪分子,方能让科技这把利刃回归正途。
其实,科技发展太快,法律往往只能跟在后面跑,但眼下,已经到了必须出台法律法规的时候了。
哪个公司研发的“一键脱衣”这种恶俗软件?拉出来,使劲处罚。
哪个人恶意传播合成视频和图片,对受害人进行诋毁、造谣,甚至借此牟利的,抓住了,该判刑判刑。
平台对于软件使用者的信息,没有做到实名制,随意让人使用的,该整治整治。
提高敬畏心,提升违法成本,才能让这群人多少有所忌惮。
当然,要想真正打败科技滥用,唯有以科技对科技。
就像我们现在拦截诈骗电话一样,如果某天可以对AI诈骗实现科技拦截,帮老百姓自动识别哪些视频和图片是合成的,哪些是真的,让他们骗无可骗,无从下手,这样,防不胜防才能变成能可控可防。
不过,等待的过程势必是漫长的,在这个过程中,希望我们每一个人都不要成为科技发展中的牺牲品。
先从自身做起,把防范做到百分之二百,让坏人无处可钻。
第一,一定避免把个人信息泄露给陌生人,谨慎使用社交网络和在线聊天软件,减少个人照片在公共场合的发布和曝光。
第二,一旦被侵害了个人利益,注意收集的证据,并第一时间向相关部门举报,例如:公安机关、消费者协会等,寻求法律帮助,捍卫自己的合法权益。
第三,多了解一些AI技术的原理和特点,在使用AI技术时要注意数据的真实性和来源,杜绝虚假信息。
第四,下载并使用安全共享软件,以确保自己的网络设备和数据安全。
总之,AI换脸诈骗作为一种新型的网络犯罪,你必须得保持高度的警惕性。
如果你还没遇到以上说的这一系列诈骗方式,那么,恭喜你幸运地看到了这篇文章,一切还都不晚,全面了解AI诈骗方式,积极进行防骗宣传,和这帮坏人作斗争,需要我们每个人一起努力!