查看原文
其他

新骗局爆发!已有人被骗430万!全增城警惕!


各位街访,在日常视频聊天中

有没有想过在手机屏幕上

那种熟悉的脸有可能不是对方本人?



最近小编在某视频软件上被骗了

在大数据的推送下

刷到了一位美女视频

(视频人物)

*视频使用AI换脸技术,请谨慎辨别


有没有街访和我一样

第一眼看到的是清纯可爱的美少女

结果点进主页看才发现

原来是使用AI实时换脸的大叔!


*视频使用AI换脸技术,请谨慎辨别


随着AI技术的迅速发展

小编在网上还刷到不少

明星换脸恶搞视频

比如宋小宝换脸彭于晏、王嘉尔等等

如果不是事先知道长什么样子

还真以为是本人了


*视频使用AI换脸技术,请谨慎辨别


*视频使用AI换脸技术,请谨慎辨别


虽然大部分人对AI的发展抱有乐观心态

但是事实是这种发展给了

不法分子可乘之机

随着人工智能的迅猛发展

诈骗团伙的诈骗手段也越来越科技化

竟然用上了AI换脸技术

👇👇👇



近日一条#AI诈骗正在全国爆发#的话题

冲上了微博热搜,其下方内容是

“福州的郭先生竟受骗于AI技术

10分钟内损失430万元”

具体事件是如何?接着往下看



AI换脸 假扮好友


据“平安包头”微信公众号消息,近日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元



 具体事件过程 


4月20日中午,郭先生的好友突然通过微信视频联系他,自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。


基于对好友的信任,加上已经视频聊天核实了身份,郭先生没有核实钱款是否到账,就分两笔把430万转到了好友朋友的银行卡上。郭先生拨打好友电话,才知道被骗。骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗


“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备”,郭先生说。


幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移,目前正在全力追缴中。



以上是一起典型的AI诈骗

诈骗分子使用他人真实姓名及照片

冒充他人身份添加被害人微信

再利用“AI换脸”技术

和被害人进行短暂视频通话

博取被害人信任后实施诈骗



看到这里有街坊会问

“AI技术是如何具体实施诈骗的呢?

关于AI技术的诈骗方式还有哪些?”

别急,下面小编为你一一解答!



AI诈骗常用手法


NO.1
声音合成


骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。



NO.2
 AI换脸


因为人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。



NO.3
 转发微信语音


除了AI换脸、合成语音外,还有一些诈骗手段也可谓防不胜防,就在前不久就有骗子通过转发微信语音的方式行骗。


盗取微信号后,骗子便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),可实现语音转发



NO.4
AI筛选受骗人群


值得一提的是,这些骗局中,骗子不是漫无目的地全面撒网,而是根据所要实施的骗术,通过AI技术筛选受骗人群,别有用心地锁定特定对象。例如,当进行金融诈骗时,经常搜集投资信息的小伙伴就会成为他们潜在的目标。


NO.5
警方提醒


1.  不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;


2.  网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助;


3.  如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息;


4.  如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警




最后,小编在啰嗦一下

千万不要轻信他人

尤其是事关财产安全问题

一定要谨慎!谨慎!再谨慎!

各位街访还有没有遇到其他案例

欢迎到评论区和小编说说~

来源:哔哩哔哩、南方日报、微博


点1个
为小编加1块钱工资
↓↓↓
继续滑动看下一个
魅力增城-起野
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存