紧急提醒!这种照片不要随便发
近日,韩国曝出“Deepfake”(深度伪造技术)事件,多个关于“韩国AI深度伪造”的话题词引发网友热议。
据韩媒报道,针对女性的深度伪造犯罪在韩国日趋猖獗,Deepfakes是利用AI换脸制造色情图频,韩国网民在通讯软件“电报”(Telegram)上发现大量聊天群,其中有成员创建和分享露骨的性“深度伪造”图像,对象涉及未成年女孩。
在此过程中,加害者还毫不犹豫地公布受害女性的身份,威胁受害人,索要钱财。
据央视新闻报道,韩国教育部9日表示,韩国教育部就涉深度伪造性犯罪问题,对全国17个地方教育厅展开调查。结果显示,今年初至9月6日,全国小学、初中和高中共发生434起利用深度伪造技术实施的性犯罪,受害者数量共计617人。其中,受害学生588人,教职员工29人。
从学校级别来看,上述案件中,涉高中的有243起、初中179起、小学12起。
从调查数据看,利用深度伪造技术的犯罪数量呈激增势头。8月28日至9月6日仅10天内,韩国新增238起涉中小学的相关案件。从年初到8月27日,相关案件总数为196起。
韩联社资料图
如何快速识别AI换脸变声诈骗?深度鉴伪5秒让AI换脸诈骗无处遁形
9月8日,2024年国家网络安全宣传周在南沙正式拉开帷幕,关于AI换脸、换声等对个人隐私侵害的话题成为大家关注的焦点。一张“人像照片”、一段近距离的人物视频,都有可能成为不法分子犯罪的新手段和新工具。
画面中技术人员正在演示的就是“AI换脸”技术,仅需一张目标人物的静态照片,就能让照片中的人物动起来。
中国网络空间安全协会人工智能安全治理专业委员会委员张博介绍,“尽管现在AI换脸、换声等有一定的技术门槛和操作成本,但如果被不法分子获取的情况下,就有可能被用来假冒他人,实施相关的犯罪活动。”
识别“AI换脸”,重点关注哪些地方?“如果接收到视频信息,视频通话,要仔细观察对方的面部轮廓是否存在异常的模糊,光线是否正常”张博说道,“如果有必要的话,可以要求对方快速大幅度地抬头、点头,转头,然后来仔细观察这个过程当中,面部轮廓是否有异常模糊。”
现实生活中我们如何辨别AI换脸变声?
中国移动信息安全与管理运行中心副经理王晓晴表示,一方面,检查面部特征,观察表情和动作,以及声音和口型匹配度。另一方面,要观察情绪和语境,核实信息来源,让对方用手遮住面部或进行其他面部动作判断画面是否连贯。
张博指出,防止网络诈骗还是要从上游入手首先要防止个人信息的过度外泄👇👇👇
网络安全专家提示,AI换脸等违法行为的最关键原因是个人隐私信息的泄露。因此,我们在日常上网过程中,要尽量避免人脸、指纹等个人生物信息的过度公开和分享。如果接到“家人”“领导”等转账、汇款的视频,一定要仔细甄别真伪。
日常生活中不少人喜欢在朋友圈、短视频上晒美食、晒美景但是如果不小心的话这些行为很可能间接泄露你的个人信息如果被别有用心的人获取可能会危及自己和家人的财产乃至人身安全哪些照片一定要小心千万不要随意发到网上呢?👇👇👇
不要公布手持身份证或手持白纸照。这些照片中会包含个人姓名、身份证号码、住址等敏感信息,一旦泄露,不法分子可能利用这些信息进行身份盗用,办理信用卡、贷款等金融业务,甚至进行违法活动。另外,手持白纸或手持报纸等照片常被用于验证身份,如果被不法分子获取,可能被用于制作假证件或进行网络诈骗,会给个人带来经济损失和名誉损害。
不要发布各种票据类的照片。很多人出差、旅游都喜欢拍火车票或飞机登机牌,发到自己的朋友圈分享。这些票据上不仅会包含姓名、出发地、目的地等信息,而且在条纹码或者二维码中也会含有乘客的个人信息,存在被不法分子破解并窃取的可能。
不要晒家门钥匙、车牌等照片。不法者通过大数据等技术手段,通过这些照片会分析出发布者特定时间所处的特定位置,也会获取发布者相关的生活习惯。所以,最好的办法就是不要在照片中出现特征明显的物品,例如家门钥匙、车牌号码等。
推荐阅读
未拴绳金毛犬扑过来,41岁孕妇受惊吓流产!犬主:怀试管婴儿就该多在家休息…
来源:央视新闻、新华社、封面新闻
编辑:郭强仔
责编:谢超贤
监审:黄柏琳