你所看见的,都是虚假从去年10月开始,Instagram上火了一个叫Jos Avery的摄影师。这个Jos,以其精湛的人像摄影,在短时间内征服了3万多名粉丝。并且,面对摄影新人的请教,Jos还贴心地指导他们:“我这张照片,是用尼康D810拍的,用的是24-70毫米的镜头。”然而在一段时间后,Jos本人实在忍不住,向Ars Technica的记者坦言:“其实我根本就不是什么摄影师,这些人像都是我用AI生成出来的。”这不禁让人想起国内最近有个知名的画师,因被曝出用AI绘画而塌房,让许多模仿他作画的萌新失去了继续画下去的动力,也让许多网民开始了一场赛博猎巫——逼画师们自证在绘画中没用过人工智能辅助。与之类似,当人类的容貌,可以被机器在短时间内创造出成百上千张,就会有像Informa Systems 这样的企业,用生成的脸孔创造假的员工,让公司看上去有一个人数众多的专业团队。同一时刻,Facebook的母公司在去年底表示,在它们2022年的取缔活动中,有三分之二的违禁账户,用的头像是AI生成的。这并不让人感到意外,因为在2022年的一篇论文里,研究者发现有3成到5成的美国人,根本就无法在真实脸孔和用DeepFake所生成的虚拟脸孔间做区分。所以在TikTok上,由AI合成的明星整活儿类视频遍地都是,难辨真假,比如下面的这个基努里维斯:对于骗子来说,DeepFake实在是一件的趁手的工具。去年8月,有个诈骗团队就利用DeepFake,伪造出一张数字货币公司高管的脸。骗子将这张假脸套在自己的面部,然后通过在线聊天软件Zoom,去和那些项目团队的成员开会,让他们以为自己正在和大公司的负责人对接。”被“偷脸”的这位高管表示,这群骗子的技术很厉害:“他们唯一没模仿出来的,就是我在疫情期间胖出来的那15磅。”不止面孔,像Midjourney这样的图像生成AI,甚至会影响你对这个世界的认知。譬如去年9月26日,东京时间凌晨4点39分,有一名家住东京的推特用户,发了三张静冈县遭遇水灾后的惨状。该贴被迅速转发,许多网友又是震惊不已又是要筹措捐款。结果在推文发出11小时后,原作者道歉,称静冈发水灾是真的,但灾情图片却是他用AI做出来的。他也知道撒谎不好,但就是舍不得海量的推特转发和点赞。无独有偶,在今年2月初的土耳其叙利亚大地震后,也有人在网上用一张“地震现场的救援图”来号召爱心人士们捐款,结果立刻就被眼尖的网友扒出来,说这图上的人有六根手指,应该是用Midjourney做出来的。而当被AI生成的图像,配合上同样被AI生成的音频与文字时,那你所理解的一切真实,就将会迎来一场彻底的崩塌。