眼见未必为实,人工智能生成内容如何影响美国大选
靠谱的新媒体不多,请关注美国华人杂谈
请使用网站Justicepatch.org查看完整文章及更多内容,为防失联,请通过邮件订阅网站,或关注我们的电报频道:https://t.me/piyaoba
人工智能(AI)生成的图像已经被证明特别具有欺骗性。5月初,一张人工智能制作的歌手凯蒂·佩里(Katy Perry)身着长裙在大都会艺术博物馆慈善晚会(Met Gala)走红毯的照片,让人们误以为这位歌手参加了这场年度盛会,但实际上她没有。这张照片做得实在很真实,甚至骗到了她最亲密的人——佩里的母亲。
根据佩里发布的截图,佩里的妈妈给女儿发短信说:“我不知道你去了Met。”
“哈哈,妈妈,人工智能把你也骗到了,当心啊!”佩里回复说。
虽然这张疯传的照片并没有造成严重的伤害,但这种人工智能造假的兴起,让更多的人比以往任何时候都担心错误信息对选举的影响,尤其是考虑到2024年是民主的关键一年。截至今年12月底,将有50多个国家举行选举,其中包括美国、英国、印度、南非和墨西哥等备受瞩目的国家,总共有20多亿潜在选民。错误信息可能产生毁灭性的影响。
今年1月,新罕布什尔州的一些美国选民收到了自动电话留言,其中拜登总统的声音敦促他们不要在该州的民主党初选中投票。然而,这并不是拜登本人:这条信息是由AI生成的。这是AI生成信息对今年美国大选的一次直接而显著的攻击。
尽管在这次事件后,美国联邦政府、各州政府和科技公司慌忙制定应对措施,但人工智能生成的图像仍在越来越多地轰炸信息环境。在这个过程中,中文媒体和自媒体也在发挥着各自的影响:一些右翼自媒体在狂热地翻译和转发来自英文社交媒体角落中的虚假AI内容,这可能导致华人社区不成比例地遭到虚假和错误信息的影响,成为选举压制的目标;与此同时,据美国国土安全部和多个研究机构警告,其他国家的各类行为者也在试图利用生成式人工智能(generative AI),在美国大选周期中影响或“制造不和”。
出口转内销的AI虚假信息
一些虚假AI信息在中文自媒体和右翼社区中受到了非常高的关注度,被广泛翻译并转发评论,这些信息主要是对川普的赞美、对其政敌和民主党选民的攻击。
川普与黑人支持者互动
这当中最突出的一个例子是川普与黑人选民的互动。BBC下设的调查节目BBC Panorama报道称,川普的支持者正在散布数十张人工智能生成的虚假照片,这些照片显示川普跟黑人在一起,作为川普并非白人至上主义者的例证。
这其中最新的一轮传播发生在5月中旬,当时,川普在纽约布拉克斯组织了一场集会,随后,一张川普与支持者一同烤肉的照片开始在中文社区流传。
来源:北美保守评论截图。
这张图片同时出现在了“北美保守评论”和某微信公众号上。
追溯源头可以发现,这张图最初由一个名为@alx 的账户刊登。该账户拥有近72万关注者,在2020年被封禁,在平台被马斯克收购后获得解封,账户所有者与马斯克有过多次互动。该账户5月23日发出这张图,标题写道:“CNN永远不会报道这件事。”似乎暗示主流媒体会刻意忽略川普在少数族裔中获得的支持。
但事实更简单:CNN永远不会报道,这是因为它是假消息。据多名计算机科学专家和在线人工智能检测工具称,该图像是由人工智能生成的。
它最初是在2023年由一个模仿川普的账户@Trump_History45 发布。在线人工智能检测工具Hive Moderation认为,它有99.9%的可能性是人工智能生成的。另一个工具Illuminarty发现,它有86.3%的可能性是人工智能创造的。
仔细观看还能发现,画面右侧男性的双手畸形,以及川普右肩附近女性的脸扭曲。另一个常见的AI标志是,川普左肩后面的男人戴的帽子上的文字是乱码。此外,如果你对美国地理有一点常识,那么背景中的棕榈树应该会激起你的疑心。
“黑人选民很重要”(Black Voters Matter)是一个鼓励非裔选民投票的组织,其联合创始人克里夫·奥尔布赖特(Cliff Albright)此前对BBC说,这些这些伪造照片符合保守派推动的“非常有战略意义的叙事”,旨在赢得黑人选民的支持。他们特别针对年轻的黑人男性,这个群体被认为比黑人女性更愿意投票给川普。
对民主党选民的攻击
在华人右翼自媒体中,民主党选民往往被脸谱化。
一个拥有33万关注者的中文右翼X账号上,使用了这样的图片来对比共和党和民主党支持者:
然而,只要对PS和AI生成图片略有了解,都会看出来右侧的图片AI味儿特别浓:每个人的皮肤太油光水滑、五官和表情过度统一,而人物的长相打扮也太符合右翼对LGBTQ人群的偏执理解。
通过Google图片反向搜索,可以看到这张图3月由保守派电台主持人Michael Berry发表在他的Facebook账户,此后在包括iFunny和Imgflip等生产表情包的网站获得不断加工。
通过TrueMedia.org进行验证,四个生成式AI应用对这张图片的评价是:有“实质性证据”证明该图为AI生成。但这张图片和相关帖子在X平台上并未被标注。TikTok、Meta(Instagram、Threads和Facebook的母公司)承诺将给人工智能生成的内容贴上标签,YouTube提出了创作者需要披露的要求。但X并没有宣布任何给AI生成内容贴上标签的计划。
川普欺诈案的法官被AI描绘成另一副模样
2月16日,纽约州最高法院法官亚瑟·恩格伦(Arthur Engoron)公布了对前总统川普的民事欺诈案的判决。此项裁决判处川普缴纳高达3.55亿美元罚金,禁止川普在未来三年之内担任任何纽约公司的高级职务。该判决的依据是恩格伦认定,川普及其川普集团在提交给银行和其他金融机构的财务文件中,持续且严重地夸大了其资产估值,应当承担责任。
在审理案件时,恩格伦不断遭遇威胁和毁谤,家中遭遇炸弹威胁,他本人被右翼自媒体描述为同性恋、老变态。幻想出自由派私生活混乱的假象。
最突出的一张图片来自以下中文账号。
这张图同样也属于“一眼假”,最突出的一点是腿部肌肉纹理太不自然。但评论区买账的人不少。评论者似乎都直接从对法官的外貌攻击扩展到性取向攻击,进一步延伸到对其专业能力和操守的攻击。
TrueMedia.org的检查,这张图片的评价是:有“实质性证据”证明此为AI生成。但这个帖子从2月份至今,始终没有被X平台标注。
误导选民,动摇信任
世界经济论坛(World Economic Forum)将错误信息列为地球上最紧迫的优先事项,根据其《2024年全球风险报告》(Global Risks Report),它可能“从根本上扰乱几个经济体的选举进程”,并“引发内乱,甚至可能引发对抗”。
虚假和错误信息不一定要改变人们对政治的看法才能产生影响。例如,它可以误导人们在何时何地投票,甚至影响他们参与民主进程的决心。它也有可能让许多人对健全的系统失去信心和信任,从科学、医疗保健到公平选举。
一些专家指出,任何类型的信息都不太可能改变人们的决定,因为人们倾向于根据直觉、价值观和信仰来决定投票给谁,而不是根据信息——不管这些信息是真的还是假的。但哥本哈根大学(University of Copenhagen)研究社交媒体影响的政治学家格雷戈里·伊迪(Gregory Eady)对《自然》杂志说:“我们可能不会期望对整个人口产生广泛的影响,但错误信息可能会对一小群人产生一些激进的影响,而这些人可能会造成很大的伤害。”
例如,关于2020年美国总统大选“舞弊”的错误信息被川普的一小部分支持者放大和传播,从而引发了2021年1月6日对美国国会大厦的袭击。最近的一项研究得出结论,在对X平台上近66.5万名美国注册选民的抽样调查中,2100多人分享了有关此次选举的80%的假新闻。
对人们行为的影响同样适用于投票。例如,虽然说服人们改变忠诚可能很难,但说服他们根本不需要费心去投票可能更容易。与2020年不同的是,人工智能工具提供了一种简单的方法,可以放大有关选举欺诈和选举阴谋论的虚假说法。这可能导致选民错误地认为选举系统中存在广泛的欺诈行为,导致他们情愿不再出门投票。
另一个可能是,人们可以通过散布虚假或经过修改的视频或音频片段,声称投票站已关闭或投票时间已更改,试图迷惑选民。
缺乏强有力的监管
可以说,直到目前,科技公司和监管部门仍然采取了头痛医痛的应对模式:在出现了模仿拜登的声音劝选民不要投票的电话录音后,当局制止了这类行为;在以歌手泰勒·斯威夫特(Taylor Swift)为原型生成的人工智能色情图片引发了立法者和歌迷的强烈批评后,Midjourney阻止了以拜登、川普等主要政治人物生成政治类图片。
尽管行业专家反复发出警告,但联邦政府迄今未能采取任何行动,在该行业周围建立保护措施。在美国国会没有采取行动的情况下,各州正在采取行动。
大约有10个州通过了法律,惩罚那些利用人工智能欺骗选民的人。威斯康星州州长签署了一项两党法案,该法案将对未能在政治广告中披露人工智能的人进行罚款。密歇根州的一项法律惩罚任何在选举后90天内故意传播人工智能生成的深度虚假信息的人。
然而,目前尚不清楚的是,这些处罚——包括最高1000美元的罚款和最高90天的监禁——是否足以阻止潜在的违规者。
因此,这项技术基本上只能依靠大型科技公司的自律。业界主导的努力能否成功遏制破坏性的人工智能内容蔓延,还有待观察。社交媒体巨头有大量禁止其平台上某些内容的规定,但历史一再表明,他们往往未能充分执行这些规定,并允许恶意内容在采取行动之前传播给大众。
如果企业未能履行承诺,它们将不会面临任何处罚。OpenAI声明的政策和执行之间已经存在差距。一个由硅谷内部人士支持的超级政治行动委员会(super PAC)推出了一个人工智能聊天机器人,由该公司的ChatGPT软件驱动,用于竞选总统的候选人迪恩·菲利普斯(Dean Phillips),这违反了OpenAI禁止政治竞选活动使用其技术的规定。直到《华盛顿邮报》报道此事,该公司才禁止了这个机器人。
现在的人工智能几乎是蛮荒的西部,既没有强有力的监管来确定AI生成内容的边界,也没有防范恶意使用的措施。检测AI生成的工具十分稀少,而且也不是非常可靠或稳定,因此无论是选举官员、普通媒体受众,还是媒体工作者,以现有的技能和资源都无法快速确认视频或图像是否真的是人工智能生成的。
与此同时,人工智能模型仍然在抓取美国人在X、Facebook、TikTok、Instagram和Reddit等平台上分享的许多抱怨,用来训练数据,生成让美国社交媒体用户更能产生共鸣的新内容,进一步污染信息空间。
如何辨别AI生成画面
◾背景:模糊的背景、光滑的表面或不匹配的线条是图像是人工智能生成的直接危险信号。
◾上下文:动动脑子——如果风景与当前的气候、季节或物理条件不一致,那是因为它是假的。
◾比例:看看人物和物体混在一起,是不是符合比例。面部特征也是如此,尤其是耳朵、手指和脚。
◾文字:人工智能不会拼写。注意标识和标签上的虚假文字。
◾下巴:在人工智能生成的候选人视频中,脸的下半部分是最有可能看出疑点的。这很微妙,但要观察他们的下巴或脖子是否出现了不自然或夸张的角度。
◾手指和手:寻找奇怪的姿势,太多的手指,超长的手指,或手的位置不对。
关注我们,不再失联
电报频道t.me/piyaoba
查看更多精彩文章,请前往正义补丁网站justicepatch.org
https://www.newsguardtech.com/special-reports/ai-voice-technology-creates-conspiracy-videos-on-tiktok/
https://www.cnn.com/2024/05/10/media/social-media-ai-images-november-election/index.html
https://www.cnn.com/2024/05/21/politics/ai-2024-election-interference-dhs-warns/index.html
https://www.nature.com/articles/d41586-024-01696-z
https://www.washingtonpost.com/technology/2024/04/23/ai-deepfake-election-2024-us-india/