查看原文
其他

张洪忠 段泽宁 杨慧芸 | 政治机器人在社交媒体空间的舆论干预分析

张洪忠 段泽宁 等 中国政治传播研究
2024-09-17

点击上方“中国政治传播研究”可订阅哦!


摘要

政治机器人是指在社交媒体空间执行政治传播任务的一类社交机器人,已经广泛参与到在线政治信息的讨论和扩散环节,成为影响政治传播效果的一个变量。本文首先分析了政治机器人的三类主要应用场景:政治选举、社会动员、政治干扰以及在全球的应用案例;其次,本文分析了政治机器人影响网络舆论的五种策略:营造虚假人气,推送大量政治消息,传播虚假或垃圾政治信息,制造烟雾遮蔽效应混淆公众视听,塑造高度人格化形象的虚拟意见领袖。最后,本文从传播学视角出发分析了应如何认识政治机器人对舆论的影响,提出需要引入跨学科的机器行为学新范式推动该领域的深入探讨。


关键词

政治机器人;社交机器人;社交媒体;网络舆情


一、问题的提出


政治机器人是社交机器人的一种类型。社交机器人是在社交网络中扮演人的身份,拥有不同程度人格属性且与人进行互动的虚拟AI形象。[1] 顾名思义, 政治机器人是在社交媒体空间中专门执行政治传播任务的一类社交机器人,运营者借助算法技术注册并运营大量社交媒体账号,以虚假的个人身份与尽可能多的目标用户建立联系,传播运营者的政治诉求并力图影响舆论。


机器人程序最早被应用于商业营销,之后被政治团体逐渐利用于操纵社会舆情。2010年前后,一些商业公司开始采用可活跃于Facebook、Twitter和Reddit等社交平台中的机器人,这些自动化程序通过模仿人类用户行为,在社交网络中大规模地扩散商业营销广告。[2] 不久后,一些技术嗅觉敏锐的政治团体也开始采用这项技术,将其运用在政治宣传中以影响现实舆论场。[3] 区别于其他类型的社交机器人,这些被政治团体操控并在社交媒体中广泛参与政治讨论的机器人程序, 被称为“政治机器人(political bot)”。[4][5][6]


政治机器人现在已经发展成为政治传播的一个重要参与变量。2016年,国际传播学刊(International Journal of Communication)在第十期上刊发了以“自动化、算法和政治(Automation, Algorithms, and Politics)”为主题的一组特刊文章,① 一定程度上标志着这个领域开始获得学界关注。笔者对CNKI网站的相关内容进行检索发现,我国国内传播学、政治学、社会学等人文社会学科最近两年关于机器算法的学术讨论明显增多,但是还没有对政治传播领域的政治机器人进行分析的相关文献。


从政治传播角度看,一方面,政治机器人有利于政治信息的大范围传播,对民众的政治参与有一定的促进意义;但另外一方面,政治机器人对网络舆论的干预也会影响正常的公众舆论表达。有学者指出,部分政治团体、军队和政府机构已经开始采用这项新的数字技术,启用政治机器人模仿人类用户以混淆舆论视听,并通过对公民信息进行自动化抓取和分析,操纵公共舆论, 扰乱正常的组织信息交流。[7] 简单地说,政治机器人将特定内容暴露给人类用户,并诱导人们去接触、评论和扩散这些政治内容,以达到运营者的政治目的。[8] 本文拟聚焦于第二个方面—政治机器人对网络舆论的干预,力图基于研究文献对政治机器人在社交网络空间中的舆情运作现状、具体干预策略进行分析,在此基础上,进一步思考如何看待社交机器人的舆论干预问题。



二、政治机器人干预舆论的现状


从使用场景和全球应用两个方面描述政治机器人的舆论干预现状。从全球范围来看,政治机器人的舆论干预突出体现在政治选举、社会动员、政治干扰三种应用场景,从账号追踪、传播效果等方面均有相关实证研究文献。


(一)西方国家政治选举是政治机器人最常见的一类应用场景


2016年美国总统大选前夕,推特(Twitter)中出现了一批冠以拉丁裔传统人名的推特账号,它们使用的是“真实”拉丁裔人相貌的头像,并在社交媒体中表现出和现实中拉丁裔推特用户相近的 行为。这些模仿拉丁裔族群的机器人推特账号发布了大量支持特朗普政府的重复推文,见图1。



针对2017年法国总统大选期间参与“邮件门事件(MacronLeaks)”讨论的推特账号进行分析则发现,大多数账号并非法国本土用户,而是来自于另类右翼(alt-right)社区的外国用户。大量曾活跃于上一年度美国大选期间的政治机器人账号,在短暂的蛰伏期后又重新活跃起来,并参与到2017年法国总统大选的舆论造势之中。[9] 也就是说,国际上有可能存在政治机器人的地下交易市场。


Schafer等学者(2017)认为,安倍之所以能在2014年日本首相选举中胜出,也得益于Twitter 中大量的网络机器人军队(cyber army of bots)。[10] 研究者通过对日本首相选举前后推特用户发表的542584条推文进行抽样,并基于语料分词技术来识别政治机器人,他们发现有占总量近80%的重复推文极有可能是由政治机器人生成的,而政治机器人在推特中的典型行为包括大规模转发以及发布重复内容。


(二)参与重大社会议题的社会动员,影响网络空间舆论


一个典型案例是政治机器人介入到了英国脱欧公投。伦敦大学城市学院的Bastos和Mercea(2017)通过一组预设标签获得了公投前后两周内全部推文及其来源账号,并基于网络特征识别机器人账号,发现有将近34%的账号为机器人账号。[11] 83% 的政治机器人账号在脱欧公投的两年前就已经被创建,其中有将近1%的链接共同指向“@brndstr” 。该账号由位于迪拜并为社交媒体营销提供机器人支持的“品牌机器人工作室(Bots Studio for Brands)”运营。从数量上看,这些机器人账号在公投前的两周内异常活跃,但在公投后则活跃度急剧下降。


(三)政治干扰 


叙利亚战争和2016年美国总统选举是政治机器人深度卷入的两个典型案例。有学者认为, 阿拉伯之春后的叙利亚战争或许是世界上第一场数字机器人介入的现代战争,叙利亚安全部门被指使用大批政治机器人对反对势力进行舆论干预,政治机器人也用于阻碍新闻记者通过推特来获得战争动态信息。[12] 其中的大多数机器人使用推特的系统默认头像— 蛋壳图案,因此它们被称作“蛋壳机器人(egg bot)”。2016年美国总统大选期间,大量来自俄罗斯的机器人账号被认为用于扩散政治谣言和分享垃圾新闻,并将今日俄罗斯(Russia Today)和卫星通讯社(Sputnik News Agency)等俄罗斯信息源的链接传播给美国选民。[13] 美国特别顾问办公室也在2018年2月16日指出,俄 罗斯互联网研究院(Russia-based Internet Research Agency,IRA)在其中发挥了影响。[14]


进一步从全球范围看,政治机器人的应用已经极为广泛。2016年,Woolley通过在Lexus Nexus 数 据 库 以 及 三 大 搜 索 引 擎(Google、Yahoo和Bing)中检索关键词,构建了一个记录政治机器人活动的英文新闻文本数据库,并借助内容分析法逐一梳理被主流媒体确证过的案例,呈现了2011至2014年间部分国家政府在社交媒体中使用政治机器人的方式。[15] 在原文章中,Woolley按照国别、 机器人活动年份、嫌疑部署者以及数据来源等多个维度对相关案例制表归档。但由于其数据采集时间略久,2014年至今的案例未被收录,本文根据最新资料对原数据表进行部分修订,增补了 2015-2017年间的全球案例。



三、政治机器人干预舆论的策略


社交媒体对于人们讨论公共事务,参与现实政治至关重要。当前,机器人流量大量存在于社交媒体空间,“人机”混合模式正在改变网络空间公共话语讨论与参与基础。[21] 从技术角度来看, 只需要具备基本的编程技能,任何人都可以借助一些操作简易的服务平台来生产和雇佣社交机器人。当前的机器人开发者也并未真正地将前沿的人工智能技术运用到机器人算法中,而是常常使用基础代码脚本对公开的社交媒体用户数据进行改编和篡用。此外,机器人网络(Botnet)技术也被采用,这种技术手段即通过一个中心机器人智能来协调数以万计的机器人账号,用以挖掘数据或展开大规模拒绝服务攻击(Denial service attacks)。[22] 比如在社交平台之一的twitter中有约 51.8%的流量来自机器人,它们也是主流社交平台中活跃帐号的重要来源之一,[23] 推特中约有超过3千万的活跃账号是由机器人驱动的。[24]


政治机器人的活动行为始终离不开背后操纵者的政治意图,执行不同任务的政治机器人会表现出截然不同的行为方式。了解政治机器人在社交媒体空间中影响舆论的行为策略,有助于我们理解它们如何在社交网络中发挥作用,有助于我们对政治团体的意图作出研判,并为政治传播提供一个新的参考维度。本文根据政治机器人的具体运作方式进行分析,将政治机器人干预舆论的策略归纳五种类型:


(一)营造虚假人气


政治机器人账号被用于填充政治领导人物的粉丝列表,以让政治人物在社交媒体中看上去更受欢迎, 这是政治机器人的基础策略,被广泛使用。[25] 譬如,2012年美国总统大选共和党候选人米特·罗姆尼被指责在没有任何合理解释的情况下,其推特账号短期内增长近十万粉丝,质疑者认为其竞选团队通过购买机器人账号来营造人气,见图2。[26] 在社交媒体出现之前,普通民众与政治人物之间几乎不可能有直接交流的机会,人们普遍缺乏对某个政治人物的社会地位进行精确评估的方法。而社交媒体所带来的流行度度量指标(如粉丝数和点赞数),则促成了“在网络中拥有更多朋友是令人钦羡的”这样的社会认知。政治人物倾向于认为,拥有更多的网络粉丝让自身看起来更受欢迎。一定程度上,这也导致了社交数据的增长和被贩卖,数以万计的机器人账号因此被雇佣,用于改善政治人物的受欢迎度和公信力,这是一种新型的机器人说服策略(new form of bot persuasion)。[27]


(二)推送大量政治消息


作为在西方国家常被用在大选和政治危机期间的一种策略,机器人为那些寻求政治新闻的用户提供阅读内容,推广相关政治新闻资讯,并面向潜在选民群体定期推送投票请求与进展消息。譬如一款名为“HelloVote”的 选 民 登 记 软 件,原理是雇佣机器人自动发送短信息来协助和引导选民登记。传统的网页登记方法仅有40%左右的成功率,邮件推送的效果则更差(8%左右), 人们对填写在线表格表现出不耐烦,或常常迷失在诸多的填写步骤当中,从而导致中途放弃。相比之下,机器人辅助策略则大幅地提升了选民的投票率,能实现70%甚至更高的投票完成率。另一款名为“Hillyeah”的程序同样被设计用于提高人们的投票率。它是一款嵌入在Facebook Messages中的机器人程序,鼓励用户将支持克林顿的信息转发给社交网络好友,并帮助好友完成投票。这种注重点对点、人与人共享(peer-to-peer  sharing)的信息传递策略颠覆了自上而下式(top-down messaging)的传统思维。[28]



政治机器人的辅助可以快速扩大政治人物的传播范围和传播效率,通过特定的算法来大批量实现信息的生产、复制和传播。诚如《机器崛起》一书的作者Thomas Rid在序言中所言,机器人程序从不休息、生病或者酗酒,也不会感到疲倦,只要其机制设计得当,它们就不会出错,而且会无休止地持续不断地工作下去。[29] 政治机器人的传播价值不仅仅是简单的传播扩散,还可以帮助实现更为理想的传播效果,设计巧妙的政治机器人可以将接触的用户进行分类,从而更具针对性地投放不同类型的政治广告。


(三)传播虚假或垃圾政治信息干扰舆论



政治机器人通过扩散大量垃圾信息或虚假信息干扰线上线下的政治讨论,模糊话题焦点, 煽动网民情绪,一些研究案例显示这种策略已经被采用。譬如,2016年美国总统大选期间,来自IRA等俄罗斯信息源的机器人账号曾在Facebook 中投放了大量左倾立场为主的政治广告内容,一些账号对政治敏感话题进行夸大炒作,煽动人们 参与其中,订阅邮件并 捐款。这些账号同时也发布大量无关政治的垃圾内容,用以持续吸引用户,增加自身公信力。[30] 一些高度情绪化垃圾内 容也被用于搅浑网络话语空间。同一时期,美国右翼党派在Facebook、Instagram、Twitter等 社交平台中借助机器人发布了大量成本低廉的情绪化内容,其中 包含着大量的表情包(memes)、垃圾新闻(junk news)、错误统计数据(misleading statistics)以及链接(links),这些内容在种族、移民 和公民身份等社会敏感议题上不断挑唆民意,引发情绪共鸣(emotional resonance),从而帮助美国右翼党派实现对社交网络话语的控制。[31] 这种策略对舆论的影响非常直接,甚至可以改变议题的走向。


(四)制造烟雾遮蔽效应混淆公众视听


烟雾遮蔽(smoke screening),也叫标签劫持(hijacking the hashtag),是指通过推送大量与议题 不相关信息(比如食物、旅行等)来转移话题的策略。它与第三种策略相似,但更为狡黠。这种策略的目的不单纯是为了扩散垃圾信息,更进一步将一些特定政治话题标签(hashtag)与无效信息绑定在一起,导致用户在检索标签内容时被误导至无关的垃圾帖子上,从而达到模糊舆论空间、 干扰政治讨论的目的。[32] 简单地来说,这种策略是通过创建大量替代性的垃圾话题标签来扼杀和掩盖现实讨论。


烟雾遮蔽策略被运用到了叙利亚战争中,叙利亚的在线抗议者使用诸如“#Syria”、“#Daraa”、 “#Marl15”等政治话题标签发布推文,以寻求全球声援。不久 后,一家注册于巴林岛的公司 EGHNA被指派负责打压抗议声浪。于是,该公司创建了一批亲政府的社交媒体账号,如“@ LovelySyria”、“@SyriaBeauty”、“@DNNUpdates”等。这些账号每隔数分钟便从EGHNA平台中发布大量的无关推文(比如叙利亚的风光照),并附上当前被广泛采用的政治话题标签。这种策略有效地削弱了抗议者的声音,淹没了社交媒体中竞争者的话语。[33]大量无关内容被加入到政治议题讨论中,分散了公众对于讨论话题的注意力, 热度高的话题被降温,从而达到了舆论干预的目的。


(五)塑造高度人格化形象的虚拟意见领袖


一些政治机器人被设计得诙谐幽默充满人格魅力,它们被伪装成政治领导人、政府代理人和政治团体,直接向选民推送政治信息。[34] 有研究指出,前美国总统奥巴马曾向社交媒体粉丝自动化发送信息,试图获得公众的关注和支持。[35] 在叙利亚战争期间,一个备受争议的推特帐号萨拉·阿卜杜拉(Sarah  Abdallah,  @sahouraxo)自称为“黎巴嫩独立地缘政治评论员”,在推特中拥有多达12.5万名追随者,成为有一定有影响力的意见领袖,其影响力甚至可以与一些持续报道叙利亚战争的BBC记者相匹敌,见图3。 



但除了在社交网站上的频繁发言外,萨拉在其他媒体平台中无影无踪,搜索引擎也无法找到关于她的相关信息。诸多迹象指向一种可能:萨拉并非真人,而是彻头彻尾的政治机器人。[36] 无独有偶,前文中提及的2016年美国大选期间的拉丁族裔的政治机器人也是这种策略的典型代表,“@Pepe Luis Lopez”等诸多虚假拉丁裔账号在美国社会少数族裔中扮演意见领袖角色,吸引了大批粉丝,备受关注。政治团体通过将政治机器人打造成虚拟的意见领袖,与民众建立起更为稳固的社交关系,借助算法的机器手段来实现政治传播目的。“真人”意见领袖需要一定培育时间,不可复制而且其传播效果还会受到个体行为的影响, 比如不良的个人生活作风、行为举止等都会影响到意见领袖的形象。但“机器”意见领袖可以实现量产,而且其形象不会受到现实生活影响,更容易塑造完美的意见领袖形象,只要其虚拟身份不暴露,就可以在社交媒体中持续发挥政治影响。


四、如何认识政治机器人对舆论的影响


政治机器人技术正在不断进步,从过去简单的点赞、转发的人机互动模式,发展为当下能支持大规模挖掘用户数据并辅之以人格化形象扮演意见领袖的复杂阶段。政治机器人发展到一定程度,极有可能左右公众舆论,甚至改变特定政治事件的走向,使公众舆论丧失应有的政治表达功能。我们应当如何看待政治机器人对舆论的影响?


(一)政治机器人的存在和进化不可避免,随着社交网络的发展,政治机器人正在成为一种重要政治手段参与到网络政治表达当中


社交媒体的生态正从完全由“人”主导变为 “人+社交机器人”的共生状态,社交机器人已经成为社交媒体的一个有机组成部分。[37] 社交媒体中的大量用户数据为政治机器人提供了发展空间,政治机器人可以利用社交网络用户的公开数 据,分析用户的特征与偏好,发现容易与机器人账号连接的人类用户。[38] 从技术逻辑来看,开发者们不需要具备非常前沿的人工智能技术,一些基础代码脚本就可以支持政治机器人去搜索和连接用户,技术门槛不断降低导致越来越多别有用心的政治团体和个人操纵政治机器人在社交媒体空间传播其政治理念。


(二)政治机器人开始与真人竞争网民的信任 


在现实生活中,人们可以通过肢体语言和口头语言来评估发言者的真实性与可信度。[39] 然而在虚拟社交空间中,人们只能依赖诸如头像、表情符号等简单的手段来判断对方是否是真人,政治机器人在社交网络中伪装成一个值得信任的虚拟人物形象并非难事。此外,人们一般会认为当网民识别出政治机器人的机器身份时,政治机器人就会失去网民信任。吊诡的是,有研究表明, 当人们意识到互动对象是机器人账号后反而给予更高的信任:Edwards等人(2014)的一项研究发现,即使用户知道某些账号是机器人,后者依 然能获得比其他人类账号更高的信任,因为机器人账号看似更中立客观。[40] 未来,不管是否有法规要求标识社交媒体账号的机器身份,政治机器人都将与真人政治家们在政治议题上争夺网民信任,进而影响政治舆论。进一步看,这种信任竞争是将政治机器人背后的操纵者意志放大的过程。“人工智能背后实际上也是隐喻着人与人之间的关系。这种人与人之间的关系可能是用户与媒体人员之间的关系,也可能是用户与用户之间的关系,或者各种‘人’的关系的复合。”[41]


(三)机器行为学将成为政治传播的一个重要研究领域


社交机器人在社交媒体上的活动规律有别于真人用户。两者虽然共生于同一个网络空间, 但基于运行机制的差异性,不能简单地按照真人用户的行为规律来研究社交机器人。[42] 政治机器人成为网络舆情空间一个重要的新进入者,对政治传播的研究提出了新挑战,需要引入新的研究范式、站在新的立场和角度上来对其进行深入研究。而引入机器行为学(Machine behaviour)对政治机器人的行为与影响进行研究将极大地拓展对这一领域的研究视野。机器行为学指研究智能机器所表现出的行为。2019年4月24日,《自然》 杂 志(《Nature》)刊发了麻省理工大学媒体实验室Iyad Rahwan、Manuel Cebrian、Nick Obradovich 等人发表的《机器行为(Machine behaviour)》文章,[43] 根据该文对机器人与人类关系的定义,在对政治机器人研究时应该讨论的问题关系有:个体层面的政治机器人行为与算法研究,集体层面的政治机器人之间的相互作用,混合人机行为层面的政治机器人与人类之间的交互影响。这一研究逻辑还可以类推至对于特定物种的研究,研究物种成员之间的相互作用以及物种与更宽泛的环境气候之间的相互作用。这些研究将政治传播与网络科学、伦理学、法学等学科交叉在一起来探讨政治机器人现象。



五、结语


技术是一把双刃剑,对于政治机器人不能用简单的“好或坏”二分法来定性,需要用多维视角看待。一方面,政治机器人可以增加政治机构和网民之间的互动机会,让网民更有效地收集政治信息,网民还可以利用政治机器人组织比以前规模更大、更多样化的社区来参与政治表达。[44] 让机器人账号服务于用户和社会,或许能帮助我们解决回音壁效应和虚假消息等现实问题。[45] 但另一方面,政治机器人可以通过故意制造虚假和垃圾信息干扰正常舆论生态,深怀恶意。当前政治机器人更多的是基于政治目的来影响舆论,对舆论生态所产生的负面影响尤其应当引起社会足够的重视。


毫无疑问,对政治机器人的研究是一个机遇与挑战并存的学术领域,[46]  创建一个广泛的科学研究机制,吸引跨学科的见解来研究机器行为是极为必要的。[47] 更宽泛一点来说,政治传播和舆论学研究需要引入机器行为学的新研究范式,需要来自不同学科的研究者们彼此合作来推动该领域的研究向纵深发展。本文从政治机器人的定义和案例出发,讨论了政治机器人的影响和策略,旨在抛砖引玉,期待为未来的政治传播和舆论学中的人机交互研究领域提供参考以产生更多学术洞见。


注释

①这期组刊源于由欧洲研究委员会(European Research Council)赞助,由牛津大学互联网研究院(Oxford Internet Institute)筹办的计算宣传项目——为期一天的“算法,自动化和政治”工作坊成果,工作坊举办于2016年6月国际传播学年会(International Communication Association)的前会,于日本福冈。


[1] 张洪忠、段泽宁、韩秀. 异类还是共生:社交媒体中的社交机器人研究路径探讨[J]. 新闻界, 2019(2):10-17.

[2] Chu Z, Gianvecchio S, Wang H, et al. Who is tweeting on Twitter: human, bot, or cyborg?[C]. Proceedings of the 26th annual computer security applications conference. ACM, 2010: 21-30. 

[3] Woolley S C. Automating power: Social bot interference in global politics[J]. First Monday, 2016, 21(4).

[4] Howard P N, Woolley S, Calo R. Algorithms, bots, and political communication in the US 2016 election: The challenge of automated political communication for election law and administration[J]. Journal of information technology & politics, 2018, 15(2): 81-93.

[5] McKelvey F, Dubois E. Computational propaganda in Canada: The use of political bots[J]. The Computational Propaganda Project Working Paper Series, 2017.

[6] Sch·fer F, Evert S, Heinrich P. Japan's 2014 General Election: Political Bots, Right-Wing Internet Activism, and Prime Minister Shinzō Abe's Hidden Nationalist Agenda[J]. Big data, 2017, 5(4): 294-309.

[7] Woolley S C. Automating power: Social bot interference in global politics[J]. First Monday, 2016, 21(4).

[8] Shao C, Ciampaglia G L, Varol O, et al. The spread of low-credibility content by social bots[J]. Nature communications, 2018, 9(1): 4787.

[9] Ferrara E. Disinformation and social bot operations in the run up to the 2017 French presidential election[J]. First Monday 22(8)

- August 7, 2017. Available at http://dx.doi.org/10.2139/ssrn.2995809

[10] Sch·fer F, Evert S, Heinrich P. Japan's 2014 General Election: Political Bots, Right-Wing Internet Activism, and Prime Minister Shinzō Abe's Hidden Nationalist Agenda[J]. Big data, 2017, 5(4): 294-309.

[11] Bastos M T, Mercea D. The Brexit botnet and user-generated hyperpartisan news[J]. Social Science Computer Review, 2019, 37(1): 38-54.

[12] Forelle M, Howard P, Monroy-Hernández A, et al. Political bots and the manipulation of public opinion in Venezuela[J]. arXiv preprint arXiv:1507.07109, 2015. Howard, P N. and Kollanyi, B, Bots, #Strongerin, and #Brexit: Computational Propaganda During the UK-EU Referendum[J]. 2016. Available at SSRN: https://ssrn.com/abstract=2798311 or http://dx.doi.org/10.2139/ ssrn.2798311.

[13] Howard P N, Bolsover G, Kollanyi B, et al. Junk news and bots during the US election: What were Michigan voters sharing over Twitter[J]. Computational Propaganda Research Project, Oxford Internet Institute, Data Memo, 2017 (2017.1). Shao C, Ciampaglia G L, Varol O, et al. The spread of fake news by social bots[J]. arXiv preprint arXiv:1707.07592, 2017: 96-104. 

[14] Spangher A, Ranade G, Nushi B, et al. Analysis of Strategy and Spread of Russia-sponsored Content in the US in 2017[J]. arXiv preprint arXiv:1810.10033, 2018.

[15] Woolley S C. Automating power: Social bot interference in global politics[J]. First Monday, 2016, 21(4).

[16] Hudson L. Stay woke bot helps activists explain racism to Twitter randos.[OL].Boingboing, 21 July, 2015, at https://boingboing. net/2015/07/21/stay-woke-bot.html, accessed  02 July, 2019.

[17] McKelvey F, Dubois E. Computational propaganda in Canada: The use of political bots[J]. The Computational Propaganda Project Working Paper Series, 2017.

[18] Howard P N, Woolley S, Calo R. Algorithms, bots, and political communication in the US 2016 election: The challenge of automated political communication for election law and administration[J]. Journal of information technology & politics, 2018, 15(2): 81-93.

[19] Ferrara E. Disinformation and social bot operations in the run up to the 2017 French presidential election[J]. First Monday 22(8)

- August 7, 2017. Available at http://dx.doi.org/10.2139/ssrn.2995809.

[20] Bastos M T, Mercea D. The Brexit botnet and user-generated hyperpartisan news[J]. Social Science Computer Review, 2019, 37(1): 38-54.

[21] Woolley, S C, Howard, P N. Political Communication, Computational Propaganda, and Autonomous Agents— Introduction[J]. International Journal of Communication, 2016(10), 4882-4890.

[22] Guilbeault D. Growing bot security: An ecological view of bot agency[J]. International Journal of Communication, 2016(10), 5003–5021.

[23] Zeifman I. Bot traffic report 2016 [R]. Imperva, 2017. https://www.imperva.com/blog/bot-traffic-report-2016/, accessed 18 July 2019.

[24] Motti J. Twitter acknowledges 23 million active users are actually bots[J]. Tech Times, Aug, 2014.

[25] Chu Z, Gianvecchio S, Wang H, and Jajodia S. Detecting automation of Twitter accounts: Are you a human, bot, or cyborg?[J]. IEEE Transactions on Dependable and Secure Computing, volume 9, number 6, 2012: 811–824.doi: http://dx.doi.org/10.1109/ TDSC.2012.75, accessed 1 July 2019. Woolley S C. Automating power: Social bot interference in global politics[J]. First Monday, 2016, 21(4).

[26] Oremus W. Mitt Romney's Fake Twitter follower problem[OL].Future tense, 2012. http://www.slate.com/blogs/future_ tense/2012/07/25/mitt_romney_fake_twitter_followers_who_s_buying_them_.html, accessed 1 July 2019.

[27] Guilbeault D. Growing bot security: An ecological view of bot agency[J]. International Journal of Communication, 2016(10), 5003–5021.

[28] Coren M J. Political bots are proving exceptionally effective at registering people to vote, especially for democrats[OL]. Quartz, 2016.         https://qz.com/810797/presidential-debates-political-bots-are-proving-exceptionally-effective-at-registering-people-

to-vote/, accessed 18 July 2019.

[29] Rid T. Rise of the machines: The lost history of cybernetics[M]. New York: W. W. Norton & Company, 2016.

[30] Spangher A, Ranade G, Nushi B, et al. Analysis of Strategy and Spread of Russia-sponsored Content in the US in 2017[J]. arXiv preprint arXiv:1810.10033, 2018.

[31] Hamby P. Can Democrats win back the internet in the age of Trump?[OL]. Vanityfair, 2019. https://www.vanityfair.com/ news/2019/06/can-democrats-win-back-the-internet-in-the-age-of-trump,    accessed    18    July,    2019.

[32] Abokhodair N, Yoo D, & McDonald D W. Dissecting a social botnet: Growth, content, and influence in Twitter[C]. Proceedings of the 18th ACM Conference on Computer Supported Cooperative Work & Social Computing, 2015: pp. 839–851. New York, NY: Association for Computing Machinery. doi:10.1145/2675133.2675208.

[33] Michael K. Bots without borders: How anonymous accounts hijack political debate[OL], The Conversation, 2017. http:// theconversation.com/bots-without-borders-how-anonymous-accounts-hijack-political-debate-70347, accessed 18 July  2019.

[34] Howard P N, Woolley S, Calo R. Algorithms, bots, and political communication in the US 2016 election: The challenge of automated political communication for election law and administration[J]. Journal of information technology & politics, 2018, 15(2): 81-93.

[35] Ostrow A. Obama loses 36,000+ twitter followers in #compromise campaign [OL]. Mashable, 2011. https://mashable. com/2011/07/29/obama-compromise-campaign-stats/, accessed  1 July  2019.

[36] Whitaker B. Syria propaganda and the mysterious‘Sarah Abdallah’: a Hizbullah connection?[OL]. Medium Corporation, 2018. https://medium.com/@Brian_Whit/syria-propaganda-and-the-mysterious-sarah-abdallah-a-hizbullah-connection-

bd6308975f6e, accessed 1 July 2019.

[37] 张洪忠、段泽宁、韩秀. 异类还是共生:社交媒体中的社交机器人研究路径探讨[J]. 新闻界, 2019(2):10-17.

[38] Xie Y, Yu F, Ke Q, et al. Innocent by association: early recognition of legitimate users[C]//Proceedings of the 2012 ACM conference on Computer and communications security. ACM, 2012: 353-364. Zangerle E, Specht G. Sorry, I was hacked: a classification of compromised twitter accounts[C]//Proceedings of the 29th Annual ACM Symposium on Applied Co mputing. ACM, 2014: 587-593.

[39] Metzger M J, Flanagin A J. Credibility and trust of information in online environments: The use of cognitive heuristics[J]. Journal of Pragmatics, 2013, 59: 210-220.

[40] Edwards C, Edwards A, Spence P R, et al. Is that a bot running the social media feed? Testing the differences in perceptions of communication quality for a human agent and a bot agent on Twitter[J]. Computers in Human Behavior, 2014, 33: 372-376. 

[41] 张洪忠、石韦颖、刘力铭.如何从技术逻辑认识人工智能对传媒业的影响[J].新闻界,2018(02):17-22. [42] 张洪忠、段泽宁、韩秀. 异类还是共生:社交媒体中的社交机器人研究路径探讨[J]. 新闻界, 2019(2):10-17.

[43] Rahwan I, Cebrian M, Obradovich N, et al. Machine behaviour[J]. Nature, 2019, 568(7753): 477.

[44] Guilbeault D. Growing bot security: An ecological view of bot agency[J]. International Journal of Communication, 2016(10), 5003–5021.

[45] Jamieson K H, & Cappella J N. Echo chamber: Rush Limbaugh and the conservative media establishment[M]. Oxford, UK: Oxford University Press, 2010.

[46] Woolley S C. Automating power: Social bot interference in global politics[J]. First Monday, 2016, 21(4). 

[47] Rahwan I, Cebrian M, Obradovich N, et al. Machine behaviour[J]. Nature, 2019, 568(7753): 477.

(本文注释略有改动,详见原文)


作者介绍

张洪忠,北京师范大学新闻传播学院教授;

段泽宁,美国威斯康辛大学麦迪逊分校新闻与大众传播学院博士研究生;

杨慧芸,北京师范大学新闻传播学院博士研究生,大理大学文学院副教授


本文出处:

本文原载于《新闻界》2019年09期。


相关文章推荐:

罗坤瑾 | 狂欢与规训: 社交媒体时代虚假新闻传播及治理研究

史安斌 王沛楠 | 社交媒体峰会与美国政治传播的变异

张洪忠 何苑 马思源 丨 官方与个人社交媒体账号信任度对社会信心影响的中介效应比较研究


近期文章推荐:

丁柏铨 | 中国共产党的舆论监督观 发展轨迹、基本内涵和未来走向 ———基于对新中国成立后历史和现实的考察

张 健 朱子微 | 范式的变迁与危机 ——“四史”编写研究的学术史回顾

王梦媛 | 媒介偏向及知识垄断 ——评《帝国与传播》



编辑:王书寒

中国传媒大学政治传播研究所硕士生

校对:宁志垚

中国传媒大学政治传播研究所硕士生


继续滑动看下一个
中国政治传播研究
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存