查看原文
其他

【数智文明·研究精粹】信息流行病综述:虚假信息的易感性、传播和免疫

The following article is from 集智俱乐部 Author Linden




导语


虚假信息的传播已对公共卫生和全球流行病的成功管控构成相当大的威胁。研究发现,接触虚假信息可能会减少疫苗接种和遵守公共卫生准则的意愿。3月10日发表于 Nature Medicine 的综述论文根据以往研究总结了信息流行病(Infodemic)的三个关键方向:易感性、传播和免疫。研究发现,虽然人们会因为对信息准确性的疏忽而被虚假信息欺骗,但社会政治信仰和身份结构也会影响是否容易相信虚假信息。文章进一步探讨了虚假信息在社交网络中的传播,以及提高心理免疫力以对抗虚假信息的的措施。作者 Sander van der Linden 是英国剑桥大学心理学教授,研究领域为社会与公众心理学。本文是对论文的全文翻译。


研究领域:信息流行病、网络传播模型、虚假信息、新冠谣言、心理预防

Sander van der Linden | 作者



论文题目:

Misinformation: susceptibility, spread, and interventions to immunize the public

论文链接:

https://www.nature.com/articles/s41591-022-01713-6


目录

摘要

虚假信息研究介绍

一、易感性

二、传播

三、免疫

总结




摘要




虚假信息的传播已对公共卫生和全球流行病的成功管控构成相当大的威胁。研究发现,接触虚假信息可能会减少疫苗接种和遵守公共卫生准则的意愿。Nature Medicine 最近的综述论文根据以往研究总结了信息流行病(Infodemic)的三个关键方向:易感性、传播和免疫。现有研究评估了以下三个问题:为什么一些人更容易受到虚假信息影响,虚假信息如何在在线社交网络中传播,哪些干预措施可以帮助提高对虚假信息的心理免疫力。文章讨论现有研究对阻止信息流行病的重要意义。



虚假信息研究介绍




2020年初,世界卫生组织(WHO)宣布全球正在陷入信息流行病(Infodemic)。信息流行病的特征是信息过载,尤其充斥着虚假和误导性的信息。尽管研究人员已经讨论过假新闻对重大社会事件的影响(例如政治选举),但是虚假信息的传播更可能对公众健康造显著的危害,尤其是在新冠大流行期间。例如,不同国家/地区的研究表明,支持新冠虚假信息与人们不太可能遵守公共卫生指导[4,5,6,7]、减少接种疫苗和向其他人推荐疫苗的意愿密切相关。实验证据表明,接触有关疫苗接种的虚假信息会导致那些声称自己“肯定会接受疫苗”的人接种疫苗的意愿下降约6%,从而削弱疫苗的群体免疫潜力[8]。对社交网络数据的分析估计,如果没有干预,Facebook 等社交平台上的反疫苗接种内容将在未来十年占据主导地位。其他研究发现,接触有关新冠的虚假信息与摄入有害物质和参与暴力行为的倾向增加有关。当然,早在新冠大流行之前,虚假信息早已对公共卫生构成威胁。被揭穿的 MMR 疫苗和自闭症之间的联系与英国疫苗接种覆盖率的显著下降有关,李施德林(Listerine)制造商谎称他们的漱口水可治愈普通感冒达数十年之久,关于烟草制品的虚假信息影响了人们对吸烟的态度,2014年利比里亚的埃博拉诊所遭到袭击,因为人们错误地认为该病毒是政府阴谋的一部分。

鉴于现在虚假信息在网上传播的空前规模和速度,研究人员越来越依赖流行病学模型来了解假新闻的传播。在这些模型中,关键的焦点在于再生数(R0——换句话说,在与已经发布虚假信息的人(传染性个体)接触后,开始发布假新闻(即再生病例)的人数。因此,把虚假信息想象成一种病毒性病原体是有帮助的,这种病原体可以感染宿主,在给定的网络中从一个人迅速传播到另一个人,而不需要身体接触。这种流行病学方法的一个好处在于,可以设计早期检测系统来识别超级传播者,从而能够及时部署干预措施,遏制病毒性虚假信息的传播[18]。

本综述将向读者提供关于虚假信息的最新文献的概念性概述,以及研究议程(Box 1) ,其中包括与病毒类比相一致的三个主要理论维度:易感性、传播和免疫。




Box1 未来研究议程和建议


研究问题1:哪些因素导致人们容易受到虚假信息误导?

  • 更好地将准确性驱动与社会、政治和文化动机结合起来,解释人们对错误信息的易感性。

  • 定义、开发和验证用于评估一般和特定领域对虚假信息的易感性的标准化工具。


研究问题2:虚假信息如何在社交网络中传播?

  • 更清晰地勾勒出“暴露”在什么程度上导致“感染”的条件,包括反复暴露的影响、社交媒体上假新闻的局部受众定位、与超级传播者的接触、回音室的作用,以及社交网络本身的结构。

  • 通过(1)捕捉更多不同类型的虚假信息,以及(2)将不同类型的传统和社交媒体平台上的假新闻风险联系起来,提供更准确的人口水平的虚假信息暴露风险估计。


研究问题3:我们能否为人们采取措施或使他们免受虚假信息的影响?

  • 重点评估该领域不同揭穿方法的相对有效性,以及如何将揭穿(治疗性)和预防干预措施结合起来,以最大限度地提高其保护性能。

  • 建模和评估心理接种(干预)方法如何在网上传播并影响社会媒体上及现实世界的分享行为。


在回顾现存的文献以帮助回答这些问题之前,有必要简单地讨论一下“虚假信息”(misinformation)一词的含义,因为不一致的定义不仅影响研究设计的概念化,还会影响关键结果测量的性质和有效性。事实上,虚假信息被称为一个包罗万象的概念[20],不仅因为定义不同,还因为对公共健康的行为后果可能因虚假信息的类型而异。“假新闻”这个词经常被认为是有问题的,因为它没有充分地描述各种各样的虚假信息,它本身已经成为一种政治化的修辞手段。Box 2对虚假信息的不同学术定义相关的问题进行了更详细的讨论,但为了本综述的目的,我将简单地从尽可能广泛的意义上定义虚假信息:“伪装成合法新闻的虚假或误导性信息”,无论其意图如何。虽然虚假信息通常与错误信息有所区别,因为它涉及明显的欺骗或伤害他人的意图,而意图可能难以确定,所以在本综述中,我对虚假信息的处理将涵盖有意和无意形式的虚假信息。




Box2 定义和操作虚假信息的挑战


虚假信息最常被引用的一种定义是“在形式上模仿新闻媒体内容,但在组织过程或意图上不模仿的编造信息”[119]。这个定义意味着,决定一个故事是否是虚假信息的重要因素是新闻或编辑过程。其他定义也反映了类似的观点,即虚假信息制作者不遵守编辑规范,“虚假性”的定义属性发生在出版者层面,而不是故事层面。然而,其他人则持完全不同的观点,他们或者从内容的真实性,或者从是否存在制作内容所使用的常用技术的角度来界定虚假信息[109]。


可以说,有些定义过于狭隘,因为新闻报道不需要完全错误才能产生误导性。一个非常突出的例子来自《芝加哥论坛报》,这是一家普遍可信的媒体,在2021年1月重新发表了一篇题为“一个健康的医生在注射新冠疫苗两周后死亡”的文章。这个故事不会因为来源或内容而被归类为虚假,因为单独考虑时,这些事件是真实的。然而,在发布时没有证据证明这种因果关系,因此认为这位医生是因为注射了新冠疫苗才死亡的,这种说法极具误导性,甚至被认为是不道德的。这是一个不起眼的例子,2021年初,它在 Facebook 上的浏览量超过了5000万次[121]。


纯粹基于内容的定义面临的另一个潜在挑战是,当专家对一个公共卫生问题的共识迅速形成,并受到不确定性和变化的影响时,对可能是真是假的定义可能会随着时间的推移而发生变化,使过于简单化的“真”与”假”分类成为一种潜在的不稳定属性。例如,尽管新闻媒体最初声称布洛芬会加重新冠的症状,但随着更多证据的出现,这一说法后来被撤回。问题在于,研究人员经常询问人们,他们是否准确或可靠地鉴别一系列真的或假的新闻标题,这些标题要么是研究人员根据对虚假信息的不同定义创建的,要么是他们筛选的。


对结果的测量也存在差异;有时,相关的结果测量标准是虚假信息的易感性,有时是真假新闻检测的差异,或所谓“真相识别”。使用经心理测量验证的标题集的唯一现有工具是最近的“虚假信息易感性测试”,这是一种对新闻真实性识别的度量方法,根据测试群体进行了标准化。总体而言,这意味着数以百计新出现的关于虚假信息的专题研究,其结果测量并不标准化,也不总是容易比较。




一、易感性




虽然人们使用许多认知启发法来判断一个主张的真实性(例如,感知来源的可信度) ,但有一个特别突出的发现可以帮助解释,为什么人们容易受到虚假信息的影响,这个发现被称为“虚幻真相”效应(illusory truth effect )重复的断言比不重复的(或新奇的)断言更有可能被判断为真实。由于大众媒体、政客和社交媒体影响者经常重复许多虚假的事实,虚幻真相的可信度大大增加了。例如,关于新冠病毒是在中国武汉的一个军事实验室通过生物工程制造的阴谋论,以及关于“新冠并不比流感更糟糕”的虚假说法在媒体上反复出现。人们更倾向于认为重复的主张是正确的,主要的认知机制被称为处理流畅性(processing fluency):一个主张被重复得越多,它就变得越熟悉,就越容易处理。换句话说,大脑将流畅性作为表明真相的信号。研究表明:(1)事先接触假新闻会增加其被感知到的准确性;(2)对于似是而非的主张,都可能出现虚幻真相;(3)先验知识不一定能保护人们免受虚幻真相的伤害;(4)虚幻真相似乎不会受到思维方式的影响,比如是分析型或直觉推理型。


虽然虚幻真相可以影响每个人,但研究表明,一些人仍然比其他人更容易受到虚假信息的影响。例如,一些常见的发现包括观察到老年人更容易受到假新闻的影响,这可能是由于认知能力下降和对数字技术不熟悉等因素造成的,尽管也有例外:面对新冠,老年人似乎不太可能认可虚假信息。那些政治倾向较为极端和右翼的人也一直表现出更容易受到虚假信息的影响,即使这些虚假信息是非政治性的。然而,在不同的文化背景下,意识形态和易受误导之间的联系并不总是一致的。其他因素,如更高的数字运算能力、认知和分析思维方式[36,40,41]与虚假信息易感性呈负相关ーー尽管其他学者已经确定党派性是一个潜在的调节因素[42,43,44]。事实上,这些个体差异导致对“为什么人们容易受到误导”产生了两个相互竞争的总体理论解释。第一种理论通常被称为经典的“疏忽”(注意力不集中)理论;第二种理论通常被称为“身份保护”或“动机性认知”理论。我将依次讨论这两种理论的新证据。


1.1 疏忽解释


疏忽解释(inattention account)或经典的推理理论认为,人们致力于分享准确的内容,但社交媒体的环境会分散人们的注意力,使他们无法根据对准确性的偏好来做出分享新闻的决定。例如,考虑到人们经常被网上的新闻内容狂轰滥炸,其中大部分是情绪化和政治化的,再加上人们在思考一条新闻的真实性方面的时间和资源有限,可能会严重干扰他们准确分析这些内容的能力。注意力不集中的解释借鉴了人类认知的双重过程理论(dual-process theory),即人们依赖于两个本质不同的推理过程。分别是系统1,它主要是自动的、联想的和直觉的,以及更具反思性、分析性和深思熟虑的系统2。一个典型的例子是“认知反思测试”(Cognitive Reflection Test,CRT) ,它给出一系列的难题,面对这些难题时,人们脑海中出现的直觉或第一个答案往往是错误的,正确的答案需要人们更仔细地停下来思考。其基本点是,激活更多的分析性的系统2型推理可以超越错误的系统1型直觉。疏忽解释的证据来自于这样一个事实,即那些在CRT测试上得分较高的人[36,41],思考能力更强的人[48],数学能力更强的人[4],知识和教育程度更高的人[37,49],无论新闻内容在政治上是否一致,都能更好地辨别真假新闻[36]。此外,实验性的干预措施使人们能够更好地进行分析性思考或考虑新闻内容的准确性[50,51],已经证明这些措施能够提高人们分享新闻的决策质量,降低人们对阴谋论的接受程度[52]。


1.2 动机推理解释


与疏忽形成鲜明对比的是(政治)动机推理的理论[53,54,55],该理论认为,缺乏信息或缺乏反思性推理不是对虚假信息易感的主要驱动力。动机推理发生在当一个人以一个预先确定的目标开始推理过程时(例如,有人可能想要相信疫苗是不安全的,因为他们的家庭成员共享这种信念) ,所以个人会解释新的(虚假的)信息以达到那个目标。因此,动机推理解释(motivated reasoning account)认为,人们对与他们具有亲和力团体的忠诚是导致他们有选择地认可那些可以强化根深蒂固的政治、宗教或社会认同的媒体内容的原因。出于政治的动机推理解释有几种变体,但其基本前提是,人们关注的不仅仅是新闻内容的准确性,还有这些信息可能服务的目标。例如,当一个假新闻碰巧提供关于某人的政治团体的正面信息,或者提供关于一个政治对手的负面信息时,这项新闻会被看作是更可信的。这个模型的一个更极端和科学上有争议的版本,也被称为“动机计算”(motivated numeracy)[59],表明更多的反思和分析,即系统2的推理能力不能帮助人们做出更准确的评估,反而事实上经常被劫持以服务于基于身份的推理。这种说法的证据来自这样一个事实,即在有争议的科学问题上,例如气候变化[60]或干细胞研究上[61],计算能力和教育水平最高的人群分歧最大。实验还表明,当人们被要求对一个数据问题(比如新的皮疹治疗的好处)做出因果推论时,计算能力较强的人在非政治性问题上表现得更好。相比之下,当同样的数据作为枪支管制的新研究结果呈现时,人们变得更加偏激和不准确。这些模式在计算能力较高的人群中更为明显。其他研究发现,政治上保守的个人更有可能(错误地)判断来自保守媒体的虚假信息,而不是来自自由媒体的虚假信息,反之对政治上的自由派也是如此——这突出了政治在辨别信息真假方面的关键作用[62]。


1.3 易感性:局限性和未来研究


值得一提的是,这两种说法都面临着重大的批评和限制。例如,旨在提高准确性的干预措施的独立复制实验揭示了不同的结果[63],并且对这些研究中党派偏见的概念化提出了质疑[43],包括干预效果受到人们政治身份影响的可能性[44]。反过来,动机推理理论也出现了几个失败的和结果不一致的重复实验[64,65,66]。例如,美国一项具有全国代表性的大型研究表明,虽然在基线水平上受教育程度最高的党派成员之间对全球变暖的两极分化确实最严重,但通过强调全球变暖问题上的科学共识[66],实验性干预措抵消甚至扭转了这种影响。这些发现导致了一个更大的混淆,在动机推理的文献中,党派偏见可能仅仅是由于选择性的接触,而不是动机推理[66,67,68]。这是因为政治的作用与人们先前的信仰混淆了。尽管人们在许多问题上存在两极分化,但这并不意味着他们不愿意根据证据更新他们(被误导的)信念。此外,人们可能拒绝更新他们的信仰,不是因为拒绝信息的动机推理,而仅仅是因为他们认为这些信息不可信,或者因为他们忽视了信息来源或内容本身的真实性。这种“等价悖论”(equivalence paradox)[69]使得我们很难将准确性与基于动机的偏好进行因果分离。


因此,未来的研究不仅应该小心地操纵人们处理政治上不一致的(虚假)信息的动机,而且还应该提供一个对虚假信息易感性的更综合的理论解释。例如,对于政治假新闻,身份动机可能会更加突出;然而,对于处理非政治化问题的虚假信息(例如关于治疗普通感冒的谎言) ,知识缺乏、疏忽或混淆等机制更有可能发挥作用。当然,新冠病毒等公共卫生问题有可能相对迅速地政治化,在这种情况下,动机推理在加剧虚假信息的易感性方面的重要性可能会增加。准确性偏好和动机推理也经常发生冲突。例如,人们可能会理解一个新闻故事不太可能是真实的,但是如果虚假的信息促进了他们社会群体的目标,他们可能会更倾向于放弃对准确性的渴望,转而追求符合他们社区规范的动机。换句话说,在任何特定的背景下,人们对准确性和社会目标的重视程度将决定他们如何以及何时根据虚假信息更新自己的信念。在解释为什么人们容易受到虚假信息的影响时,关注准确性和社会政治目标之间的相互作用可以获得很多好处。



二、传播




2.1 测量信息流行病


回到与病毒的类比,研究人员采用了流行病学的模型,例如易感-感染-康复(SIR)模型,来衡量和量化在线社交网络中虚假信息的传播。在这种情况下,R0经常代表那些在与已经被感染的人接触后开始发布假新闻的人。当R0大于1时,虚假信息将会呈指数增长,传播开来形成信息流行病,当R0小于1时,信息流行病最终将会消亡。对社交媒体平台的分析表明,所有这些平台都有可能推动类似信息流行病的传播,但有些平台比其他平台更有可能。例如,Twitter上的研究发现,假新闻被分享的可能性比真实新闻高出70% ,真实新闻要传播1500人的时间是假新闻的6倍。虽然假新闻比真新闻传播得更快、更深,但必须强调的是,这些发现所依据的是对经过事实核查新闻的相对狭隘的定义。最近的研究指出,这些估计很可能与平台有关。

更重要的是,一些研究已经表明,假新闻通常只代表了人们所有媒体消费的一小部分,社交媒体上虚假信息的传播是高度扭曲的,一小部分账户负责分享和消费大部分内容,这些账户也被称为“超级分享者”和“超级消费者”[3,24,73]。虽然这些研究大部分来自政治领域,但在新冠流行的背景下也发现了非常相似的结果,在此期间,Twitter 和 Facebook 上的超级传播者对平台产生了大部分影响。一个主要问题是回音室的存在,在回音室中,信息的流动常常系统地偏向于志同道合的人。虽然回音室的传染是有争议的,但是研究显示这种极化群体的存在助长了虚假信息的传播,并阻碍了纠错信息的传播。


2.2 接触并不等于感染


基于社交媒体数据的接触估计往往与人们自我报告的经历不一致。不同的民意调查显示,超过三分之一的人自我报告频繁接触虚假信息(如果不是每天接触的话)。当然,人们自我报告的经历的有效性可能是不同的,但它提出了关于接触估计的准确性问题,这种估计往往基于有限的公开数据,并且可能对模型假设很敏感。此外,这里需要考虑的一个关键因素是,接触并不等于说服(或“感染”)。例如,对新冠新闻标题的研究表明,人们对标题真实性的判断对他们的分享意图几乎没有影响。因此,人们可能会出于准确性以外的原因选择分享虚假信息。例如,最近的一项研究发现,人们经常分享那些看起来“如果是真的很有趣“的内容。这项研究表明,尽管人们认为假新闻不够准确,但他们认为假新闻比真新闻更有趣,因此也愿意分享。


2.3 传播:局限性和未来研究


关于“传播”的研究面临着重大的局限性,包括知识方面的关键缺口。人们对于从接触虚假信息到开始真正相信虚假信息的比率持怀疑态度,因为对媒体和说服效应的研究表明,很难使用传统广告说服人们。但是现有的研究经常使用人为的实验室设计,这些设计可能不能充分代表人们做出新闻分享的决策环境。例如,研究经常测试对单一信息的一次性接触,而不是反复接触来自不同社会和传统媒体的虚假信息后是否传播。因此,我们需要更好地理解最终导致说服的接触虚假信息频率和强度。大多数研究还依赖于人们分享或点击的公开可用数据,但人们在滚动社交媒体流时可能会暴露于更多信息,并更多地受到信息的影响。此外,假新闻通常被概念化为经过事实核实为真或假的URL列表,但这种类型的假新闻只代表一小部分虚假信息;人们可能更容易遇到误导性或操纵性的内容,而不是明显的虚假内容。最后,针对特定目标的努力(micro-targeting efforts)会大大提高虚假信息制造者识别和锁定最易被说服的个人亚群体的能力[83]。简而言之,需要进行更多的研究,才能对人群水平接触虚假信息导致感染(即说服)的可能性得出准确而有效的结论。




三、免疫




一个迅速出现的研究方向是评估在认知水平上使公众免受虚假信息影响的可能性。我将根据它们的应用主要是预防(接触前)还是治疗(暴露后) 来对这些研究进行分类。


3.1 治疗方法:事实核查和揭露真相


传统的、标准的应对虚假信息的方法通常包括在人们已经被一条虚假信息说服之后纠正谎言。例如,揭露有关自闭症干预措施的虚假信息,已被证明能有效减少对没有证据支撑的治疗方法(比如节食)的支持[84]。接触法院强制的烟草行业关于吸烟与疾病之间联系的纠正性广告[85],可以增加知识,并减少对吸烟的误解。在一个随机对照试验中,一段视频有效地揭穿了关于疫苗接种的几个误区,减少了一些有影响力的误解,比如疫苗会导致自闭症或者会降低自然免疫系统强度这类错误观念。元分析一致发现,事实核查和揭露真相的干预措施是有效的,包括打击社交媒体上危害健康的虚假信息这类问题。

然而,并非所有的医学误解都能同样得到纠正。事实上,这些分析同样指出,干预的有效性会随着以下因素显著衰减:(1)辩驳质量,(2)时间推移,和(3)先前的信仰和意识形态。例如,上述关于自闭症和吸烟矫正广告的研究分别在随访1周和6周后显示无效。在设计更正时,简单地将信息标记为虚假或不正确通常是不够的,因为通过简单的撤回来更正虚假信息,并不能让人们理解,信息为什么是虚假的以及事实是什么。因此,对从业者的建议往往是编写更详细的揭露真相的材料。对文献的回顾表明[91,92],设计拆穿虚假信息的最佳实践包括:
1. 首先说明真相;
2. 诉诸科学共识和权威专家资源;
3. 确保更正易于获得,不比最初的虚假信息更复杂;
4. 清楚解释虚假信息为何是虚假的;
5. 提供连贯的替代因果解释(图1)


虽然普遍缺乏比较研究,但最近的一些研究表明,根据这些准则优化揭穿信息的方式,与其他或一切照旧的揭穿方式相比会改善效果[84]。

       

图1. 有效揭穿虚假信息的最佳实践建议。一个有效的揭穿真相的信息应该以事实为开端,并以一种简单而难忘的方式呈现出来。然后应该对听众发布对虚假信息的警告(不要重复这个虚假信息)。随后识别和揭露用来误导人们的操纵技巧。最后重复事实,强调正确的解释。


3.2 揭露真相:局限与未来研究


尽管取得了这些进步,人们还是对这种事后的“治疗性”纠正的应用表示了极大的担忧,尤其是纠正可能产生“逆火效应”风险,人们最终因为纠正而更多地相信虚假信息。这种适得其反的效应可以通过两个潜在维度发生[92,93],其中一个涉及对纠正本身的心理反应(“世界观”的逆火效应,backfire effect) ,而另一个涉及虚假信息的重复(“熟悉”引起的逆火效应)。虽然早期的研究支持这样的事实,例如,纠正围绕流感和 MMR 疫苗的虚假信息可能会导致已经关注这些事情的个人对接种疫苗的决定变得更加犹豫,但是最近的研究没有找到证据证明这种世界观的逆火效应。事实上,虽然逆火效应的证据仍然被广泛引用,但最近的重复试验在纠正关于疫苗的虚假信息时,却未能复现这种效应。因此,尽管这种效应可能存在,但其频率和强度并不像先前想象的那么普遍。

也可以设计一种与受众的世界观相一致而不是冲突的方式来拆穿虚假信息,从而尽量减少世界观层面的逆火效应。尽管如此,由于揭穿谎言意味着对受众强加了一种修辞框架,在这种框架中,为了纠正虚假信息,需要重复这些虚假信息(即反驳别人的说法) ,因此存在一种风险是,这种重复会增强人们对虚假信息的熟悉程度,而人们随后却无法在长期记忆中编码纠正虚假信息。尽管研究清楚地表明,人们更可能相信重复的(虚假)信息,而不是不重复的(虚假)信息,但最近的研究发现,在揭穿一项谎言时,讽刺性地强化一个虚假信息的风险相对较小,尤其是当揭穿谎言的信息相对于虚假的信息被凸显出来时。因此,当前的共识是,尽管从业者应该意识到纠正可能有逆火效应风险,但考虑到这些副作用比较罕见,他们不应该阻止发布更正信息。

说到这里,还有另外两个值得注意的问题限制了治疗方法的有效性。首先,回顾性的更正不会像初始的虚假信息那样能让同样多的人知道。例如,据估计,只有大约40% 的吸烟者收到了烟草行业法院命令的更正信息[98]。另一个相关的担忧是,即使人们获知更正信息后,仍然会继续根据谎言做出推论[92]。这种现象被称为“虚假信息的持续影响”,元分析已经发现了在广泛的情境中持续影响效应的有力证据[88,89]。


3.3 预防性措施:虚假信息的心理预防理论


因此,研究人员最近开始探索对付虚假信息的预防性或先发制人的办法,即在个人接触到或达到“传染性”状态之前行动。虽然“预防”(prebunking)是一个更为笼统的术语,用于指那些事先提醒人们“在发布事件之前要三思而后行”的干预措施[51],但这种自我提醒并不能使人们具备识别和抵制虚假信息的任何新技能。最常见的防止有害劝说的框架是心理预防(psychological inoculation)理论(图2)[100,101]。


心理预防理论遵循医学的类比,并假定,正如疫苗触发抗体产生来帮助获得免疫力以对抗未来感染,在信息层面同样可以实现这一点。通过先发制人地发出警告,让人们接触到严重减弱的虚假信息(再加上有力的反驳) ,人们可以培养对未来虚假信息的认知抵抗力。心理预防理论通过两种机制发挥作用,即(1)动机威胁(一种保护自己免受操纵攻击的愿望)和(2)反驳先发制人(预先接触弱化的攻击实例)。例如,研究发现,在接触阴谋论之前(而不是之后)为人们接种疫苗以防止关于疫苗的阴谋论争论,有效地提高了疫苗接种的意愿。最近的综述[102,104]和元分析[105]指出,心理预防是一种强有力的战略,可以获得对虚假信息的免疫力,在健康领域有许多应用,例如帮助人们对乳腺癌筛查中使用乳房X光检查的虚假信息形成免疫。

       图2. 心理预防包括两个核心组成部分:(1)预先警告人们可能被误导(激活心理上的“免疫系统”) ;(2)预先揭露虚假信息(策略) ,将人们暴露在严重弱化的虚假信息中,再加上强有力的反击和驳斥(产生认知“抗体”)。一旦人们获得了免疫力,就可以通过线下和线上互动,间接地将“疫苗”传播给其他人。


特别是最近的一些进展值得注意。首先,心理预防领域已从“窄谱”或”基于事实”的预防转向“广谱”或“基于技术”的免疫[102,108]。这种转变背后的理由是,虽然可以从现有的虚假信息中综合出一种严重减弱化的虚假信息(并随后强有力地反驳这种减弱后的信息) ,但是如果对每一条虚假信息都必须重复这一过程,就很难扩大心理预防的规模。相反,学者们已经开始更普遍地识别虚假信息的常见构成部分,包括假冒专家和医生,利用恐惧操纵人们的情绪,以及使用阴谋论等技巧。研究发现,人们可以通过心理预防来抵抗这些潜在的套路,因此,对于利用这些策略的一系列虚假信息,人们的免疫力都会相对增强。这个过程有时被称为交叉保护,为人们接种一种菌株可以预防采用相同虚假信息策略的相关或不同菌株。


第二个进展是关于主动预防与被动预防的应用。传统的预防过程是被动的,因为人们会事先从实验者那里得到特定的反驳信息,而主动预防过程鼓励人们产生自己的“抗体”。也许最著名的主动预防的例子是流行的游戏化预防干预措施,例如在游戏Bad News和GoViral!中[110],玩家扮演一个虚假信息制造者的角色,在一个模拟的社交媒体环境中,受到用于传播虚假信息的常见策略的影响。作为这个过程的一部分,玩家积极地生成自己的媒体内容,并揭示操纵技术。研究发现,当人们(1)认识到自己容易被说服,(2)察觉到操纵他们观点的不正当意图时,就会产生对欺骗的抵制。因此,这些游戏通过预先接触弱剂量的虚假信息,旨在揭示人们认知的脆弱性,激发个人的自发性,以保护自己免受虚假信息影响。随机对照试验发现,主动预防游戏可以帮助人们识别虚假信息[38,110,113,114],增强人们对真相的信心、洞察力[110,113],并减少自我报告的虚假信息分享。然而,像许多生物疫苗一样,研究发现心理免疫力也会随着时间的推移而减弱,但可以通过定期的“加强针”注射让免疫力维持几个月。这项研究的一个好处是,作为世界卫生组织的“制止虚假信息传播”(Stop The Spread)运动和联合国与英国政府合作的“核实”(Verified)倡议的一部分,这些游戏化的干预措施已经在数百万人中进行了评估和推广。


3.4 预防性措施:局限与未来研究


一个潜在的局限性是,尽管虚假信息在整个历史中反复出现(考虑到牛痘疫苗会把人变成人牛杂交的虚假信息和新冠疫苗改变人类 DNA 的阴谋论的相似之处) ,心理预防确实需要至少对人们在未来可能接触到的虚假信息有一些提前的知识。此外,由于医疗工作者正在接受对抗虚假信息的培训,因此在通过心理预防来对抗疫苗怀疑时,避免术语上的混淆是很重要的。例如,这种方法可以在没有明确和疫苗接种做类比的情况下实施,专注于“预防”的价值,并帮助人们揭穿操纵技术。


其他几个重要的开放性问题仍然存在。例如,类似于最近实验医学在应用治疗性疫苗方面的进展:治疗性疫苗在感染后仍然可以增强免疫反应——研究发现,即使人们已经接触到虚假信息,心理预防仍然可以保护他们免受虚假信息的伤害[108,112,118]。这在概念上是有意义的,因为这表明,可能需要长时间反复接触虚假信息,才会被虚假信息完全说服,或者使之与先前的态度融为一体。然而,从治疗性接种过渡到传统的揭穿真相之间仍然没有明确的概念边界。


此外,虽然积极预防与被动预防的比较接近[105,110],但积极预防形式的证据基础仍然相对较少。同样,虽然将预防与揭穿真相比较的研究表明,预防确实比事后治疗更好,但还需要进行更多的比较研究。研究还发现,人们有可能在人际间或社交媒体上发布关于心理预防的信息,这一过程被称为“预防后交谈”(post-inoculation talk)[104],它暗示了在线社区存在群体免疫的可能性[110],但目前还没有社交网络模拟可以评估心理预防的潜力。目前的研究也是基于自我报告的虚假信息分享。未来的研究需要评估心理预防在多大程度上可以在人群中传播,以及在多大程度上影响社交媒体上的客观新闻分享行为。




总结




虚假信息的传播破坏了公共卫生工作的努力,从疫苗接种到公众对健康防护行为的遵守。研究发现,虽然人们有时会因为在社交媒体上的疏忽、没有充分注意信息的准确性而被误导性信息所欺骗,但许多公共卫生问题的政治化性质表明,人们也会因为这样做强化重要的社会政治信仰和身份结构,从而相信和分享虚假信息。我们需要一个更加综合的框架,对不同背景敏感,并且能够根据人们在判断新闻媒体的真实性时如何优先考虑准确性和社会动机来解释对虚假信息的不同易感性。虽然“暴露(接触)”并不等于“感染”,但虚假信息可以在网络上迅速传播,而且其传播性往往得益于政治回音室的存在。然而重要的是,社交媒体上的大量虚假信息往往来自有影响力的账户和超级传播者。治疗方法和预防方法都证明,在对抗虚假信息方面取得了一些成功,但是鉴于在接触虚假信息后的持续影响,预防方法有很大的价值,需要更多的研究确定如何最好地结合揭露和预防两种方式。我们也应鼓励开展进一步研究,来概述应用流行病学模型来理解虚假信息传播背后的心理学原理和潜在挑战。该领域今后的一个主要挑战将是明确界定如何衡量和概念化虚假信息,以及需要标准化的心理测量工具以更好地比较各项研究的结果。


参考文献


  1. Zarocostas, J. How to fight an infodemic. Lancet 395, 676 (2020).

  2. Allcott, H. & Gentzkow, M. Social media and fake news in the 2016 election. J. Econ. Perspect. 31, 211–236 (2020).

  3. Grinberg, N. et al. Fake news on Twitter during the 2016 US presidential election. Science 363, 374–378 (2019).

  4. Roozenbeek, J. et al. Susceptibility to misinformation about COVID-19 around the world. R. Soc. Open Sci. 7, 201199 (2020).

  5. Romer, D. & Jamieson, K. H. Conspiracy theories as barriers to controlling the spread of COVID-19 in the US. Soc. Sci. Med. 263, 113356 (2020).

  6. Imhoff, R. & Lamberty, P. A bioweapon or a hoax? The link between  distinct conspiracy beliefs about the coronavirus disease (COVID-19)  outbreak and pandemic behavior. Soc. Psychol. Personal. Sci. 11, 1110–1118 (2020).

  7. Freeman, D. et al. Coronavirus conspiracy beliefs, mistrust, and compliance with government guidelines in England. Psychol. Med. https://doi.org/10.1017/S0033291720001890 (2020).

  8. Loomba, S. et al. Measuring the impact of COVID-19 vaccine misinformation on vaccination intent in the UK and USA. Nat. Hum. Behav. 5, 337–348 (2021).

  9. Johnson, N. et al. The online competition between pro-and anti-vaccination views. Nature 58, 230–233 (2020).

  10. Aghababaeian, H. et al. Alcohol intake in an attempt to fight COVID-19: a medical myth in Iran. Alcohol 88, 29–32 (2020).

  11. Jolley, D. & Paterson, J. L. Pylons ablaze: examining the role of 5G COVID‐19 conspiracy beliefs and support for violence. Br. J. Soc. Psychol. 59, 628–640 (2020).

  12. Dubé, E. et al. Vaccine hesitancy, vaccine refusal and the anti-vaccine movement: influence, impact and implications. Expert Rev. Vaccines 14, 99–117 (2015).

  13. Armstrong, G. M. et al. A longitudinal evaluation of the Listerine corrective advertising campaign. J. Public Policy Mark. 2, 16–28 (1983).

  14. Albarracin, D. et al. Misleading claims about tobacco products in  YouTube videos: experimental effects of misinformation on unhealthy  attitudes. J. Medical Internet Res. 20, e9959 (2018).

  15. Krishna, A. & Thompson, T. L. Misinformation about health: a review of health communication and misinformation scholarship. Am. Behav. Sci. 65, 316–332 (2021).

  16. Kucharski, A. Study epidemiology of fake news. Nature 540, 525–525 (2016).

  17. Cinelli, M. et al. The COVID-19 social media infodemic. Sci. Rep. 10, 1–10 (2020).

  18. Scales, D. et al. The COVID-19 infodemic—applying the epidemiologic model to counter misinformation. N. Engl. J. Med 385, 678–681 (2021).

  19. Vraga, E. K. & Bode, L. Defining misinformation and understanding  its bounded nature: using expertise and evidence for describing  misinformation. Polit. Commun. 37, 136–144 (2020).

  20. Southwell et al. Misinformation as a misunderstood challenge to public health. Am. J. Prev. Med. 57, 282–285 (2019).

  21. Wardle, C. & Derakhshan, H. Information Disorder: toward an Interdisciplinary Framework for Research and Policymaking. Council of Europe report DGI (2017)09 (Council of Europe, 2017).

  22. van der Linden, S. et al. You are fake news: political bias in perceptions of fake news. Media Cult. Soc. 42, 460–470 (2020).

  23. Tandoc, E. C. Jr et al. Defining ‘fake news’ a typology of scholarly definitions. Digit. J. 6, 137–153 (2018).

  24. Allen, J. et al. Evaluating the fake news problem at the scale of the information ecosystem. Sci. Adv. 6, eaay3539 (2020).

  25. Marsh, E. J. & Yang, B. W. in Misinformation and Mass Audiences (eds Southwell, B. G., Thorson, E. A., & Sheble, L) 15–34 (University of Texas Press, 2018).

  26. Dechêne, A. et al. The truth about the truth: a meta-analytic review of the truth effect. Pers. Soc. Psychol. Rev. 14, 238–257 (2010).

  27. Lewis, T. Eight persistent COVID-19 myths and why people believe them. Scientific American. https://www.scientificamerican.com/article/eight-persistent-covid-19-myths-and-why-people-believe-them/ (2020).

  28. Wang, W. C. et al. On known unknowns: fluency and the neural mechanisms of illusory truth. J. Cogn. Neurosci. 28, 739–746 (2016).

  29. Pennycook, G. et al. Prior exposure increases perceived accuracy of fake news. J. Exp. Psychol. Gen. 147, 1865–1880 (2018).

  30. Fazio, L. K. et al. Repetition increases perceived truth equally for plausible and implausible statements. Psychon. Bull. Rev. 26, 1705–1710 (2019).

  31. Fazio, L. K. et al. Knowledge does not protect against illusory truth. J. Exp. Psychol. Gen. 144, 993–1002 (2015).

  32. De Keersmaecker, J. et al. Investigating the robustness of the illusory  truth effect across individual differences in cognitive ability, need  for cognitive closure, and cognitive style. Pers. Soc. Psychol. Bull. 46, 204–215 (2020).

  33. Guess, A. et al. Less than you think: prevalence and predictors of fake news dissemination on Facebook. Sci. Adv. 5, eaau4586 (2019).

  34. Saunders, J. & Jess, A. The effects of age on remembering and knowing misinformation. Memory 18, 1–11 (2010).

  35. Brashier, N. M. & Schacter, D. L. Aging in an era of fake news. Curr. Dir. Psychol. Sci. 29, 316–323 (2020).

  36. Pennycook, G. & Rand, D. G. Lazy, not biased: susceptibility to  partisan fake news is better explained by lack of reasoning than by  motivated reasoning. Cognition 188, 39–50 (2019).

  37. Imhoff, R. et al. Conspiracy mentality and political orientation across 26 countries. Nat. Hum. Behav. https://doi.org/10.1038/s41562-021-01258-7 (2022).

  38. Roozenbeek, J. & van der Linden, S. Fake news game confers psychological resistance against online misinformation. Humanit. Soc. Sci. Commun. 5, 1–10 (2019).

  39. Van der Linden, S. et al. The paranoid style in American politics  revisited: an ideological asymmetry in conspiratorial thinking. Polit. Psychol. 42, 23–51 (2021).

  40. De keersmaecker, J. & Roets, A. ‘Fake news’: incorrect, but hard to  correct. The role of cognitive ability on the impact of false  information on social impressions. Intelligence 65, 107–110 (2017).

  41. Bronstein, M. V. et al. Belief in fake news is associated with  delusionality, dogmatism, religious fundamentalism, and reduced analytic  thinking. J. Appl. Res. Mem. 8, 108–117 (2019).

  42. Greene, C. M. et al. Misremembering Brexit: partisan bias and individual  predictors of false memories for fake news stories among Brexit voters.  Memory 29, 587–604 (2021).

  43. Gawronski, B. Partisan bias in the identification of fake news. Trends Cogn. Sci. 25, 723–724 (2021).

  44. Rathje, S et al. Meta-analysis reveals that accuracy nudges have little  to no effect for US conservatives: Regarding Pennycook et al. (2020). Psychol. Sci. https://doi.org/10.25384/SAGE.12594110.v2 (2021).

  45. Pennycook, G. & Rand, D. G. The psychology of fake news. Trends Cogn. Sci. 22, 388–402 (2021).

  46. van der Linden, S. et al. How can psychological science help counter the spread of fake news? Span. J. Psychol. 24, e25 (2021).

  47. Evans, J. S. B. In two minds: dual-process accounts of reasoning. Trends Cogn. Sci. 7, 454–459 (2003).

  48. Bago, B. et al. Fake news, fast and slow: deliberation reduces belief in false (but not true) news headlines. J. Exp. Psychol. Gen. 149, 1608–1613 (2020).

  49. Scherer, L. D. et al. Who is susceptible to online health misinformation? A test of four psychosocial hypotheses. Health Psychol. 40, 274–284 (2021).

  50. Pennycook, G. et al. Fighting COVID-19 misinformation on social media:  experimental evidence for a scalable accuracy-nudge intervention. Psychol. Sci. 31, 770–780 (2020).

  51. Pennycook, G. et al. Shifting attention to accuracy can reduce misinformation online. Nature 592, 590–595 (2021).

  52. Swami, V. et al. Analytic thinking reduces belief in conspiracy theories. Cognition 133, 572–585 (2014).

  53. Kunda, Z. The case for motivated reasoning. Psychol. Bull. 108, 480–498 (1990).

  54. Kahan, D. M. in Emerging Trends in the Social and Behavioral sciences (eds Scott, R. & Kosslyn, S.) 1–16 (John Wiley & Sons, 2016).

  55. Bolsen, T. et al. The influence of partisan motivated reasoning on public opinion. Polit. Behav. 36, 235–262 (2014).

  56. Osmundsen, M. et al. Partisan polarization is the primary psychological  motivation behind political fake news sharing on Twitter. Am. Polit. Sci. Rev. 115, 999–1015 (2021).

  57. Van Bavel, J. J. et al. Political psychology in the digital (mis) information age: a model of news belief and sharing. Soc. Issues Policy Rev. 15, 84–113 (2020).

  58. Rathje, S. et al. Out-group animosity drives engagement on social media. Proc. Natl Acad. Sci. USA 118, e2024292118 (2021).

  59. Kahan, D. M. et al. Motivated numeracy and enlightened self-government. Behav. Public Policy 1, 54–86 (2017).

  60. Kahan, D. M. et al. The polarizing impact of science literacy and numeracy on perceived climate change risks. Nat. Clim. Chang. 2, 732–735 (2012).

  61. Drummond, C. & Fischhoff, B. Individuals with greater science  literacy and education have more polarized beliefs on controversial  science topics. Proc. Natl Acad. Sci. USA 114, 9587–9592 (2017).

  62. Traberg, C. S. & van der Linden, S. Birds of a feather are persuaded  together: perceived source credibility mediates the effect of political  bias on misinformation susceptibility. Pers. Individ. Differ. 185, 111269 (2022).

  63. Roozenbeek, J. et al. How accurate are accuracy-nudge interventions? A  preregistered direct replication of Pennycook et al. (2020). Psychol. Sci. 32, 1169–1178 (2021).

  64. Persson, E. et al. A preregistered replication of motivated numeracy. Cognition 214, 104768 (2021).

  65. Connor, P. et al. Motivated numeracy and active reasoning in a Western European sample. Behav. Public Policy 1–23 (2020).

  66. van der Linden, S. et al. Scientific agreement can neutralize politicization of facts. Nat. Hum. Behav. 2, 2–3 (2018).

  67. Tappin, B. M. et al. Rethinking the link between cognitive sophistication and politically motivated reasoning. J. Exp. Psychol. Gen. 150, 1095–1114 (2021).

  68. Tappin, B. M. et al. Thinking clearly about causal inferences of  politically motivated reasoning: why paradigmatic study designs often  undermine causal inference. Curr. Opin. Behav. Sci. 34, 81–87 (2020).

  69. Druckman, J. N. & McGrath, M. C. The evidence for motivated reasoning in climate change preference formation. Nat. Clim. Chang. 9, 111–119 (2019).

  70. Juul, J. L. & Ugander, J. Comparing information diffusion mechanisms by matching on cascade size. Proc. Natl. Acad. Sci. USA 118, e210078611 (2021).

  71. Vosoughi, S. et al. The spread of true and false news online. Science 359, 1146–1151 (2018).

  72. Cinelli, M. et al. The echo chamber effect on social media. Proc. Natl Acad. Sci. USA 118, e2023301118 (2021).

  73. Guess, A. et al. Exposure to untrustworthy websites in the 2016 US election. Nat. Hum. Behav. 4, 472–480 (2020).

  74. Yang, K. C. et al. The COVID-19 infodemic: Twitter versus Facebook. Big Data Soc. 8, 20539517211013861 (2021).

  75. Del Vicario, M. et al. The spreading of misinformation online. Proc. Natl Acad. Sci. USA 113, 554–559 (2016).

  76. Zollo, F. et al. Debunking in a world of tribes. PloS ONE 12, e0181821 (2017).

  77. Guess, A. M. (Almost) everything in moderation: new evidence on Americans’ online media diets. Am. J. Pol. Sci. 65, 1007–1022 (2021).

  78. Törnberg, P. Echo chambers and viral misinformation: modeling fake news as complex contagion. PLoS ONE 13, e0203958 (2018).

  79. Choi, D. et al. Rumor propagation is amplified by echo chambers in social media. Sci. Rep. 10, 1–10 (2020).

  80. Eurobarometer on Fake News and Online Disinformation. European Commission https://ec.europa.eu/digital-single-market/en/news/final-results-eurobarometer-fake-news-and-online-disinformation (2018).

  81. Altay, S. et al. ‘If this account is true, it is most enormously  wonderful’: interestingness-if-true and the sharing of true and false  news. Digit. Journal. https://doi.org/10.1080/21670811.2021.1941163 (2021).

  82. Kalla, J. L. & Broockman, D. E. The minimal persuasive effects of  campaign contact in general elections: evidence from 49 field  experiments. Am. Political Sci. Rev. 112, 148–166 (2018).

  83. Matz, S. C. et al. Psychological targeting as an effective approach to digital mass persuasion. Proc. Natl Acad. Sci. USA 114, 12714–12719 (2017).

  84. Paynter, J. et al. Evaluation of a template for countering misinformation—real-world autism treatment myth debunking. PloS ONE 14, e0210746 (2019).

  85. Smith, P. et al. Correcting over 50 years of tobacco industry misinformation. Am. J. Prev. Med 40, 690–698 (2011).

  86. Yousuf, H. et al. A media intervention applying debunking versus  non-debunking content to combat vaccine misinformation in elderly in the  Netherlands: a digital randomised trial. EClinicalMedicine 35, 100881 (2021).

  87. Walter, N. & Murphy, S. T. How to unring the bell: a meta-analytic approach to correction of misinformation. Commun. Monogr. 85, 423–441 (2018).

  88. Chan, M. P. S. et al. Debunking: a meta-analysis of the psychological efficacy of messages countering misinformation. Psychol. Sci. 28, 1531–1546 (2017).

  89. Walter, N. et al. Evaluating the impact of attempts to correct health misinformation on social media: a meta-analysis. Health Commun. 36, 1776–1784 (2021).

  90. Aikin, K. J. et al. Correction of overstatement and omission in direct-to-consumer prescription drug advertising. J. Commun. 65, 596–618 (2015).

  91. Lewandowsky, S. et al. The Debunking Handbook 2020 https://www.climatechangecommunication.org/wp-content/uploads/2020/10/DebunkingHandbook2020.pdf (2020).

  92. Lewandowsky, S. et al. Misinformation and its correction: continued influence and successful debiasing. Psychol. Sci. Publ. Int 13, 106–131 (2012).

  93. Swire-Thompson, B. et al. Searching for the backfire effect: measurement and design considerations. J. Appl. Res. Mem. Cogn. 9, 286–299 (2020).

  94. Nyhan, B. et al. Effective messages in vaccine promotion: a randomized trial. Pediatrics 133, e835–e842 (2014).

  95. Nyhan, B. & Reifler, J. Does correcting myths about the flu vaccine  work? An experimental evaluation of the effects of corrective  information. Vaccine 33, 459–464 (2015).

  96. Wood, T. & Porter, E. The elusive backfire effect: mass attitudes’ steadfast factual adherence. Polit. Behav. 41, 135–163 (2019).

  97. Haglin, K. The limitations of the backfire effect. Res. Politics https://doi.org/10.1177/2053168017716547 (2017).

  98. Chido-Amajuoyi et al. Exposure to court-ordered tobacco industry antismoking advertisements among US adults. JAMA Netw. Open 2, e196935 (2019).

  99. Walter, N. & Tukachinsky, R. A meta-analytic examination of the  continued influence of misinformation in the face of correction: how  powerful is it, why does it happen, and how to stop it? Commun. Res 47, 155–177 (2020).

  100. Papageorgis, D. & McGuire, W. J. The generality of immunity to  persuasion produced by pre-exposure to weakened counterarguments. J. Abnorm. Psychol. 62, 475–481 (1961).

  101. Papageorgis, D. & McGuire, W. J. The generality of immunity to  persuasion produced by pre-exposure to weakened counterarguments. J. Abnorm. Psychol. 62, 475–481 (1961).\

  102. Lewandowsky, S. & van der Linden, S. Countering misinformation and fake news through inoculation and prebunking. Eur. Rev. Soc. Psychol. 32, 348–384 (2021).

  103. Jolley, D. & Douglas, K. M. Prevention is better than cure: addressing anti vaccine conspiracy theories. J. Appl. Soc. Psychol. 47, 459–469 (2017).

  104. Compton, J. et al. Inoculation theory in the post‐truth era: extant  findings and new frontiers for contested science, misinformation, and  conspiracy theories. Soc. Personal. Psychol. 15, e12602 (2021).

  105. Banas, J. A. & Rains, S. A. A meta-analysis of research on inoculation theory. Commun. Monogr. 77, 281–311 (2010).

  106. Compton, J. et al. Persuading others to avoid persuasion: Inoculation theory and resistant health attitudes. Front. Psychol. 7, 122 (2016).

  107. Iles, I. A. et al. Investigating the potential of inoculation messages  and self-affirmation in reducing the effects of health misinformation. Sci. Commun. 43, 768–804 (2021).

  108. Cook et al. Neutralizing misinformation through inoculation: Exposing  misleading argumentation techniques reduces their influence. PloS ONE 12, e0175799 (2017).

  109. van der Linden, S., & Roozenbeek, J. in The Psychology of Fake News: Accepting, Sharing, and Correcting Misinformation (eds Greifeneder, R., Jaffe, M., Newman, R., & Schwarz, N.) 147–169 (Psychology Press, 2020).

  110. Basol, M. et al. Towards psychological herd immunity: cross-cultural  evidence for two prebunking interventions against COVID-19  misinformation. Big Data Soc. 8, 20539517211013868 (2021).

  111. Sagarin, B. J. et al. Dispelling the illusion of invulnerability: the motivations and mechanisms of resistance to persuasion. J. Pers. Soc. Psychol. 83, 526–541 (2002).

  112. van der Linden, S. et al. Inoculating the public against misinformation about climate change. Glob. Chall. 1, 1600008 (2017).

  113. Basol, M. et al. Good news about bad news: gamified inoculation boosts confidence and cognitive immunity against fake news. J. Cogn. 3, 2 (2020).

  114. Basol, M. et al. Good news about bad news: gamified inoculation boosts confidence and cognitive immunity against fake news. J. Cogn. 3, 2 (2020).

  115. Roozenbeek, J., & van der Linden, S. Breaking Harmony Square: a game that ‘inoculates’ against political misinformation. The Harvard Kennedy School Misinformation Review https://doi.org/10.37016/mr-2020-47 (2020).

  116. What is Go Viral? World Health Organization https://www.who.int/news/item/23-09-2021-what-is-go-viral (WHO, 2021).

  117. Abbasi, J. COVID-19 conspiracies and beyond: how physicians can deal with patients’ misinformation. JAMA 325, 208–210 (2021).

  118. Compton, J. Prophylactic versus therapeutic inoculation treatments for resistance to influence. Commun. Theory 30, 330–343 (2020).

  119. Lazer, D. M. et al. The science of fake news. Science 359, 1094–1096 (2018).

  120. Pennycook, G. & Rand, D. G. Who falls for fake news? The roles of  bullshit receptivity, overclaiming, familiarity, and analytic thinking. J. Pers. 88, 185–200 (2020).

  121. Benton, J. Facebook sent a ton of traffic to a Chicago Tribune story. So why is everyone mad at them? NiemanLab https://www.niemanlab.org/2021/08/facebook-sent-a-ton-of-traffic-to-a-chicago-tribune-story-so-why-is-everyone-mad-at-them/ (2021).

  122. Poutoglidou, F. et al. Ibuprofen and COVID-19 disease: separating the myths from facts. Expert Rev. Respir. Med 15, 979–983 (2021).

  123. Maertens, R. et al. The Misinformation Susceptibility Test (MIST): a  psychometrically validated measure of news veracity discernment.  Preprint at PsyArXiv https://doi.org/10.31234/osf.io/gk68h (2021).


(参考文献可上下滑动查看)


【专家解读】把满足人民对美好生活的向往 作为数字政府建设的出发点和落脚点

【沙龙预告】理解“过滤泡”:数字时代的个体认知

【研院动态】从“感觉风”到“驾驭风”:科技助力冬奥夺冠

内容来源 / 极智俱乐部

今日编辑 / 辛昊航

责任编辑 / 戴晟昱

城市大脑研究院提供开放研讨平台,所有文章仅代表作者个人观点,欢迎共同探讨。原创文章,转载请注明来源:城市大脑研究院。部分图片来源于网络,如涉及版权问题,敬请及时联系我们。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存