查看原文
其他

Nature:删帖、屏蔽关键词能阻止网络极端言论吗?也许效果适得其反

郭瑞东 集智俱乐部 2019-09-21


导语

随着社交媒体的普及,极端言论的传播变得更加容易。今年8月发表在 Nature 的一篇研究表明,在极端言论传播的小世界网络中,关键词屏蔽等传统监管方式不仅效果不佳,更可能起到反作用。




极端言论自古有之,例如名著《飘》出现3K党,如今依然在美国南方不时露出獠牙。互联网和社交媒体的普及,使得极端言论的传播变得更加容易,任何人都可以在 Facebook 上开设公共账号,在短时间让极端言论触及数万人,这使得监管机构面临的问题变得更加棘手。


传统智慧告诉你要抓大放小,先管好主流的社交媒体,但 Nature 主刊今年8月底的一篇文章指出这样做会适得其反。


Nature 论文题目:Hidden resilience and adaptive dynamics of the global online hate ecology

论文地址:

https://www.nature.com/articles/s41586-019-1494-7


极端信息的传播网络是复杂的


这篇 Nature 文章的标题中的关键词是 Hidden resilience ,即隐藏的弹性。这是一个来自生态学的术语,讲述的是生态系统在遭到外界打击后,由于网络结构,得以快速回到之前的状态的能力。该文将社交网络中的极端言论当成是生态系统中的物种,首先指出了极端言论在不同平台之间的传播是一站式的——某种极端言论可以一次性地从一个地区传播到另一个地区。

下图中的 VKontakte(以下简称VK)是俄语世界的主流社交媒体,图中红色的是 VK 平台之间传播的仇恨言论,蓝色的是在脸书平台之间传递的仇恨言论,绿色代表是是跨平台的传播。

图1:极端信息在不同平台间的复杂传递网络,
下图展示了对欧洲部分的进行了缩放


从上面的例子中可以形象地看到,极端言论的传播网络是去中心化的,也就是一个小世界网络,没办法找到一个核心节点,从而一劳永逸地解决问题。该研究中,作者关注的是泛指的极端言论,而不是某一个特定的主题,例如 ISIS 、新纳粹等。文中指出,这些言论的共同点是充满了偏激和仇恨,尽管仇恨的对象不同(可以是外来移民、同性恋者等)。

根据自动化的图像识别(例如识别血腥暴力的照片)以及文字主题分类,再加上手动的筛选,作者给出了一个包含768个节点(传播极端言论的账号),578条边的网络。


极端信息传播网络

存在无标度特性


在更细的尺度上来看,下图展示的是六十多个和3K党有关的极端言论,右图中的每个黑点代表一个社交媒体的用户,每个白点代表细分后的一个包含和3K党有关的主题。每个主题会形成一个聚簇,其关注人数在数十人到数万人之间。用户之间也会形成一个聚簇,用户聚簇的人数从一个到数百个不等。左图的宏观视角,不同聚簇的大小代表了关注的用户数,其距离越远,两个主题间共同关注的用户越少。

图2:六十多个和3K党有关的极端言论形成的聚簇


图3:该聚簇的大小归一化后,
计算不同大小的极端言论主题簇对应的用户数的分布,
可以看出明显的指数分布。

网络具有无标度特性,这意味着这样的网络更有可能具有嵌套性,而嵌套性的网络在遭到外部打击时能迅速复原。

相关阅读:
生态系统、公司网络与国际贸易——不同系统中的嵌套模式
网络中的嵌套结构决定公司与国家的命运

在不同平台之间,当一个平台对某一个主题的极端信息进行取缔后,该主题对应的用户可以迁移到其他的主题上,往往还会使用其他的文字或“梗”,对极端信息进行“加密”,这使得新信息更难以被针对英语的自动监控算法检测。如果只是根据常识,没有注意到极端言论的传播网络的特征,简单的信息屏蔽只会使得极端言论如野草一样杀不尽,这也是标题中 Hidden resilience 所要概述的发现。


通过数学模型说明

不同平台监管力度不同造成的反作用


数学模型能够量化地说明在何种情况下,会发生怎样预期的结果,以及应该采取怎样的应对策略最优。本文提出的模型,假设传播极端言论的不同用户在社交平台之间会选择最短路径,在不同平台、不同主题的极端言论间进行迁移,但这样的迁移是有成本的。限于篇幅,不对模型进行详解,只简单说说模型得出的结论。

假设有两个社交媒体,A 对极端言论有较好的监管,B 则缺少监管。下图的纵轴是 B 平台上不同主题的极端言论之间的最短距离(最少需要多少用户才能相连)的均值,横轴是不同主题聚簇之间的总连接(用户和极端主题之间的边)。

通过该图,模型指出,如果只在 A 平台对极端言论进行监管,当 B 平台的用户和极端言论的连接数大于某一阀值时,会导致从整体上来看,不同主题的极端言论联系距离更远,从而使得进一步的打击变得更加困难(更加去中心化)。
图4:只针对某一平台的极端言论进行封杀
带来全网极端言论的进一步分散

四种不同的

针对极端言论的应对方法


该文的另一大贡献是按照两个维度,区分出了四种应对极端言论的策略,以及在数学模型模拟的情况下,这四个策略各自的效果。限于篇幅,这里只对这四类策略进行概述,论文的补充材料中对此有详细分析。
图5:不同维度下的四种应对极端言论的策略

横轴表示干预的粒度,纵轴表示干预的方式(自上而下或自下而上)。

  • 左上角的方法是删贴——找到特定主题的帖子,全部禁掉;该方法的干预尺度较粗,这样做带来的反作用是会让极端分子迁移到另一平台,并没有治本。

  • 右上角的方法是删号;这是更细致的干预,但大多数人都拥有多个社交平台的账号,因此这种方法也只是一时之计。

  • 右下角的策略是培养一批能够发出中和极端言论的用户,如图中的绿色圈子中的用户,让其作为社交网络上的“免疫系统”,从而稀释不同的极端言论主题之间的联系。

  • 左下角的策略,则是将相互矛盾的极端言论同时曝光给同一个用户,让二者相互牵制,从而削减极端言论的影响力。


该文指出,四种策略需要有所权衡,才能达到对极端言论的最佳管控效果。


总结

如何应对极端言论带来的挑战


由于人群极化与国家对立,互联网上各类极端的言论也日渐增多,极端言论的管控成为了一个世界性的问题。国外的 3K党、新纳粹、ISIS 等毒瘤思想,甚至发展成了严重影响社会安全的危险因素。


在传统的纸媒时代,若想打掉一家宣传极端言论的报纸,仅需几个核心成员就能做到,并对某类极端思想予以毁灭性的打击。但在社交媒体上,传统智慧不再管用,反而会产生更大的副作用。至于极端思想的形成,其影响因素也由社交网络的邻里实体关系,转换到了虚拟空间上。这使得算法的影响变得显著,也使之前不可行的由下而上的方法(例如前文提到的后两种策略)变得可行。但由于极端言论的多样性和复杂性,人们对其的管控仍需多种方法协作。

除了应用在极端言论的管控上,文本的结论是否对儿童色情的传播、非法人口交易、传销组织的人员招募等其他“暗网”也适用呢?这一点作者并没有给出明确的回答,但这是一个值得研究的问题。个人的猜测是,对于一切非法的信息传递网,狡兔三窟的个体使针对某一平台的打击很难达到预期的效果。

正是由于这篇文章得出的结论具有“反常识”的特征,因此有潜力应用到更广泛的领域,且对现实的重大政策制定有具体的指导意义。

作者:郭瑞东审校:刘培源
编辑:李倩雨


推荐阅读


怎样不在朋友圈浪费时间?数学模型给你答案
相变、爆发、生命起源有何共同之处
科学玩“梗”:模因如何在社交网络中传播?
网络科学“支配”下的网游玩家行为模式
加入集智,一起复杂!






集智俱乐部QQ群|877391004商务合作及投稿转载|swarma@swarma.org

◆ ◆ ◆

搜索公众号:集智俱乐部


加入“没有围墙的研究所”

让苹果砸得更猛烈些吧!

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存