查看原文
其他

【数智文明·研究精粹】伦道夫·H·弗森等:打击数字虚假信息祸害的策略

The following article is from 再建巴别塔 Author 伦道夫·H·弗森等



党派政治行为者和社会操纵者越来越多地使用社交媒体平台来重塑大众对党派政治或社会目的的看法。这一过程使民主进程更加脆弱,并抑制了建设性的社会对话。这些对自由制度、选举过程和社会规范的攻击来自多种来源,从马其顿的青少年企业家到俄罗斯强有力的积极措施计划。随着社交媒体的发展,克里姆林宫已被证明特别擅长提供误导性信息,这些信息证实了消费者的偏见,并进一步强化了思维定势以使犯罪者受益。

随着越来越多的人将他们的媒体消费转移到在线内容和社交媒体上,他们被迫应对来自广泛来源的可疑信息,导致对所谓事实的争论越来越多。这导致我们的社会变得更加两极分化,因此,我们的政治和社会话语受到影响。

本文的目的是展示如何使用情报界 (IC) 开发的诊断技术来确定最有希望的方法来对抗数字虚假信息的祸害并抵消对民主制度造成的损害。需要更强有力的对话来确定哪些工具是必要的——以及哪些策略可能被证明是最有效的——以防止普通公民和权威人士被虚假报道所欺骗。

本文确定了最有可能塑造数字环境的两个关键驱动因素。它将它们排列在一个 2 × 2 矩阵中,以生成四种不同的策略来对抗数字虚假信息:

  1. 使用第三方事实核查员发布可疑帖子的警告。

  2. 创建第二个、替代的和基于事实的互联网。

  3. 建立严格的全球筛查协议。

  4. 在云中形成经过验证的信息的“安全空间”。

本文评估了每种方法的优势和劣势,重点关注该战略最大限度地减少对社会规范和民主制度造成的损害的能力。然后,它提出了一些方法,可以为验证可靠信息和实现更加基于事实的对话和辩论开辟一条可行的前进道路。找到并实施数字虚假信息的成功解毒剂将使那些不希望生活在回音室中的人能够更好地从虚构中辨别真相,解决问题,并根据经过审查的信息创新解决方案。

为数字虚假信息打造成功的、以情报为依据的解毒剂的努力必须是多方面的。实施一些最有希望的解决方案将需要政府高级官员与企业高管一起采取协调一致的协作行动。这些举措必须与提高媒体素养和社会复原力的关注相结合。

日益严重的数字信息灾难

到 2021 年,全球每月活跃的社交媒体用户数量预计将超过 30 亿,几乎占地球总人口的 40%。大约 2.5 亿人将居住在美国。1根据普林斯顿大学、达特茅斯学院和埃克塞特大学的教授在 2018 年进行的一项研究,2016 年,四分之一的美国人正在访问包含数字虚假信息的网站。2这个数字几乎肯定在增长。

虚假信息变得如此普遍,以至于主要的新闻媒体和政界人士在某些情况下都喜欢并模仿虚假信息。例如,2019 年,几位美国共和党参议员回应了克里姆林宫的谈话要点,即乌克兰——而不是俄罗斯——入侵了民主党全国委员会的服务器并干预了 2016 年的选举。美国情报局和几位白宫安全官员一再表示,这一说法完全没有根据。3
社交媒体平台已被证明是数字虚假信息的宿主,因为网络算法通过传播适合用户个人兴趣的生动内容来促进用户的微观定位。社交媒体公司已经在其社交媒体平台中接受了这些算法的嵌入式使用,这些算法已被证明偏向于耸人听闻的内容,因为它是有利可图的。不幸的是,这种对用户参与的商业偏好很容易被那些意图煽动和歪曲的人利用。4由于用户往往在认知上很懒惰,这种形式的微定位的效力得到了增强。他们通常无法采取措施来验证对填充其新闻源的信息的任何怀疑。这使他们容易相信支持他们先入为主的观点的错误信息。

俄罗斯在 2016 年美国大选中的努力

俄罗斯利用数字虚假信息影响 2016 年美国大选是这一现象最引人注目的例子。俄罗斯的策略预示着使用社交媒体作为感知管理工具的力量越来越大。

2018 年 12 月,参议院情报特别委员会发布了两项关于俄罗斯干预 2016 年总统竞选活动的研究报告,并在 2019 年 10 月发布了另一项报告。第一份报告称,俄罗斯的虚假宣传活动针对的是社会分裂,“以种族划分美国人、宗教和意识形态”,积极地“侵蚀对我们民主制度的信任”。5美国参议员马克·华纳(Mark Warner)是该小组的资深民主党人,他将“破坏和操纵我们的民主”的努力描述为“比之前披露的更全面、更精明、更广泛”。6

这些研究描述了俄罗斯在 Facebook、Twitter、Instagram 和 YouTube 上采用多管齐下的方法,通过使用“文本投票”诈骗等恶意误导来压制投票;候选人支持重定向,例如投票给第三方;并通过发短信“呆在家里,你的投票无关紧要”来降低投票率。7

  • 在 2016 年竞选期间,俄罗斯的社交媒体活动覆盖了 1.26 亿 Facebook 用户,1040 万条推特在 Twitter 上,2000 万条在 Instagram 上发帖,并在 YouTube 上上传了 1000 多个视频。8
  • 俄罗斯互联网研究机构 (IRA) 的 Instagram 帖子获得了 1.87 亿次参与,Facebook 帖子获得了超过 7600 万次参与。
  • 在 2016 年美国总统大选前的最后几天,垃圾新闻在战场州密歇根州的传播与专业新闻一样广泛。9

这项工作的基础是爱尔兰共和军使用微目标,其中涉及为特定用户群定制内容,以激起目标社区之间的愤怒和分裂。2019 年的参议院报告“发现,没有哪一个美国人群体比非裔美国人更容易成为 IRA 情报人员的目标。” 另一份报告分析了喷子分享的内容,发现保守的喷子将内容集中在“难民、恐怖主义和伊斯兰教;而自由派巨魔则更多地谈论学校枪击事件和警察。”

俄罗斯利用社交媒体播下不信任和破坏民主的做法仍在继续。CNN 的一项调查发现,2019 年底,俄罗斯在加纳阿克拉郊外一小时车程的一个居民区设立了一个巨魔工厂。至少有 16 名员工在该站点工作,该站点于 2020 年 2 月被警方突袭并关闭。运营商自称是为非洲解放消除障碍的非营利组织,在 Facebook、Twitter、和Instagram。该计划旨在激起美国的社会动荡,重点关注所谓的种族主义和警察暴行。美国有线电视新闻网进一步报道说,尼日利亚也建立了类似的拖钓行动,并且可能在整个非洲增加更多。10

全球现象

美国只是现在成为出于政治动机的垃圾新闻和假新闻账户的目标的众多国家之一。自由之家报告称,2017 年至少有 17 个国家使用了虚假信息策略,主要是为了在本国境内影响舆论,尤其是委内瑞拉、土耳其和菲律宾。例如,土耳其执政党召集了 6000 人来“操纵讨论、推动议程和对抗对手”。2017 年 11 月,英国《卫报》报道称,30 个国家的政府正在“利用舆论大军干预选举、推进反民主议程并压制其公民”。11

欧盟委员会对 2018 年意大利大选的案例研究显示,在竞选期间社交媒体上分享最多的 4,000 条新闻报道中,约有三分之一是假新闻或包含虚假信息。这些故事被用来在过饱和的信息环境中吸引用户的注意力,并加强群体参与度和忠诚度。另外 30% 的叙述存在问题,因为它们包含误导性、过于简单化、半真半假的内容,旨在操纵读者的看法和宣传党派信息。其余 37% 的叙述基于事实内容。12

早在 2014 年,世界经济论坛就将错误信息的迅速传播列为社会“十大”风险之一。13麻省理工学院的一项研究发现,虚假新闻故事被转发的可能性比真实故事高 70%。此外,真实故事传播到 1,500 人所需的时间大约是虚假故事传播到相同人数的六倍。14前中央情报局和国家安全局局长迈克尔·海登正确地警告说,专注于解决问题的能力必须基于“事实基础。如果基础本身——客观现实的存在或相关性——受到质疑,我们就无法解决问题。” 15

技术作为加速器

当垃圾新闻得到自动化和机器人使用的支持时,数字虚假信息的肇事者拥有一套更强大的工具,可以削弱民主和参与理性辩论的能力。计算宣传正在世界各地越来越多地使用,而且越来越有效。16例如:

  • 乌克兰提供了计算宣传力量的全球最先进的例子之一,可以追溯到 2014 年的 MH17 悲剧。
  • 波兰通过 Twitter 进行的政治对话的很大一部分是由少数右翼和民族主义账户制作的。
  • 计算宣传在 2014 年巴西总统选举和前总统迪尔玛·罗塞夫的弹劾中发挥了作用。
  • 现在,俄罗斯约 45% 的 Twitter 活动由高度自动化的账户管理。
  • 在 2016 年英国脱欧公投期间,人们发现政治机器人在塑造 Twitter 对话方面发挥了战略作用;不到 1% 的抽样账户产生了几乎三分之一的所有消息。17
  • 在英国退欧投票前的最后几天,超过 156,000 个俄罗斯运营的账户在推特上大量发布,鼓励英国人投票离开欧盟。18

一个日益令人担忧的是,商业领域的先进微目标正迅速变得更加有效。宣传者现在可以使用越来越先进的现成功能(包括 Deepfakes)来针对特定个人进行高度定制的消息传递活动。算法和捏造的图像可用于强化和强化先前存在的偏见,促使接受者采用群体观点。这种顺从的趋势助长了激进化并导致走向更极端的立场。

未来的趋势

有证据表明,数字虚假信息将继续对西方构成重大挑战。事实上,2017 年美国参议院听证会题为“虚假信息:俄罗斯积极措施和影响力运动入门”,其中包括一些专家证人的证词,他们提供了对俄罗斯影响力运作机制的见解,并警告说俄罗斯社交媒体操纵“没有停止自 11 月大选以来,并继续在美国民众中煽动混乱。” 近 300 名委员会成员与证人一起呼吁社交媒体公司采取更多行动,揭露在其平台上发生的俄罗斯积极措施活动。19

2020 年 2 月,《大西洋月刊》报道称,特朗普总统的政治竞选团队计划在社交媒体竞选活动上花费超过 10 亿美元,该竞选活动将针对潜在选民进行微观定位。其中一种策略是识别那些表现出某些心理特征的人,这些特征可以被推入更极端的信仰和阴谋思维中。根据大西洋,共和党全国委员会和特朗普竞选团队平均收集了美国每位选民的 3,000 个数据点,并花了数年时间尝试调整他们的信息的方法。一个志愿者可以通过一次单击“发送”一条消息,使用点对点短信每小时发送数百条消息。这些消息最常用于筹款,但可以针对压制投票和赢得未决选民。20

定义现象

数字虚假信息现象有许多绰号。公共领域最常使用的短语是“假新闻”,但现任美国总统使用这个词来描述批评其政府的新闻报道,掩盖了它在公共话语中的含义。混乱的术语阻碍了公共讨论。该领域的专家越来越认识到,需要一个商定的词典来澄清辩论并为制定有效的解决方案奠定基础。21

区分数字虚假信息的一种简单方法是关注肇事者的动机。22例如:

  • “创业新闻”或“欺诈新闻”通常是由个人为了个人或经济利益而误导读者的;目的是吸引观众观看广告,从而产生收入。
  • “议程驱动的新闻”或“虚假新闻”旨在误导读者,通常是出于党派政治或社会目的。目的是提供信息,确认读者的偏见并进一步强化思维定势。通常,产品或报告包含混合的文本和/或图像,其中包含正确和不正确的信息。

对误导性在线信息进行分类的更好方案是确定信息的真假,以及信息的传播者是否有意造成伤害。23

  • 无意的错误信息通常由具有诚实意图的人传播,因为它支持他们的世界观,并且他们不知道或真正关心报告是否实际上不正确。错误信息还可能包括数据的错误标签或讽刺被过于认真地对待。

  • 恶意信息是为了个人或公司利益而故意发布不符合公共利益的私人信息。一个很好的例子是复仇色情片。它可能包括故意歪曲时间和日期或改变上下文。

  • 虚假信息或欺骗是对手或竞争对手的故意行为,以影响接收者的决定或行动,以使欺骗者受益。它是虚构或故意操纵的内容,可以采用叙事和视觉形式。虚假信息的类型包括:

    •   ^ 计算宣传,定义为使用算法、自动化和人工管理有目的地在社交媒体网络上传播误导性信息。24
    •   ^ 意在改变人们对那个人、物体或事件的看法的图像处理或图片分发。这些图像可能只是不讨人喜欢(但真实的表现),或者是为了贬低主体或将主体与负面事物错误地联系起来而改变的。
    •   ^  Deepfakes,这是通过人工智能 (AI) 技术进行数字修改的视频。Laymen 现在可以将照片或视频剪辑插入预先编写的代码中,并生成极其逼真、栩栩如生的虚假图像或视频。Deepfake 天生就很难被发现,到目前为止,社会在很大程度上没有能力应对它们。
    •   ^ 积极措施是由民族国家(尤其是俄罗斯)进行的宣传、影响行动或认知管理活动。它们旨在操纵个人决策者、公众和政府的看法或行动,以影响选举和更广泛的世界事件进程。

出于本次讨论的目的,本文将使用术语数字虚假信息,其中包含大多数这些形式。数字虚假信息是在社交媒体平台上有目的地传播不正确或误导性信息,以有利于犯罪者的政治和社会议程的方式操纵和管理大众看法。25

使用结构化技术来解决问题

鉴于数字虚假信息所构成威胁的严重性,以及它可能对民主规范和制度构成持续(如果不是越来越大)威胁的确定性,明确的任务是制定强有力的方法来遏制和帮助减轻威胁。但是谁应该承担这项任务的责任,什么策略是最佳的?

通过像情报分析师一样思考,我们可以应用预测威胁弧线并评估所提出解决方案的可行性的技术。找到答案的一种方法是利用结构化分析技术,特别是利用前瞻性分析的力量来确定一组最有效地解决问题的策略。26远见过程主要包括四个步骤:

  1. 确定一组最能解决问题的关键驱动因素
  2. 使用驱动程序生成一组互斥但详尽的 (MECE) 策略
  3. 将策略转换为更强大的场景
  4. 制定行动计划以实施最有希望的情景

识别关键驱动因素

在情报分析中,关键驱动力被定义为“影响现在或未来行为、绩效或战略的基本力量和因素(例如,经济增长、民众支持、冲突与合作、全球化)”。27对数字虚假信息文献的审查揭示了几个潜在的候选驱动因素,这些驱动因素已被用于界定该问题,包括:

  • 该过程涉及筛选数据或验证数据,
  • 该过程基于数据或用户的包含或排除,
  • 变革的动力来自政府或私营部门,
  • 那些验证数字信息的人已经建立了跟踪记录和良好的机构声誉,或者缺乏跟踪记录或机构联系,
  • 验证信息的过程包括互联网上发布的所有内容或关注互联网上出现的内容的子集(例如,仅关注已发表的作品),以及
  • 该方法主要依赖于人工事实检查或人工智能技术。

一组关键驱动因素应侧重于推动变革的基本因素,而不是变革的症状。它们也应该是相互排斥的。考虑到这一标准,作者确定了处理数字虚假信息祸害的两个关键维度:(1)谁拥有策略,(2)解决方案是基于内容还是基于用户。具体来说,应对数字虚假信息构成的威胁的最佳策略是否应该:

  • 由政府强加还是由私营部门发起?或
  • 重点审查帖子的实质内容还是重点审查允许访问网络和发布内容的人?

生成替代策略

使用前瞻性分析技术,可以将维度排列在 2 × 2 矩阵中,以生成四个相互排斥的“未来故事”或应对灾祸的策略(见图 1)。为矩阵的每个象限生成的策略由每个维度的相应备选方案定义,确保创建四个互斥策略。

图 1.使用关键驱动因素制定打击数字虚假信息的策略。

显示全尺寸

在每个象限中建立了基于不同标准对的策略后,下一步是为每个象限设计更稳健的场景。在图 2中,创建了一个独特的策略,它满足定义每个象限的两个标准:

图 2.打击数字虚假信息的四种策略。

显示全尺寸

  • 匹诺曹警告
  • 替代网络
  • 刚性网关
  • Trust-Cloud 或 T-Cloud

匹诺曹警告。为应对公众日益增长的担忧,政府要求主要商业搜索引擎和社交媒体平台在用户进入网站或查看被认为真实性有问题的帖子时显示警告通知。在线服务提供商将依靠人工智能算法和大量事实核查人员来识别值得警告通知的数字虚假信息。数据可以分类,例如合法、有偏见、讽刺或有目的的欺骗。可能需要立法来定义什么构成数字欺骗以及做出此类决定的过程。理想情况下,立法将反映强有力的、协作的事实调查和辩论的结果,让政府和私营部门的专家参与进来。

替代网络。在公众日益关注的推动下,政府创建了第二个替代互联网,禁止用户发布数字虚假信息。用户必须经过预先认证才能访问网络,并且必须同意遵守一套用于交换信息和见解的通用标准。任何违反标准的用户将被终身禁止访问网络。由运输安全管理局 (TSA) 管理的全球入境计划和 TSA PreCheck 清关流程就是此类方法的示例。28标准将通过创建公私专家工作组合作制定。

刚性网关。面对来自公众和美国国会不断升级的压力,主要的在线服务提供商同意联合起来建立严格的筛选协议,以确保只有可接受的内容才会发布在他们的平台或网站上。经过长时间的谈判,他们就一套通用标准和实施实践达成共识。他们还成立了一个标准委员会,每年更新标准并听取内容被禁止的人的上诉。在线服务提供商共同开发用于监管其系统的 AI 筛选算法。他们还聘请了一批分析师和程序员来实施一种混合策略,以协作审查内容。

T-云。来自记者、学者和其他思想领袖联盟的压力越来越大,这促使领先的在线服务提供商在互联网上创建一个“安全空间”或云,其中仅包含来自可信来源的经过验证的信息。帖子必须经过预先认证,符合基于证据的分析和意见的国际标准。大学、智囊团、报纸和非政府组织申请获得认证,以允许他们在受信任的互联网云——T-Cloud 上发帖。在 T-Cloud 上发布的可能标准包括确定信息来自受信任或授权来源、符合学术标准(包括同行评审)或通过应用 AI 算法或人工评审过程被认为是可接受的。提交者将支付少量费用以获得发布个人论文、书籍、T-Cloud 中的视频和其他媒体。收入将有助于补贴认证那些将被允许发布和批准他们在 T-Cloud 上发布的内容的人的成本。

评估战略的可行性

所有这四种策略都可以由现有的机构和公司使用可用的技术来实施。哪种策略或策略组合最有可能成为打击数字虚假信息祸害的最佳策略,将受到另一组驱动因素的影响:

  • 技术的作用;

  • 财政、社会和政治激励的力度;

  • 经济、社会和政治因素造成的障碍。

技术将发挥重要作用

人工智能技术很可能在为数字虚假信息带来的挑战创造解决方案方面发挥重要作用。鉴于要处理的信息量很大,需要人工智能通过“简单的呼叫”来加快筛选过程。专家意见不一,但大多数人认为人工智能有可能成功地将一半以上的数据归类为符合国际标准或不符合标准。
例如,AdVerif.ai 可以使用心理语言线索识别欺诈性故事,准确率接近 90%,例如大量使用被认为具有煽动性的语言。该软件会扫描内容以查找正文内容不匹配和大写字母过多的标题。然后,它会根据每周更新的合法和虚假故事数据库检查每个故事。该技术的局限性之一是它无法评估陈述的含义,因为它没有链接到任何基本事实数据库。例如,当前的算法难以识别讽刺或讽刺。29他们也无法将客观上不正确但简单陈述的句子识别为错误,例如“纽约是乌干达的首都”。30
不幸的是,正如人工智能技术的进步进一步能够检测数字虚假信息一样,新技术也被用于创建越来越令人信服的虚假声音剪辑、视频和照片。篡改视频 Deepfakes 对社会无力应对的个人和民主机构构成重大风险。31监管将非常困难,因为 Deepfake 很难被发现。一种选择可能是减少对寻求技术检测解决方案的关注,而更多地关注建立不可更改的数字签名——产生一张在互联网上发布的图像的“监管链”。
虽然人工智能可能能够帮助对互联网上大量且不断增长的新闻和故事的准确性进行分类,但大多数技术开发人员认为,评估和验证来源的负担最终将继续落在人类身上。这引起了人们的担忧,即人工智能程序将反映与编程人员相同的偏见,从而使该技术与人类一样成为主观判断。
区块链技术还可以通过建立强大的数字身份系统、将虚拟图像与现实联系起来,从而建立对在线活动的问责制,来帮助阻止数字虚假信息的传播。数据一旦输入区块链数据库,就无法更改。这消除了重新验证或独立验证信息的需要,并允许用户信任所提供的内容,因为他们知道无法修改基础数据。32
区块链技术的创造性实施可以增强对网络弹性的信心。随着区块链技术变得更具侵入性,媒体大亨和威权政权将越来越难以控制所谓的“真相”。

采取行动的动机正在增长

随着公众及其民选代表更多地了解近年来数字虚假信息在多大程度上操纵了大众的看法,更好地保护个人和社会以对抗此类有针对性的虚假信息活动的压力将会越来越大。辩论将集中在谁应该受到指责:政府或在线服务提供商,如谷歌、Facebook、Instagram、Twitter 和 YouTube。最有可能的是,责任都将归咎于两者。然而,实施每项战略的动机可能会有很大差异。

可以管理障碍

鉴于对如何最好地保护言论自由的重大财务影响以及明确定义的分歧,反对任何关于我们如何以数字方式接收信息的改革或重组的提议都是不可避免的。社会是否有意愿和能力克服预期的障碍仍然是一个悬而未决的问题。

那些因不符合既定标准而被拒绝访问基于事实的“安全空间”或将其内容从社交媒体平台上删除的人可能会强烈反对任何这些策略。另一个潜在的争论点是做出决定的人是否没有偏见并受到适当的监督。然而,此类抗议的目标——以及潜在的诉讼——会有所不同,具体取决于所采用的策略。一场关于什么构成一套合理的标准的重大辩论可能会爆发,这会带来严重的财务、社会和政治后果。

每种方法的激励措施和障碍

匹诺曹警告

激励措施

公众要求可能会增加政府的压力,要求主要商业互联网服务提供商减少其平台上可访问的数字虚假信息的数量。当今市场上有几种浏览器扩展和筛选应用程序,表明公众有兴趣获得“附加”解决方案。
Facebook 承诺到 2018 年底雇佣大约 20,000 名“评论员”来查找和删除令人反感的内容。33到 2020 年,它正在使用第三方事实核查人员来审查病毒式政治帖子。它标记了它认为是由国家控制的媒体机构的页面和广告,并花钱资助保护政治运动免受网络攻击。2020 年 2 月,Facebook 宣布关闭了大约 12 个与伊朗有关的帐户,以及 80 个与俄罗斯有关的帐户,这些帐户试图通过错误信息操纵用户。34
在接下来的几年中,互联网服务提供商可能会决定与其他服务提供商建立合作伙伴关系以降低建立健全的事实核查程序的成本,这在经济上是有利的。可能必须作为独立第三方运作的事实核查人员必须客观,以确保他们做出有效的决定。还需要建立机制来监督事实核查人员,以确保其持续的客观性。在接下来的几年里,他们可能会被要求披露自己的身份,就像 PolitiFact (Politifact.com) 在警告信息中作为“脚注”指出文件内容有问题或虚假一样。

障碍

几乎肯定会出现事实核查偏见的说法。然而,允许用户忽略或选择退出警告通知可能会对侵犯言论自由的主张产生抑制作用。在线服务提供商可能更喜欢比政府可能提出的更自由的标准,这引发了一场关于在财务和社会方面进行何种程度的审查是合理的长期争论。一个主要的负担是让美国国会——以及其他国家的立法机构——关注这个问题,并通过总统或总理以及主要政党可以接受的法律。

替代网络

激励措施

如果公众认为数字虚假信息的爆炸式增长从根本上对社会有害,立法者可能会被诱使选择一个简单的解决方案:创建一个只包含可信信息的替代互联网。在这种情况下,将信任政府制定可接受内容的标准,以及不允许用户在网站上发布的内容。
发布虚假新闻的动机之一是期望通过点击广告或耸人听闻的故事获得金钱收益。不幸的是,在线新闻的兴起降低了印刷行业的收入——在线新闻增加 1 美元,印刷新闻损失 15 美元——这是一种有害的差距,因为印刷媒体需要编辑进行审查,而且与许多未经编辑的即时传播相比速度较慢互联网上的“新闻”。35通过创建一个没有广告营销的替代网络来消除金钱激励,将减少制造古怪虚假新闻和故意错误信息的动机。

障碍

如果 Alt-Net 作为交流思想、信息和见解的主要市场而受到重视,那么那些宁愿传播观点而不是基于证据的报道的所谓新闻媒体可能会引起严重的反对。为什么构成言论自由以及什么是宣传或数字虚假信息建立一套标准将被证明是一项重大挑战。可能出现的其他关键争论点是谁来决定一个人是否可以访问 Alt-Net,以及如何建立和监控这些人的客观性。

如果强加“一击出局”的全球准入标准,这将引起那些因一次违规就被踢出系统的人的严厉批评。最有可能的是,需要一个审查委员会或“上诉法院”来裁定一个人、论文或一个机构是否被适当地排除在外。与匹诺曹警告的情况一样,主要负担将是让政治家通过立法建立“新官僚机构”,以实施所有主要利益相关者都可以接受的法规和透明流程。

刚性网关

激励措施

包括亚马逊、谷歌、Facebook 和 YouTube 在内的在线服务提供商可能会发现,他们的利润受到对数字虚假信息影响日益增长的愤怒的严重威胁。如果令人震惊的例子开始浮出水面,可以迅速组织对这些在线服务提供商的大规模抵制。这可能会促使这些公司联合起来,共同追求从其平台上删除数字虚假信息。他们的工作将通过使用人工智能对内容进行初步筛选而得到促进。

严格的网关将由分析师监管以执行标准,他们将由在线服务提供商雇用。作为这一过程的一部分,强有力的财务激励可能会促使服务提供商合作建立和执行一套通用的虚假信息标准。例如,Facebook 已经启动了通过“净化”其网站来修复其公众形象的计划,并希望能赢回顾客。

障碍

被拒绝访问或帖子被删除的个人和公司可能会决定抗议甚至抵制关键在线服务提供商。该政策的反对者可能会提起诉讼,以减轻或取消一些更具限制性的政策。为在线服务提供商工作的审查员和事实核查员将被指控在决定谁不能在他们的平台上发帖时存在偏见。

人工智能审查过程也可能存在问题,因为有些人认为人工智能程序会反映编写程序的人的相同偏见。在线提供商将寻求转移人们对其业务流程和管理决策的批评的注意力,指出需要更严格的国际标准和定义。然而,任何一套标准都会固有地包含模糊性,需要对谁应该被允许发布什么内容进行主观判断。

天云

激励措施

一个不那么雄心勃勃但更实用的策略是在云中建立一个“安全空间”,在那里发布可信信息。这种方法的模型已经存在。在线服务提供商可以模仿美国人目前作为可信赖旅行者的资格预审方式,以便在返回美国时登机(TSA PreCheck 清关系统)或通过电子海关大门(全球入境)。

学术界可能是这种解决方案的主要倡导者,因为这将反映他们自己发表同行评审期刊文章的做法。一旦 T-Cloud 流行起来,就会激励教授、研究人员和作者在 T-Cloud 上发布他们的博客、文章、书籍和其他出版物。正如学术期刊通过其可靠性获得赞助商一样,T-Cloud 同样会为基于事实的内容创造激励,因为该系统将获得可信度和认可。

实施 T-Cloud 需要人员和软件来确定哪些来源是自动授权的,哪些内容是经过批准的。一些解决方案已经在寻求,例如圣克拉拉大学开发的“信任指标项目”,从而表明了对概念解决方案的兴趣。

障碍

通过创建一个值得信赖的“安全空间”来实施更适度的解决方案,作者和记者可以在其中发布经过验证的分析和报告,这样会减少阻力,因为所有用户都可以使用其他发布信息的场所。收取费用以获取发布在 T-Cloud 上的信息或盖上 T-badge 可能会引发一些抗议,但反对者认为,收费结构可能不公平地将谁可以在 T-Cloud 上发布信息限制为那些足够富裕的人负担得起费用。

记录正在做的事情

广泛的学术和商业实体正在寻求策略、流程和软件来减轻数字虚假信息的影响。其中许多举措显示出巨大的希望,但仍然缺乏连贯的总体战略。制定国家或全球战略的任务通常落在政府身上。在这种情况下,公私伙伴关系可能是解决这一祸害的最佳机制,政府反映了人民的意愿,而私营部门则提供了应用最佳技术的前沿知识。

兰德公司发布了一份清单,列出了 98 种可用于打击在线虚假信息的工具。36它将它们分为七类。几乎一半是验证工具,20 个与教育和培训有关,14 个用于可信度评分。随附的报告“打击在线虚假信息:构建 Web 工具数据库”讨论了将工具列入列表的标准。基本标准是该工具由非营利组织开发、具有交互性且位于美国。表 1为每个类别提供了一个很好的工具示例。

表 1.打击虚假信息的主要工具

CSV

基于内容的计划可能对推进刚性网关和匹诺曹警告情景最有帮助。基于用户和源的计划将更支持 Alt-Net 或 T-Cloud 场景。学术界还开发了一些有用的数据库,并组织了许多发人深省的会议,探索有前景的战略和技术。好消息是,此类举措的例子开始激增。

基于商业内容的努力

  • Wikitribune成立于 2017 年,供记者和志愿者合作撰写基于事实的新闻故事,这些新闻故事可以得到公众的进一步验证。该网站的资金来自网站访问者 ( www.wikitribune.com ) 的自愿捐款。

  • Fake News Detector是 Google Chrome 和 Firefox (fakenewsdetector.org/en) 使用的浏览器扩展,它结合了众包和机器学习。该技术允许用户将 Facebook 上的新闻标记为合法、假新闻、点击诱饵、极端偏见、讽刺或非新闻,并在查看其他人标记的内容时通知用户。目标是开发能够自动标记假新闻的人工智能软件,而不是依赖人工事实检查员。类似的假新闻检测浏览器扩展包括BS Detector ( https://bsdetector.tech/)、Mashable ( https://mashable.com/2016/11/16/fake-news-alert-chrome-extension/ ) 、FactCheck.org ( www.factcheck.org) 和 Apple News 的假新闻拦截器( https://itunes.apple.com/us/app/fake-news-blocker/ )。

  • Factmata正在开发人工智能事实检查技术,以与创建虚假信息相同的速度过滤虚假信息。它使用自然语言处理来评估新闻内容的词语、逻辑、事实和来源归属。它由 Google 的数字新闻计划和包括 Mark Cuban 和 Ross Mason (Factmata.com) 在内的几位技术企业家资助。

  • DocumentCloud专为记者设计,通过将大量文档转化为数据来将它们置于上下文环境中。它可以创建时间线;标记有关人员、地点和组织的信息;并根据使用的主要文档 (Documentcloud.org) 在新闻故事之间创建链接。

  • 公共信息服务是由委内瑞拉的记者创建的,他们厌倦了本国所有的假新闻和审查制度,并开始每隔几个小时在 WhatsApp 上发布值得信赖的项目符号。37

  • Civil旨在激励协作编辑,通过使用区块链技术减少错误信息。它限制了对第三方验证的需求,并加强了对记者的保护,使其免受审查和侵犯知识产权。独立新闻编辑室将提供免费和付费内容的混合(Civil.co)。

  • Facebook在其网站上提供“相关文章”,以允许用户寻找更可靠的故事,降低公司的事实核查人员认为是数字虚假信息的文章的优先级。38 2019 年初,Facebook 旗下的 WhatsApp 宣布将不再允许用户将消息转发给超过 5 人,以限制数字虚假信息的传播。39

基于商业用户或基于来源的努力

  • Userfeeds引擎使用区块链技术来激励用户对互联网内容的准确性进行排名,并检查广告商的身份和声誉(Userfeeds.io)。
  • Nwzer是一家位于荷兰的用户生成的新闻机构,正在开发一种“大众智慧”机器,该机器使用 AI 允许多个用户协作创建一篇文章。它旨在让公众参与进来,让故事具有多种不同的视角(www.nwzer.com)。
  • NewsGuard聘请记者和分析师评估 7,500 个新闻和信息网站,并将它们的可靠性评为绿色(值得信赖)、黄色(未公开的资金来源)或红色(一贯和故意虚假信息)。它由包括阳狮集团在内的 18 名投资者资助,并于 2018 年开始运营(Newsguardtechnologies.com)。
  • TinEye是一个反向图像搜索引擎,允许用户将图像上传到其搜索框,然后返回图像出现在网络上其他位置的网址。免费服务可帮助用户确定可疑图像或断章取义的图像是否是虚假或具有误导性的 (Tineye.com)。

学术贡献

  • DMINR 是一个基于 Web 的应用程序,由伦敦大学城市学院开发为数据挖掘器。40该系统使用机器学习和人工智能来帮助记者查找和验证从警察、政府、公司记录和环境报告中发布的信息。它于 2017 年由 Google 的数字新闻计划资助,目标完成日期为 2019 年秋季。
  • 2018 年 1 月,达特茅斯学院、普林斯顿大学和埃克塞特大学的教授发表了一项研究,该研究基于超过 2,525 份调查回复,发现在 2016 年 10 月 7 日至 11 月 14 日期间,大约四分之一的美国人访问了一个假新闻网站。特朗普的支持者访问了最多的假新闻网站,绝大多数都是支持特朗普的。几乎十分之六的假新闻网站访问来自 10% 的在线信息饮食最保守的人。该研究还发现,Facebook 是接触假新闻的关键媒介,而对假新闻的事实核查几乎从未接触过 Facebook 的消费者。41
  • 达特茅斯学院图书馆发布了一份资源指南,列出了关于假新闻的文章、关于打击假新闻和新闻机构正在做什么的文章、关于假新闻的精选书籍和其他资源,以及互联网资源。哈佛大学图书馆、康奈尔大学图书馆、印第安纳大学图书馆、弗吉尼亚大学图书馆和图书馆协会和机构国际联合会也出版了类似的指南。42
  • 2017 年 2 月,哈佛大学举办了一场名为“打击假新闻:研究和行动议程”的会议,提出了减少假新闻的四种途径,以及研究界可以立即采取的三个步骤来解决问题的议程。43
  • 2017 年 6 月,斯坦福大学举办了数字虚假信息论坛,召集了来自科技公司、政治机构、学术界、媒体、民主社区和慈善组织的思想领袖,讨论如何共同应对数字虚假信息的全球挑战。44
  • 2019 年 11 月,欧洲公民社会组织欧洲公民行动服务 (ECAS) 在欧洲经济和社会委员会的支持下召开了一次会议,探讨网络虚假信息的解决方案。该活动举办了包括政策制定者、技术代表、民间社会和学术代表在内的小组讨论。45
  • 2019 年 11 月,塔夫茨大学举办了一场名为“虚假信息时代民主的未来”的会议。此次活动包括美国前政府高级官员、学者、研究人员、记者和技术专家。讨论了广泛的问题,从审查到公共和私人解决方案。46

寻求最佳解决方案

打击数字虚假信息祸害的最佳策略可能是:
  • 涉及大多数这些策略的混合,
  • 越来越多地采用人工智能和区块链解决方案,
  • 强调全球行业标准和全行业“可接受”程序的必要性,以及
  • 推动在线服务提供商采用更具协作性的解决方案。


任何战略的实施都将标志着在应对数字虚假信息带来的威胁方面向前迈出了重要一步(见表 2)。不需要政府行动的战略可以更快地实施。

表 2.拟议战略的关键方面

CSV

在美国国会或其他国家就什么是最好的前进方式达成政治共识很容易证明是一项艰巨的任务;特别是如果技术不太熟练的立法者不熟悉计算宣传策略、互联网及其运作方式。立法者也将受到来自强大媒体公司的压力,这些公司更专注于宣传舆论而非事实。

除非主要在线服务提供商在财政上得到充分激励,并且政府领导人将数字虚假信息视为重中之重,否则不太可能采取协调一致的有效行动。几乎可以肯定,无法在单一的大解决方案中找到共识,但利用各种方法的渐进式进展可以提供可行的替代途径。

Alt-Net 和 T-Cloud 的主要缺点是它们允许数字虚假信息继续在互联网上流动,同时只为一部分用户提供“安全空间”。一个更有效的策略是建立一个融合了若干建议策略的各个方面的过程。例如,在线服务提供商可能会担心政府干预足以实施刚性网关版本,同时为受信任的用户建立 T-Cloud。或者,在线服务提供商可以响应来自公众和立法机关人民代表的压力,建立健全的匹诺曹警告流程,作为建立刚性网关世界的第一步。

结论

数字虚假信息的努力有助于分裂和破坏自由社会和民主进程的凝聚力。随着越来越多的人将他们的媒体消费转移到在线和社交媒体上,如果不解决虚假叙述的泛滥和采用问题,无疑将对西方的运作和治理能力产生腐蚀作用。

关于这个问题的报告一致宣称,有效的解决方案需要全社会的倡议,以便消费者、企业和政府都在发展社会复原力方面发挥作用。解决方案将需要来自上层的组织指示和来自下层的个人主动性。芬兰、意大利和罗马尼亚为如何制定媒体教育计划提供了很好的例子。

  • 意大利最近在其高中课程中增加了媒体素养。47
  • 芬兰因实施旨在帮助学生将虚假信息纳入其教育计划的课程而受到赞誉。
  • 罗马尼亚学校与一家名为 MediaWise 的数字扫盲公司建立了合作伙伴关系,旨在培养对在线新闻媒体的批判性理解。48

本文采用了前瞻性分析技术来识别关键驱动因素,建立解决整体威胁的建议解决方案,并评估实施每个挑战所涉及的挑战范围。49总体目标是围绕什么构成最有效的方法来保护民主国家免受数字虚假信息的转移威胁,激发和展开讨论。

附加信息

贡献者注释

伦道夫·H·弗森:Globalytica, LLC 的首席执行官。他出版了几本书,包括《用于情报分析的结构化分析技术》和《用于战略情报的批判性思维》。弗森先生是一名职业中央情报局 (CIA) 情报分析师和经理,最后担任拉丁美洲国家情报官 (NIO)。他因担任 NIO 和 CIA 的杰出职业情报奖章而获得杰出情报奖章。他在达特茅斯学院获得学士学位,在耶鲁大学获得国际关系硕士学位。可以通过rpherson@pherson.org联系作者。

Penelope Mort Ranta:拥有瓦萨学院的地理学学士学位。她于 2018 年在 Globalytica, LLC 实习。她曾对德国、摩洛哥、美国和中国的可再生能源系统进行研究。

Casey Cannon:格拉斯哥大学国际安全专业的研究生。他于 2020 年在 Globalytica, LLC 实习。

Notes

1 J. Clement, “Social Media—Statistics and Facts,” Statista, 4 September 2019, https://www.statista.com/topics/1164/social-networks/
2 Andrew M. Guess, Brendan Nyhan, and Jason Reifler, “Exposure to Untrustworthy Websites in the 2016 US Election,” Nature Human Behaviour, Vol. 1 (2020), pp. 1–9.
3 C. Edmondson, “G.O.P. Senators, Defending Trump, Embrace Debunked Ukraine Theory,” New York Times, December 2019, https://www.nytimes.com/2019/12/03/us/politics/republicans-ukraine-conspiracy-theory.html
4 Alexandra Dobrowolski, “‘Weapons of Mass Distraction’?” Citizenship as a Regime (2018), pp. 186–207. doi:10.2307/j.ctv2n7qxg.13
5 Renee DiResta, Dr. Kris Shaffer, Becky Ruppel, David Sullivan, Robert Matney, Ryan Fox, Dr. Jonathan Alright, and Ben Johnson, “The Tactics & Tropes of the Internet Research Agency,” New Knowledge 2019 (December 2018), p. 14.
6 “New Reports Shed Light on Internet Research Agency’s Social Media Tactics,” Senate Select Committee on Intelligence (SSCI)Press Release, 17 December 2018, https://www.intelligence.senate.gov/press/new-reports-shed-light-internet-research-agency%E2%80%99s-social-media-tactics
7 DiResta, Shaffer, Ruppel, Sullivan, Matney, Fox, Alright, and Johnson, “The Tactics & Tropes of the Internet Research Agency.”
Ibid.
9 Bence Kollanyi, Philip N. Howard, and Samuel C. Woolley, “Bots and Automation over Twitter during the U.S. Election,” Data Memo 2016.4 (Oxford, UK: Project on Computational Propaganda), www.politicalbots.org
10 Clarissa Ward, “Inside a Russian Troll Factory in Ghana,” CNN World, 12 March 2020, https://www.cnn.com/2020/03/12/world/russia-ghana-troll-farms-2020-ward/index.html
11 Alex Hern, “Countries Are Using Digital Disinformation To Manipulate Public Opinion,” The Guardian, 14 November 2017, http://trn.tv/blog/blog/2017/11/14/countries-are-using-digital-disinformation-to-manipulate-public-opinion/
12 Massimo Flore and Alexandra Balahur, “Understanding Citizens’ Vulnerability to Disinformation and Data-Driven Propaganda: Case Study: The 2018 Italian General Election,” Joint Research Center, European Commission, 2019, https://op.europa.eu/en/publication-detail/-/publication/3ada7fb3-7d04-11e9-9f05-01aa75ed71a1/language-en/format-PDF/source-115672948
13 Samuel C. Woolley and Philip N. Howard, “Computational Propaganda Worldwide: Executive Summary,” Working Paper No. 2017.11, edited by Samuel Woolley and Philip H. Howard (Oxford, UK: Project on Computational Propaganda), Comprop.oii.ox.ac.uk, https://andyblackassociates.co.uk/wp-l
14 Peter Dizikes, “Study: On Twitter, False News Travels Faster than True Stories,” MIT News Office, 8 March 2018, https://news.mit.edu/2018/study-twitter-false-news-travels-faster-true-stories-0308
15 Michael V. Hayden, The Assault on Intelligence: American National Security in an Age of Lies (New York: Penguin Press, 2018).
16 Woolley and Howard, “Computational Propaganda Worldwide.”
17 P. N. Howard and B, Kollayni, “Bots, #StrongerIn, and #Brexit: Computational Propaganda during the UK-EU Referendum,” arXis:1606.06356 [Physics], 17 November 2016, http://arxiv.org/abs/q606:06356
18 Alex Mostrou, “Russia used Twitter Bots and Trolls ‘to Disrupt’ Brexit Vote,” The Times, 15 November 2017.
19 Senate Select Committee on Intelligence, “Disinformation: A Primer In Russian Active Measures and Influence Campaigns Panel I,” 30 March 2017, https://www.intelligence.senate.gov/sites/default/files/hearings/S%20Hrg%20115-40%20Pt%201.pdf
20 McKay Coppins, “The Billion Dollar Disinformation Campaign to Reelect the President,” The Atlantic, 10 February 2020, https://www.theatlantic.com/magazine/archive/2020/03/the-2020-disinformation-war/605530/
21 Claire Wardle and Hossein Derakhshan, “Information Disorder: Toward an Interdisciplinary Framework for Research and Policy Making,” Council of Europe Report, Vol. 27 (2017).
22 Randolph H. Pherson and Penelope Mort Ranta, “Cognitive Bias, Digital Disinformation, and Structured Analytic Techniques.” Romanian Intelligence Studies Review, No. 22 (July 2020).
23 Ibid.; Claire Wardle and Hossein Derakhshan, “Information Disorder: Toward an Interdisciplinary Framework for Research and Policy Making,” Council of Europe Report 27, 2017.
24 Samuel C. Woolley and Philip N. Howard, “Automation, Algorithms, and Politics/Political Communication, Computational Propaganda, and Autonomous Agents—Introduction,” International Journal of Communication, Vol. 10 (2018), p. 9.
25 This phrase has also been adopted by the International Association for Media and Communication Research (IAMCR) as a preferred term for describing “Fake News.” At its February 2018 Colloquium in Paris, IAMCR noted that digital disinformation touches many aspects of our lives, including the politics of climate change, globalization, feminism, health, science, and many other concerns. It posits that digital disinformation threatens the integrity of knowledge and scientific reasoning. See https://iamcr.org/clearinghouse/challenges_of_digital_disinformation
26 Randolph H. Pherson, Handbook of Analytic Tools and Techniques, 5th ed. (Tysons, VA: Pherson Associates, 2019).
27 Ibid.
28 U.S. Customs and Border Protection, “Trusted Traveler Programs,” https://www.cbp.gov/travel/trusted-traveler-programs/global-entry
29 Katarina Kertysova, “Artificial Intelligence and Disinformation,” Security & Human Rights, Vol. 29 (2018), pp. 55–81.
30 D. Cox, “Fake News Is Still a Problem. Is AI the Solution?” 15 February 2018, NBC News, https://www.nbcnews.com/mach/science/fake-news-still-problem-ai-solution-ncna848276
31 “A Wormhole of Darkness,” Washington Post, editorial page, 7 January 2019, p. A12.
32 Anonymous, “How Blockchain could Fix Facebook’s Fake News Problem,” 28 July 2018, Cryptocurrency News, https://www.ccn.com/opinion-how-blockchain-could-fix-facebooks-fake-news-problem/
33 Sarah Salinas, “Facebook Has Been Talking Up Its Third-Party Fact-Checkers, But at Least One Says It’s Checking Just One Post per Day,” CNBC, 18 October 2018, https://www.cnbc.com/2018/10/18/facebook-talks-up-third-party-reviewers-but-one-isnt-reviewing-much.html
34 Shirin Ghaffary, “A Senator Is Demanding to Know How Facebook Will Stop Misinformation from Spreading Online,” VOX, 2020, https://www.vox.com/recode/2020/2/24/21147428/facebook-2020-elections-misinformation-senator-michael-bennet-letter-zuckerberg
35 Anon., “Fighting Fake News,” Information Society Project, Comp., March 2017.
36 Jennifer Kavanagh, Samantha Cherney, Hilary Reininger, and Norah Griffin, “Fighting Disinformation Online: Building the Database of Web Tools,” RAND, 2020, https://www.rand.org/content/dam/rand/pubs/research_reports/RR3000/RR3000/RAND_RR3000.pdf
37 Jasmine Garsd, “Amid Chaos, Venezuelans Struggle to Find the Truth Online,” NPR Newscast, 26 January 2019, https://www.npr.org/2019/01/26/688868687/amid-chaos-venezuelans-struggle-to-find-the-truth-online
38 Tessa Lyons, “Replacing Disputed Flags with Related Articles,” Facebook Newsroom, 20 December 2017, https://newsroom.fb.com/news/2017/12/news-feed-fyi-updates-in-our-fight-against-misinformation/
39 Ibid.
40 Ed Grover, “City Journalism Academics to Lead European Big Data and Fake News Project,” News from City, University of London, 7 July 2017, https://www.city.ac.uk/news/2017/june/google-digital-news-initiative-dminr; Zainab Mamood, “City University in London Awarded £300,000 Google Grant to Build App Which Will Help Journalists Sift through “Big Data,’” Press Gazette, 7 July 2017, Available at https://www.pressgazette.co.uk/city-university-in-london-awarded-300000-google-grant-to-build-app-which-will-help-journalists-sift-through-big-data/
41 Brendan Nyhan, Andrew Guess, and Jason Reifler, “Selective Exposure to Misinformation: Evidence from the Consumption of Fake News during the 2016 U.S. Presidential Campaign,” 9 January 2018, https://www.dartmouth.edu/∼nyhan/fake-news-2016.pdf
42 Dartmouth Library/Resource Guide/Journalism/Fake News, https://researchguides.dartmouth.edu/journalism/fakenews
43 David Lazar, Matthew Baum, Nir Grinberg, Lisa Friedland, Kenneth Joseph, Will Hobbs, and Carolina Mattsson, “Combating Fake News: An Agenda for Research and Action,” Harvard University and Northeastern University, May 2017, http://www.sipotra.it/wp-content/uploads/2017/06/Combating-Fake-News.pdf
44 “MEMO 98 at the Digital Disinformaiton Forum at Stanford University,” 28 June 2017, http://memo98.sk/article/memo-98-at-the-digital-disinformation-forum-at-stanford-university
45 “Online Disinformation: Finding the Silver Bullet in the Digital World,” Conference, ECAS, Brussels, Belgium, 2019, https://ecas.org/event/online-disinformation-finding-the-silver-bullet-in-the-digital-world/
46 “Conference on New Media and Democracy,” Tufts University, Medford, Massachusetts, 2019, https://sites.tufts.edu/murrowcenter/conference-on-new-media-and-democracy/
47 Daniel Fried and Alina Polyakov, “Democratic Defense Againist Disinformaiton,” The Atlantic Council, Washington, DC, Eurasia Centre, February 2018, https://www.atlanticcouncil.org/wpcontent/uploads/2018/03/Democratic_Defense_Against_Disinformation_FINAL.pdf
48 Julian McDougall, Marketa Zezulková, Barry Van Driel, and Dalibor Sternadel, “Teaching Media Literacy in Europe: Evidence of Effective School Practices in Primary and Secondary Education, NESET II Report,” 2018.
49 For a detailed review of Foresight Analysis techniques see Randolph H. Pherson, “Leveraging the Future with Foresight Analysis,” The International Journal of Intelligence, Security, and Public Affairs, Vol. 20, No. 2 (Fall 2018), https://doi.org/10.1080/23800992.2018.1484237

数字技术·观点视角】乡村数字化技术内核驱动人居环境治理进入新时代

【数字技术·最新资讯】时隔 16 年,Science 再次发布「全世界最前沿的 125 个科学问题」!


【研院动态】刘靖:城市大脑建设的积极参与者和数字化人才培育的探路者


内容来源 / 再建巴别塔

今日编辑 / 戴晟昱

责任编辑 / 戴晟昱

城市大脑研究院提供开放研讨平台,所有文章仅代表作者个人观点,欢迎共同探讨。原创文章,转载请注明来源:城市大脑研究院。部分图片来源于网络,如涉及版权问题,敬请及时联系我们。


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存