查看原文
其他

方可成:欧美社会如何打击网络假新闻?

2018-02-06 方可成 腾云

互联网和社交媒体的勃兴大大改变了传统新闻行业的面貌:信息传播更为迅速,表达手段更为多样,信息获取渠道更为多元,新闻内容也更为海量。可是,网络上的海量内容里不可避免地充斥了更多虚假信息,即人们常说的假新闻。


如何消除假新闻的影响,成为社交媒体时代新闻业亟需解决的问题。在学界理论引导及基金会的大力支持下,欧美社会在打击网络假新闻方面展现出了颇为活跃的生态,涌现出了众多项目。虽然这些项目能否成功还很难说,但它们确实打开了更多可能性。

方可成

宾夕法尼亚大学传播学博士候选人

原《南方周末》记者

新闻实验室发起人 

2017年10月底,谷歌、Facebook和Twitter这三大硅谷巨头,齐齐派出高管出现在美国华盛顿的国会山,在议员面前作证,接受他们的质询。听证的主题,是俄罗斯在2016年美国大选期间的干预行为——或者用一个词来总结,就是“虚假信息”(Misinformation)。


从2016年以来,关于俄罗斯人干预美国大选的传闻和讨论就没有停歇过。经过长时间的调查,美国官方得出的基本结论是:俄罗斯人确实干预了美国大选,而主要的干预方式,就是在社交媒体平台上释放和推广关于美国大选及其他美国公共议题的假消息,扰乱舆论环境。由于选举运行的基础是民众基于丰富和准确的信息作出决策,因此对信息环境的干扰便会直接影响选举质量。

Facebook说,俄罗斯代理人发出和推广的煽动性内容,触达了1.26亿用户。谷歌说,俄罗斯代理人购买了4700美元的搜索广告,以及更多的传统展示型广告。在谷歌旗下的YouTube平台上,俄罗斯代理人上传了超过1100则相关内容的视频,总长度43小时,被观看了30.9万次。Twitter说,俄罗斯代理人发布的消息超过13.1万条。


熟悉社交媒体生态的人会敏锐地发现:这些数字其实都不大。比起这些平台上每天被发布的海量内容,俄罗斯人捣乱的规模是非常有限的。但是,因为美国人对俄罗斯人一直以来高度警惕,再加上大选在美国政治生活中的重要性,以及特朗普当选的意外结果,这些假新闻的意义被放大了。几大互联网巨头因此被放在火上烤了很久,它们算是深刻体会到了成为众矢之的是一种怎样的体验。


其实,社交媒体时代的假新闻问题并非因为美国大选而出现,虚假信息早在大选之前就已经泛滥。但是,假新闻问题此前并没有得到足够多的重视。从这个角度上说,美国人对大选中俄罗斯干预的过度反应,倒是创造了一个让人们积极行动对付假新闻的契机。

▲美国人对大选中俄罗斯干预的过度反应,倒是创造了一个让人们积极行动对付假新闻的契机。


平台在做什么

XXXXXX

作为千夫所指的对象,谷歌、Facebook和Twitter等互联网平台做了不少动作来应对假新闻问题。


大选结束后一周,谷歌就宣布:将禁止那些传播假新闻的网站使用其广告服务。很快,Facebook也跟上了步伐,更新了使用条例,宣布在含有假新闻的网站中将不再展示广告。这两项措施在很大程度上切断了假新闻网站的财源 —— 其实大选期间很多热门的假新闻网站,并没有什么政治诉求,甚至是由远在马其顿共和国的年轻人运营的,他们唯一的目的就是通过吸睛的假新闻来获得流量,赚取广告费。一旦谷歌和Facebook停止为它们提供广告服务的平台,它们的生意也就自然被切断了。


这些平台的另外一个重要举措是:通过修改信息流(News Feed)的算法,达到降低假新闻曝光率的目的。例如,Facebook面向信息发布者公布了三项基本原则:Facebook用户看重有意义、有信息量的内容;Facebook用户看重准确、真实的内容;Facebook用户看重安全、尊重的行为准则。基于这些基本原则,Facebook调整信息流的算法,降低那些不符合原则的内容(虚假内容就是一个重要部分)出现在用户信息流中的可能。

与之类似,谷歌也在不断改进自己的搜索算法,避免含有假新闻的网页出现在搜索结果的显著位置。2017年4月,谷歌副总裁Ben Gomes宣布,公司已经更新了算法,“使得更具权威性的内容可以更好地浮出水面”。同时,如果人们发现搜索框的“自动填充”功能提供了误导性的信息,也可以进行举报。6月,Twitter也宣布正在尝试一个可以让用户举报、标记虚假信息的功能,但是并未正式推出这一功能。


除了直接打击假新闻的经济基础和在信息流中的曝光概率,互联网平台还在尝试通过另一种思路打击假新闻:提供更多的背景信息,供读者自行判断。


2017年10月,Facebook发布了一则新的测试功能,这项功能会给在Facebook上被分享的文章增加一个小按钮“i”。点击之后,将会提供这篇文章的背景信息,其中最重要的就是文章来源媒体的信息,通过直接抓取维基百科上的资料而完成。

比如,如果是美联社的文章被分享,就会显示美联社的维基百科资料。如果文章来自不知名的小网站,则会显示“没有信息”,这种文章的可信度就要被打上问号了。如果来自臭名昭著的、被维基百科收录了的假新闻网站,读者同样会得到这方面的信息。


11月,这项功能又加入了新的元素:“信任度指标”(Trust Indicators)。点击小按钮“i”之后展现的内容中被加入了发布媒体的伦理守则、事实核查信息、勘误信息、所有权结构以及编辑部负责人等信息。“信任度指标”是由一个叫作“信任项目”(Trust Project)的组织发起的,牵头人是圣塔克拉拉大学的研究者。这些背景信息不仅将出现在Facebook上,也将出现在谷歌、Twitter、必应等其他平台上,它们可以更好地帮助受众了解文章内容背后的作者是谁,是否值得信赖。


与专业媒体共塑良好生态

XXXXXX

值得一提的是,由于美国宪法第一修正案的规定,政治权力很难直接伸手监管假新闻,因此美国应对假新闻的行动只能依靠平台自己来开展。在欧洲,虽然政府在管理传统媒体上更加主动,但在管理网络信息时同样面临着和言论自由权之间的权衡问题,因此同样非常谨慎,目前也是主要依靠平台自身的动作来管理。


当然,这些互联网巨头除了在自己的平台上不断推出新功能、改进算法,也意识到:核查假消息是专业媒体的拿手本事,要想打击假新闻,需要和专业媒体合作,才能达到更好的效果。


目前,包括Facebook在内的多家互联网平台都接入了几大事实核查网站(PolitiFact、FactCheck.org等)的数据,借用专业媒体的力量分辨信息真伪。而这些被核查过的事实,也得以通过这样的合作在互联网平台上直接应用于判断大量信息的真伪,发挥了更大的价值。

另外,互联网巨头也在通过支持新闻业的方式间接支持优质内容、打击假新闻。


一个最典型的例子就是Facebook在2017年1月推出的新闻业项目(Facebook Journalism Project)。在项目主旨说明中,Facebook称,“我们知道我们的社群重视分享和讨论想法和新闻,作为我们服务的一部分,我们对构建一个健康的新闻生态系统、确保新闻业可以健康发展非常关心。”


具体而言,Facebook将和专业媒体合作开发新的新闻产品,包括探索新的叙事方式、支持地方新闻业、寻找商业变现模式等。它还将为记者提供技能培训和实用工具,并且面向大众进行媒介素养的教育,提高大众判断信息的能力。

▲Facebook将和专业媒体合作开发新的新闻产品,还将为记者提供技能培训和实用工具,并且向大众进行媒体素养的教育,提高大众判断信息的能力。

另一个例子是谷歌在2017年欧洲各国的大选期间积极行动。经过2016年美国大选一役,各大互联网平台都对大选表现出严阵以待的态度。他们提出:大选不仅意味着好的信息环境极端重要,也是利用科技为记者赋权的很好机会。例如,在德国大选期间,谷歌新闻实验室支持“First Draft”媒体伙伴网络在互联网上监控假新闻,并配合德文媒体Correctiv组建专门的团队WahlCheck17对大选新闻进行实时的事实核查,挑选出每日最广泛流传的谣言,以新闻信的形式发送给订阅者。


社会其他力量的参与

XXXXXX

过去一年中,社会其他方面的力量,尤其是研究机构和社会组织也积极参与到了狙击假新闻的行动当中。例如,孵化机构Betaworks的CEO John Borthwick和纽约市立大学(CUNY)教授Jeff Jarvis就曾在美国大选之后就假新闻问题提出了15条具体的建议:


1.让用户可以更方便地举报假消息、仇恨言论、骚扰攻击、机器人水军。


2.让事实核查信息可以出现在谣言文章和表情包旁边。


3.扩大信源认证系统。


4.将新闻的具体来源媒体名字更加清晰地展示给读者。


5.用机器追溯文章和表情包的最初来源。


6.向读者展示他们的信息回音壁外的内容。


7.认识到搜索框的“自动填充”功能可以传播错误的印象。


8.认识到功能设计上的抉择会让一些本不该出现的信息浮出水面。


9.创建网站,让用户可以更方便地查证信息来源和真实性。


10.让用户可以订阅和传播更正消息。


11.媒体应创造流行的表情包传播事实信息。


12.停止给假新闻网站提供资金。


13.开放数据接口,邀请程序员参与创造更好的工具,提高信息质量。


14.雇佣人工编辑。


15.各媒体公司、社交平台、大学形成一个合作组织,研究和开发解决方案,向平台、媒体公司和公众提供教育。


可以看到,这些建议已经有不少被采纳并成为了现实,例如第4条、第7条、第12条等。

作为传媒领域最重要的基金会,奈特基金会(Knight Foundation)在美国大选后发起征集扼制假消息传播、促进人们获取准确信息的方案创意。对于入选的方案,奈特基金会给予总额高达一百万美元、平均五万美元的支持。


最终,基金会一共接到了全球范围内800多个项目的申请,从中选取出了20个优胜者。获得资助的机构包括高校、NGO和公民黑客,来源十分多样。它们大致可以分成事实核查类、信息素养类和内容推荐类,以下试各举一例。


事实核查类的获奖项目之一:上下文机器人(Glorious ContextuBot)。这一项目的主要目标是对互联网上流行的新闻视频片段进行事实核查,找出它们的原始出处,帮助用户了解视频片段的上下文脉络。我们在社交媒体上常常会遇到极具争议性的新闻视频片段,但是我们并不知道这个片段来自哪里,不知道这个新闻节目是何时播出的,不知道它是否真实,也不知道它的上下文情境。ContextuBot可以通过一个片段找到完整的新闻视频,从而帮助用户了解完整的新闻脉络,防止信息在传播的过程中被扭曲。


内容推荐类的获奖项目之一:新闻质量评分项目(News Quality Score Project)。这一项目希望创建一个工具,通过算法和机器学习,从互联网中实时发现高质量的新闻报道。这个工具会自动分析文章的结构,通过一些标准,例如文章的长度、作者、出版机构、音视频的丰富程度等共计50个左右的指标,评估新闻内容并且给内容进行评分,让假新闻获得最低的分数。

信息素养类的获奖项目之一:KQED Learn。这一项目的目的是鼓励年轻人增强批判性思考,它将提供一个面向学生和老师的线上教学平台,并在平台上提供教学内容,教授学生们如何问一个好问题,如何通过调查来获得答案,以及如何做出一个好的结论。


以上只是众多新项目中的几个案例。可以说,在学界的理论引导以及基金会的大力支持下,欧美社会在打击假新闻方面展现出了颇为活跃的生态,涌现出了众多项目。虽然这些项目能否成功还很难说,但它们确实打开了更多的可能性。


假新闻是一个综合性的社会问题,它虽然突出表现为在互联网平台上泛滥,但显然没有哪一家公司是背后唯一的罪魁祸首。纵观欧美经验,我们可以看到,要解决这一问题,需要社会多方面的共同努力——需要互联网平台通过修改算法、更新功能进行积极应对,需要专业媒体提供更优质的内容和引导,也需要社会其他力量的积极倡导和共同参与。

XXXXXX

本期主要内容丨

□ 曹建峰 算法并不必然公平但应该朝向公平

□ 王新锐、罗为 算法监管路径选择与原则思考

□ 余盛峰 AI会把人类变成中世纪被审判的老鼠吗?

□ 刘朝 回归中国现实看中国人工智能的法律

□ 阿改  技术带给艺术的可能

□ 汪丁丁 公共政策与群体创新能力

□ 张吉豫 打破人工智能算法黑

□ 张潼:腾讯将用“AI+X”赋能传统行业转型升级

感谢您关注和支持《腾云》,第63期限量赠阅开放申请中,敬请点击阅读原文填写相关信息,即有机会获赠本期《腾云》。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存