全民热议:把上头条这种事全部交给人工智能,真的靠谱吗?! | 全媒观
在人人“顶礼膜拜”人工智能的年代,大数据和机器算法几乎被科技公司奉为圭臬。崇尚技术完美主义的Facebook,就在上个月开掉了所有的人工编辑,转而把热门话题的编辑、推荐和排名全部交给机器算法。
打脸的是,就在Facebook舍弃人工编辑后的第3天,它的平台就出现了一则令人汗颜的假新闻。究竟这次乌龙是怎么一回事?且听全媒派(qq_qmp)一一分析。
美国时间周日,一条关于Magyn Kelly(没错,就是那个和川普就性别歧视议题撕X的Magyn Kelly)的“新闻”在Facebook“热门话题”(Trending Topics)上赫然出现。链接指向了一篇名为报道,大意是Magyn Kelly其实是美国民主党总统候选人希拉里·克林顿的秘密支持者,因此遭保守派的福斯电视台解聘。
这则消息后来被证实是假新闻,那么,它是怎么成功骗过Facebook机器的呢?
原来,是一个山寨新闻网站“Ending The Fed”发布了这条假消息,被Facebook抓取到,又因为Megyan Kelly的高知名度和内容的高敏感度,迅速在社交媒体上“一发不可收拾”。
这次假新闻事件随后在海外掀起一场大讨论:Facebook的机器算法究竟靠不靠谱?
近期,FacebookCEO马克·扎克伯格在一次提问中直言,“Facebook是一个科技公司,不会成为一家媒体。”
再引申一些理解:对新闻的定义上,人工编辑在Facebook没有话语权,也不能自主筛选重要新闻。
根据Facebook的热门话题编辑守则(Trending Review Guidelines),人工编辑的工作主要局限在基础编辑和格式修改。对于Facebook来说,他们的主要作用不在于提炼新闻要点或者选择新闻话题,而在于训练他们背后的这些算法。
可见,Facebook仅把人工编辑当做机器的驯化师,而非对内容价值的判断者。
相信这次假新闻事件出现之后,Facebook也在做出反思。但是,据公司内部人士透露,为了避免有干预言论自由的嫌疑,他们不会将发布假新闻的网站拉入黑名单。(Facebook的人工编辑曾被指责刻意压制关于保守派相关的消息。)
为了打击假新闻,Facebook也有发动用户“手动举报”的机制。两年前,Facebook在页面上添加了一个举报键,用户可说明某新闻是故意造假和欺诈或是经权威渠道辟谣的假新闻。当一条新闻被一定数量的用户标记为假新闻时,系统会减少对该新闻的推送或提醒用户该条新闻已被多人举报。
不过,从目前的情况来看,Facebook此举并未奏效。事实上,Facebook采取此行动更像是为了推卸责任或者堵住批评人士之口。
可见,Facebook当务之急需要完善机器算法对热门新闻话题的判断,确保机器算法能够将那些不合时宜的或者虚假的新闻筛选出来。
实际上,挑错对于人工编辑而言是基本能力,但机器的逻辑存在根本偏差:Facebook机器筛选热门话题仰赖于该话题的相关文章和贴文数量,而非对内容的判断。所以说,如果Facebook不能自上而下进行观念转变,那些垃圾新闻仍然会源源不断进入“热点话题”中。
在追究Facebook算法原罪的同时,有必要澄清一个误解:Facebook的“热门话题”并未完全算法化。Facebook 只是用一个新的新闻审核团队取代了此前主要由专业记者组成的纽约合同工编辑团队。很显然,这个新团队在看到由算法推荐的这条新闻时,并没有意识到这是一条假新闻。Facebook的一位发言人表示:
“热门话题”的审核团队在上周末批准了这一新闻。按照审核标准,这条新闻符合当时的要求,因为有足够多的引用文章和发帖。重审时,这条消息被发现不够准确,于是就从“热门话题”中移除了。我们会继续改进产品,提高识别假新闻的准确度。
有3位原“热门话题”编辑团队成员在接受媒体采访时曾表示,他们从一开始就知道 Facebook 的终极目标是让“热门话题”版块的新闻选取流程自动化,但没想到 Facebook 的速度如此迅速,因为用来取代他们的软件根本还没有准备好,“只是个半成品”。
因此,这次假新闻事件主要的错在于新的审核团队,而非算法。至于新的审核团队是哪些人,以及为什么他们看不出来这是一条假新闻,Facebook拒绝透露。不过,它发表了一份声明:“在新版‘热门话题’中,我们不再需要编写话题摘要,因此团队更多地转向运营和技术方向,以更好地支持新产品的发展。”
Facebook“热门话题”背后是一个注重新闻数量和传播速度的算法:被算法筛选进热门话题的新闻必须包含大量的相关信息来源,并在短时间内获得大量用户的关注。那么,为什么这些假新闻能够一次次获得大量点击呢?
深层次的原因可能在于人类天生地对信息进行“选择性接触”。尽管互联网上的意见表达存在着无限多样性,参与讨论者的身份也复杂多样,但是网民们在搜寻信息和参加互动时总是从他们的个人偏好出发,避免接触与其自身相左的意见。因此,他们看到一篇能够增强自己既有信念的文章后,他们就会点赞、评论、分享、发送给朋友。
《纽约时报》的大卫·卡尔学者John Herrman发文指出,这类网站正是利用了人们喜欢参与和分享与自己观点相同的文章的习惯,只发布人们想看到的消息。更准确地说,这类网站通过发布极具误导性的假新闻,从而不断地加深人们的既有想法。这类消息从互联网诞生之日起,就是最稳定的“流量保证”。
一般而言,算法会自动审查这类文章的发布网站数量和几个不同的消息来源,并将不符合要求的新闻筛选出去。不过,这类假新闻网站往往相互抄袭,内容雷同,算法并不能通过文章数量和消息来源鉴别新闻真伪。总之,这些假新闻网站都足够聪明,他们深谙算法固有的不足和缺陷。因此,大量的垃圾内容被筛选进“热门话题”,愈演愈烈。
Ending the Fed网站主页
从这个角度看,Facebook算法至上的新闻处理方式成了网络群体极化的牺牲品。这些算法、人工智能决定了社会每一个有影响力的信息的传播,然而这些算法和人工智能都是对人类行为的数据收集和学习,不可避免地带着人们自身所带来的缺陷和偏见。
因此,目前主流的观点是:如果Facebook想要提高“热门话题”的用户体验,除了投入工程师队伍提高算法对新闻真伪的判断能力,还要重新启用人工编辑。毕竟,人工编辑在识别假新闻方面未曾失手。
虽然Facebook在撤销人工编辑时就已经明确表示,作为科技公司,让算法和人工智能完全代替人工编辑是其前进的方向。但是,在算法尽善尽美之前,Facebook需要更强的事实核查团队。有评论指出,一个10人的小组就能解决目前算法所不能解决的问题,他们可以避开私人信息和主页,只对公共话题进行事实核查。
更有业界人士给予建议,认为Facebook的事实核查员可以有三点任务:
一、剔除发布假新闻的新闻源。Facebook可引入“事不过三”的制度,减少假新闻网站的链接传播。
二、假新闻一旦达到一定数量,该网站的流量导入会自动减少到原来的十分之一。BuzzFeed加拿大版的主编,同时也是反对假新闻的领导者Craig Silverman最近表示,假新闻网站已经像正规网站一样正在进行商业化运营,对Facebook的依赖性也变得越来越强,如果Facebook能够降低导流到这些网站的流量,就能大大打击他们发布假新闻的积极性。
三、一旦发布内容被证实为虚假信息,Facebook应立刻采取行动限制该内容的传播。事实上,Facebook早就这样做了,不过现在的运行机制还存在着至少两个问题。
第一,揭发假新闻是由用户发起的而不是专业的事实审查员。缺乏专业素质的用户一方面可能在事实核查上可能存在纰漏,另一方面用户对一些内容审查上可能会别有用心。另外,Facebook对假新闻的惩罚力度并不透明。
第二,已被别处证明是假新闻的文章也要加以注明,并在原文下面加入相关的事实核查链接。不过,这种方法只适合已被证明完全虚假的极端案例中使用。
聊了这么多,相信你应该对此次Facebook假新闻事件有一次全面的了解。未来,AI进入新闻编辑部势不可挡,对于人工智能筛选新闻,你又抱有怎样的观点?
参考文章:
Facebook Must Either Innovate Or Admit Defeat At The Hands Of Fake News Hoaxsters
https://www.buzzfeed.com/craigsilverman/how-facebook-fell-into-a-fake-news-trap-of-its-own-making?utm_term=.kl8LaDWwMo#.crA84NBbYr
Fake Story In Facebook's 'Trending' News Section Highlights Social Media's Curation Challenges
http://www.forbes.com/sites/kathleenchaykowski/2016/08/29/fake-story-in-facebooks-trending-news-section-highlights-social-medias-curation-challenges/#40c105b621d2
Facebook should hire fact-checkers. Here’s what they would do
http://www.poynter.org/2016/facebook-should-hire-fact-checkers-heres-what-they-would-do/428118/