查看原文
其他

哈佛大学肯尼迪学院最新研究:社交网络是乌托邦or反乌托邦?

腾讯传媒 全媒派 2019-04-07

这篇论文发表于2017年秋天,由创业研究员、《革命2.0:人民的力量大于掌权者》的作者威尔·戈宁(Wael Ghonim),以及哈佛肯尼迪学院诺克斯研究员、公共政策硕士杰克·拉斯拜斯(Jake Rashbass)合作完成。

 

 

乌托邦与反乌托邦之间的社交媒体

 

“互联网是历史上最大的一次无政府实验……从来没有如此多人可以轻而易举地拥有这么多权力。虽然这不是我们历史上第一次技术革命,却是第一次让几乎所有人都可能拥有、开发和传播实时内容,而不必依赖中介机构。”

—埃里克·施密特(Eric Schmidt)和贾里德·科恩(Jared Cohen)[1]


“我们和媒体公司有很大的不同,我们的定位是科技公司,我们雇工程师,而不是雇记者,我们这里没有记者,我们不报道新闻。但当我们这么说的时候,并不是说我们没有责任。事实上,我们是一种新的平台……而且随着规模的扩大,我们有更多的责任。”

—Facebook首席运营官雪莉·桑德伯格(Sheryl Sandberg),2017[2]

 

当Facebook、Twitter和YouTube等社交媒体平台出现时,科学家、激进分子和艺术家预示它们将成为推动人类文明进步的前所未有的工具。通过使内容出版、分发民主化,这些平台打破古老的权力结构,使再强大的国家都无法垄断公众注意力,权力与人民同在。

 

然而现在这种观点发生了戏剧性变化,权力集中在寡头垄断的平台手中。几乎每天都有关于社交媒体负面影响的报道,比如对极端组织的赋权、回音室效应的强化、虚假造谣信息的传播、培养情绪与精神的不稳定。

 

平台的病症很大程度上是算法的结果,即为优化用户参与度而设计的机器学习与预测模型,但这些都有改变的希望。本文试图追溯社交媒体的问题所在,并提出了一个扭转现状的出发点,使平台走上正轨,成为一股富有成效、负责任、有道德的力量。

 

社交平台从用户点击的可能性等多个维度为内容打分

 

优化参与度:社交媒体平台的结构问题


算法影响着我们的金融选择、购物选择、社交互动以及信息获取的方式。从基础层面来说,算法是一个程序,它根据一组排序标准来决定备选方案中的哪个具备优先级。由于社交媒体平台上的内容激增,每分钟有数以百万计的帖子上传,因此,哪些内容呈献给用户由算法决定。

 

优化算法以留存用户

 

平台优化算法有一个目标,即获取并留存用户的注意力。用户关注是平台的最终收入来源,通过让用户参与,平台能够获取潜在受众,并最终把商品或想法卖给他们。

 

用户注意力是一种稀缺资源,因此社交媒体算法是高度个性化的,以优化每个用户的参与度,这意味着算法会将用户最有可能参与互动的内容排在最前面(把点击,赞,评论,和分享等用户行为作为优先指标)。为了确定用户最感兴趣的内容,平台收集并使用数百个、甚至数千个被称为“信号”的信息来预测用户是否会参与,这些信号使用户和内容相匹配。对用户来说,这些信号可能包括他们的年龄、地点、性别、设备类型、先前的参与习惯以及朋友的参与习惯。对于内容本身,这些信号可能包括它的介质(文本、视频或图像)、长度、发布时间以及其他用户对它的参与度(比如,已经看到这些内容的用户的互动参与情况)。内容背后的起源和价值在很大程度上是无关紧要的,最重要的是内容是否受欢迎,用户是否仍然参与其中。

 

用户参与带来广告收入

 

优化用户参与度会诱使用户在平台上花费更多时间,研究人员表示这会对用户的健康产生负面影响。但对于平台来说,用户更多的时间意味着他们有更大的机会来宣传并获得更多盈利。此外,由于平台具有每个用户的行为和偏好的个性化数据,所以广告可以被微定位,以最大限度地提高用户点击广告的概率。

 

这种商业模式确实奏效了,随着平台用户基础的增加,广告收入也出现了惊人的增长。用户在平台上花费的时间也达到了很高的水平。Facebook创始人兼首席执行官马克·扎克伯格在2016宣布,每个用户平均每天在Facebook上花费50分钟。

 

2016年,扎克伯格在F8大会公布Facebook一季度业绩

 

在社交媒体出现的早期,平台上大多是纯粹的社交和广泛无害的内容,比如家人和朋友的更新和宠物照片。由于这些内容基本上是非政治性的,因此几乎没有必要评估内容的性质或作者的可信度,算法能够安全地基于参与度统计数据进行内容发布。

 

然而今天,社交媒体却成了政治活动的温床,奥巴马2008年的总统竞选被认为是社交媒体成为美国政治工具的起源,但这种变化绝不局限于美国,社交媒体在2010~2011的“阿拉伯之春”抗议活动中也发挥了重要作用,尤其是在埃及,社交媒体也为各种社会运动提供了平台。与此同时,社交平台也成为许多用户的主要新闻来源,2016年皮尤调查发现,美国超过60%的成年人使用社交媒体平台来了解时事。

 

社交平台的政治气息逐渐浓厚


当把算法应用于政治和社会问题时,无论内容的真实性或可信度如何,对用户的内容进行优先级排序可能会助长暴民的产生。至少有三个原因可以解释这种情况的发生:

 

首先,对参与行为的优化促进了两极分化和哗众取宠作风。皮尤研究中心在一项针对20万份新闻稿和Facebook帖子的研究中发现,美国国会议员表达“愤慨的争论”的帖子,相较于表达两党情绪的帖子多收到了50%的“赞”,并且前者的评论数是后者的3倍,分享数量是后者的两倍(见图1)。在推特上,分析人士观察到在唐纳德·特朗普上任的头100天里,随着内容变得“保守”,用户对Twitter的参与度也有所减少。对特朗普选举前的推文进行研究,发现参与度高的都是那些具有争议的推文,其中有些仅由大写字母组成。


图1(来源:“党派冲突与国会外展”,皮尤研究中心,2017年2月23日,www.people-press.org/2017/02/23/partisan-conflict-and-congressional-outreach/)

 

其次,平台算法导致了错误信息和虚假新闻的泛滥。对内容进行优先排序而不考虑内容的准确性,导致用户接触内容时并不清楚其真实性。2016届美国总统大选揭示了问题的严重性,以乔纳森·奥尔布赖特(Jonathan Albright)在俄罗斯的研究结果为例,他创建了针对美国公民的Facebook页面,这些网页上以“黑人主义者”、“美国穆斯林联合”和“安全边界”等命名,编造出一些政治敏感问题和社会团体问题。在被Facebook删除之前,这些虚假内容总共获得了3.4亿次分享。

 

最后,平台算法导致了“过滤气泡”。2015年一项针对1000多万Facebook用户关系网的研究显示出了明显的意识形态隔离。在自我认同的自由派关系网中,保守派所占比例仅为五分之一,而自由主义者在保守派关系网中所占的比例更小。社交媒体平台已经演变成了意识形态隔离的数字化平台,记者比尔·毕晓普(Bill Bishop)将此描述为“思想一致的人的集合体” 。


 

正如亨特·奥尔科特(Hunt Allcott)和马修·根茨科夫(Matthew Gentzkow)所表达的那样,意识形态隔离助长了虚假新闻和错误信息的传播,因为“从Facebook(或其他社交媒体)获得新闻的人不太可能获得有关真实世界的证据,而这些证据将与意识形态上一致而实际上错误的故事针锋相对。”此外,技术专家和互联网活动家伊礼·帕里泽(Eli Pariser)的研究表明,“过滤气泡”会导致认知差别,因为“消费符合我们世界观的信息是容易和愉快的”,而消费那些需要我们以新的方式思考或质疑我们原有价值观的信息是令人沮丧和困难的……因此,建立在‘点击信号’上的信息环境将有利于支持我们现有的世界观内容,而不是那些挑战世界观的内容。”

 

情况可能会变得更糟,因为随着时间的推移,随着平台收集越来越多的用户数据,以及它用于分析用户参与情况的技术的改进,定制个性化参与的能力也将会提高。

 

个性化迷思:用户想要什么?

 

“我们建造了建筑物,后来这些建筑塑造了我们。”

—英国前首相温斯顿·丘吉尔

 

可能有人会辩解,平台的算法只是向用户提供他们喜欢看到的内容。用户参与了一段内容的互动,说明这个内容是用户所喜欢的。一个有价值的想法将被广泛传播,而如果这个想法很烂,用户也不会参与传播,它将被限制在网络之外。根据这一逻辑,参与度优化是最有效和最中立的传播方式。

 

但实际上,这个论点是有缺陷的。研究行为经济学的诺奖获得者丹尼尔·卡纳曼(Daniel Kahneman)提出了两个认知系统。系统一是快速和本能的思考,它需要最小的脑力消耗,思维过程高效,但代价是可能犯错,这些错误本可以通过进一步思考来避免。系统二是一种较慢的思维方式,需要更多的投入和努力,但可以避免系统一的本能错误。举例来说,提供一份垃圾食品会引发系统一思维,因为这会产生本能反应,导致快速地接受或快速地拒绝。这种反应不同于更为深思熟虑的系统二思维,系统二思维可以通过要求某人计划他的一年的饮食来触发。


 

参与度驱动的算法捕捉的是系统一思维,被算法打上互动标识的内容很可能会吸引用户的兴趣,但是没有考虑用户思考之后希望以何种方式使用这个平台。内容分发算法旨在尽可能长时间地将用户留在平台上,这并无法反映用户想要使用多长时间。换句话说,向用户提供他们想看的东西和能吸引他们主动去看的东西是有区别的。

 

数据与社会研究院院长兼微软首席研究员达纳·博伊德(Danah Boyd)最早发现受注意力经济驱动的互联网存在潜在危险。在2009年Web 2.0博览会上的演讲中,她警告说:“我们的身体消耗脂肪和糖分,因为它们在自然界是罕见的……同样的,我们从生物学的角度来看,我们对刺激性的东西也很关注,比如粗俗的内容、暴力、性和八卦,这些都是侮辱性的、令人尴尬的以及无礼的。如果我们不加小心,就会发展出心理上的肥胖。我们会发现自己消费的内容对我们自己或整个社会都是最无益的。

 

平台之虑:商业利益VS公共利益

 

平台的商业模式让他们没有动力去改变正在做的事情,如前所述,对参与机制的优化意味着有更多展示广告的机会。除此之外,识别和衡量涉及公共利益的内容是非常具有挑战性的,正因如此,如果不最大化地提高用户参与度,公司收入就会减少。即便是调整算法的最优秀的程序员,也没有动力去识别那些对社会有好处的内容并确定优先顺序,因为他们的业绩评价很大程度上只与公司的收入和用户基础相关。



短期利益与长期利益在算法开发方面的紧张关系,并不局限于社交媒体平台,负责为金融部门公司开发算法的数学家凯茜·奥尼尔(Cathy O’Neil)曾描述了她是如何意识到自己工作的影响的:“我的对冲基金模型中设置的数据代表着某种东西,可以是人们的退休基金或者抵押贷款,回想起来,这是显而易见的。当然这我一直都明白,但我并没有真正认识到我们用数学工具撬开的五分硬币、一角硬币和四分硬币的本质。”

 

平台负责人则会否认这个问题的严重性,当受到批评时,他们往往强调社会媒体的积极贡献。2016年11月下旬,马克·扎克伯格否认Facebook上的假新闻对美国总统选举产生的影响,并谴责该说法是“疯狂的想法”,尽管他后来称自己后悔发布了这个声明。


社交媒体病态的算法受到了媒体的关注,现状急需改变,我们应该从根本上重新思考自己发布在社交媒体平台上的观点。

 

透明化:对抗暴民的策略

 

据说阳光是最好的消毒剂,电灯是最有效率的警察。

—前美国最高法院法官路易斯·D.布朗戴斯(Louis D.Brandeis)

 

平台应该摒弃业务驱动型算法,这种做法以牺牲社会福利来实现收入最大化。为了搞清权责,这些算法的输出必须更透明。因为算法为每个用户提供高度个性化的体验,所以我们不知道其他用户在消费什么。也正因为我们不知道其他用户的体验和网站正在传播的信息,我们也就不能及时追究那些散布虚假新闻和错误信息人的责任,而且我们也无法得知平台在何种程度上鼓励了两极分化和哗众取宠的内容。

 

透明化可以阻止不良行为者操纵平台系统,此外,如果学者、记者和其他相关方能够获得输出数据,那他们可以帮助理解问题的范围和性质,这些数据将成为一种让社交平台为其社会影响负责的手段。


 

目前,社交媒体公司与研究人员和其他相关方数据共享不足,原因有二。首先,平台对所共享的数据拥有完全的自由裁量权,平台没有义务分享数据,并且一般不会对引起批评的合作感兴趣。在2016年美国总统大选期间,Facebook最初以商业秘密为由拒绝公布政治竞选数据,只是在公众和媒体的压力下,他们才打算发布数据。

 

其次,平台给研究人员共享的数据是不够的。举个例子,用户举报违反平台服务条款的内容,随后由平台来删除,但平台不公开与删除内容相关的信息,我们也就不可能知道哪些信息已被删除,为什么被删除,发布者是谁以及什么时候进行的删除,平台不喜欢分享这些信息,因为它可能导致潜在的公众不适。

 

解决方案:开发公共利益API

 

Twitter和Facebook最近正在为提高透明度而采取措施,但还远远不够。

 

我们相信,所有使用算法发布内容的平台都应该开发一个标准化的公共利益API(一种用于共享和访问数据的标准接口),它可以提供在其网络上分发信息的详细概述,但同时尊重用户隐私、商业机密和知识产权。社交媒体公司已经使用聚合数据作为一种手段来改变自己的算法,引入新的产品特性并制定公司的策略。

 

这个接口可以共享三类数据:

 

  • 公共帖。恶性传播误导和操纵用户的帖子可以吸引大量围观者,但却不被追究责任。为了解决这个问题,平台应该为所有公共帖子提供数据,无论是由个人用户、组织还是页面创建,数据包含帖子的覆盖面和参与度,并提供受众的人口分类统计。这个API接口还应该披露不同地方和人口分组中最热门的内容,并识别出那些使公共帖呈现病毒式传播的影响者。这可以让记者、研究人员和公民等第三方及时发现平台上的趋势,并提醒平台方对有害趋势作实时响应。

 

  • 广告活动。所有广告都清晰可见的印刷和广播媒体时代已经过去,随着微型定位和社交媒体上“黑色广告”的出现,我们不再知道谁在向谁传播什么信息。这对我们检测虚假广告、政治涂鸦活动和选举操纵有巨大影响,平台需要通过公共利益API显示谁在购买广告,他们针对的是哪些群体,以及这些广告的具体内容。

 

  • 审查内容。所有社交媒体平台都制定了对违反其使用条款的内容进行审查的政策,即使如此,他们的算法也会使未被禁止的内容在被发现和移除之前分发一段时间。

 

平台可以用公共利益API来揭示这些删除材料的内容和来源,这些内容在删除之前传播了多久,以及在此期间哪些用户获取和接了这些触内容。公众对这些数据的访问将迫使社交媒体公司加快行动,以删除违反其政策的内容并将其保留以供未来研究。它还可以使记者和研究人员了解什么样的内容最经常被审查,并证实平台的审查行为没有超出规定范围。

 

来源:Twitter的透明度报告

 

透明度不再是一种选择。我们需要从根本上改变科技行业的做法,让我们之间的沟通方式发生变化。盲目推出对社会有重大影响的产品而不附带透明度不再让人接受。


我们希望这里提出的公共利益API模式,将有助于使社交媒体平台成为一股积极力量。尽管透明度不是一个完整的答案,但缺乏透明度是可持续解决方案的一个障碍。Facebook、YouTube和Twitter的负责人都宣称透明度的价值观,现在是时候让这些公司用相应的行动来配合他们承诺,而且,越早越好。


柏拉图在《乌托邦》里写到:“不因小快乐而妨碍大快乐,不因快乐而引起痛苦后果。乌托邦人认为,低级快乐一定带来痛苦后果。”风波之后,适合痛定思痛。


 

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存