今天我们不谈美国总统特朗普
对抖音海外版TikTok的封杀
算法
双刃剑
在抖音之前,字节跳动的爆款APP今日头条的Slogan是:“你关心的,才是头条”。它和抖音一样,不断根据你喜欢的内容来推荐新的内容。同样,淘宝、京东等也大量采用了兴趣推荐这样的算法(谓之千人千面)。
算法的好处是,你会更容易找到你感兴趣的资讯或商品。弊端呢?它让人“上瘾”,让你与不同的意见信息分离,被隔离在自己的文化或思想泡沫中。
“抖音五分钟,人间三小时”这种人间真实,正是新闻传播学中所说的“信息茧房”。
今年这个专业名词,与“高考作文”一起登上了微博热搜。
2020年高考作文江苏卷关注到了这个话题。
“人们总是关注自己喜爱的人和事,久而久之,就会被同类信息所环绕、所塑造。智能互联网时代,这种环绕更加紧密,这种塑造更加可感。”
信息茧房是2001年桑斯坦在《网络共和国》提出的概念,指的是公众自身的信息需求并不是全方位的,他们只会注意自己选择的和能够使自己愉悦的东西,久而久之,会将自己处于一个同质化的信息环境中,就像一个“茧房”。
事实上,作为一个专业术语,信息茧房的出现,也伴随着多个学术热点话题。比如:算法、过滤泡等。
2011年3月,伊莱·帕里泽在TED的一次演讲中提出了“过滤泡”的概念,用来指认一种“智能隔离状态”:受技术媒介的影响,用户与不同的意见信息分离,被隔离在自己的文化或思想泡沫中。
帕里泽呼吁那些可以形塑互联网功能的巨头公司,要正视这种信息过滤形式,仔细考虑其可能给社会带来的负面效应。该演讲虽然只有不到10分钟,但在YouTube网站上点击量累积超过400万次。之后在此基础上出版的《过滤泡》一书,引发了轰动式的反响。
本书虽然成书于2011年,中间互联网历经天翻地覆的变化,书中提到的一些互联网公司和应用甚至已经成为“互联网历史”,但另一方面,书中的观点和结论不仅没有过时,反而得到后来更多现实案例的印证和支持。当我们满怀期望即将进入一个高速互联、线上线下无缝对接、全景式沉浸传播的时代时,多年前作者对于互联网未来生态发展的愿景,而今依然能够获得广泛的共识。
“过滤泡”这一概念的重要社会影响在于,它指出了互联网巨头能够凭借自身的技术能力,对信息流动进行重组和垄断,它提醒用户在使用互联网时,要切实关注自身的隐私保护,对搜索引擎和各类网络应用保持清醒的态度。因为对于善的公共生活而言,透明且多样化的信息环境至关重要。《过滤泡:互联网对我们的隐秘操纵》近日出版。今天推荐译者方师师老师为本书所作的导读《关于互联网,你需要知道的事》。
方师师 | 文
互联网意味着与整个世界连接,将所有人联系起来。而搜索引擎作为互联网的入口,每天引导着数十亿用户的信息访问。人们通过搜索引擎服务关注时事新闻,查询健康信息,了解产品资讯,进行社交互动。以谷歌为例,作为世界上最为流行的搜索引擎,其每秒钟有6.3万次搜索,一天可以达到55亿次,全年至少有2万亿次。中国互联网络信息中心(CNNIC)2020年4月发布的《第45次中国互联网络发展状况统计报告》显示,截至2020年3月,我国搜索引擎用户规模达7.50亿,手机搜索用户规模达7.45亿,高居网民各类互联网应用使用率的第2位。
无须多言,搜索引擎为用户提供了一种在海量信息时代快速便捷获取信息的方案,但在享受这一便利的同时,一系列问题则开始引发关注。谷歌、脸书、亚马逊、网飞等一些互联网巨头公司通过搜索引擎的过滤器和算法,来决定我们在互联网上能看到什么,不能看到什么;雅虎新闻、《赫芬顿邮报》、《华盛顿邮报》、《纽约时报》等都在大力推广个性化服务,致力于让不同的用户得到不同的信息。2019年初,引发热议的“百度搜索变成百家号搜索”事件指出了搜索引擎对于新闻呈现的偏向问题;有媒体曾报道山东临沂一女子误信百度排名推荐的医院,去清洗手部文身不成反添新疤痕,而该医院正是之前被揭发与百度“竞价排名”有着密切利益关系的“莆田系医院”之一。算法霸权、隐性操纵、算法偏向、虚假信息、竞价排名、隐私泄露等问题,使得互联网公司的技术机制、信息来源和商业模式饱受质疑。而对于这个问题虽然不是最早但最为著名的观点,就集中体现在美国互联网观察家伊莱·帕里泽的这本《过滤泡》中。伊莱·帕里泽1980年12月17日出生于美国缅因州林肯维尔,2000年毕业于巴德学院西蒙洛克分校,获得法律与政治科学学士学位。目前是Upworthy网站执行总裁,之前担任过网络民运先锋组织MoveOn.org的主席和执行董事,还是全球规模最大的公民社团之一Avaaz.org的联合创始人。由他执笔的评论曾刊登在《华盛顿邮报》《洛杉矶时报》《华尔街日报》的论坛上。2011年3月,伊莱·帕里泽在TED的一次演讲中提出了“过滤泡”的概念,用来指认一种“智能隔离状态”:受技术媒介的影响,用户与不同的意见信息分离,被隔离在自己的文化或思想泡沫中。帕里泽呼吁那些可以形塑互联网功能与使用的巨头公司要正视这种信息过滤形式,仔细考虑其可能给社会带来的负面效应。该演讲虽然只有不到10分钟,但在YouTube网站上点击量累计超过400万次。帕里泽有着强烈的社会公共意识,认为互联网公司有义务也有能力将公共利益纳入自身的考量范围,发挥工匠精神和技术优势,让算法更透明,让用户更知情,让服务更可信。之后在此基础上出版的《过滤泡》一书,更是引发了轰动式的反响。实际上,帕里泽还有一本书也讨论了一个与此相关的问题:个性化的网络如何改变了我们的所看所想?至此,“过滤泡”同“信息茧房”“回音室”等概念一道,成为论述互联网结构性社会影响的关键概念。第一种是“管道论”。该观点认为,搜索引擎是连接人与网络世界的一条管道(conduit),其存在的意义就是如实地将网络世界的信息传达给用户。“管道论”带有明显的网络中立和技术中立的思路,强调搜索引擎这一“技术物件”是“价值无涉”的。2009年时,垂直搜索引擎Foundem的联合创始人亚当·拉夫(Adam Raff)在《纽约时报》上发表文章,指责谷歌的搜索引擎为突出自己旗下的比价产品排挤其他品牌。针对这一现象,拉夫呼吁执法部门应当以违反“搜索中立”原则为由对谷歌进行管制。第二种是“编辑论”。与“管道论”的“价值中立”不同,“编辑论”认为搜索引擎可以对内容进行自主选择,有权决定将哪些信息呈现给哪些用户。2013年发表于《纽约时报》的评论文章《谷歌像汽油还是像钢铁》(Is Google like gas or like steel?)就是对于这一观点的集中体现。该文认为,搜索引擎的性质和出版社十分类似,出版社编辑有权按照自己的标准对书稿进行编辑,那么搜索引擎也有权根据自己的理解从浩瀚的互联网中挑选出提供给用户的信息。文章作者认为,搜索引擎的这种权利是得到了美国宪法第一修正案确认的,因此应得到保护。第三种是“顾问论”。美国马里兰大学法学院教授詹姆斯·格里梅尔曼(James Grimmelmann)曾对“管道论”和“编辑论”都提出了批评,认为这两种理论都只是站在搜索引擎的角度谈问题,却忽略了搜索引擎的服务对象——用户。在他看来,理想的搜索引擎应该站在用户立场上,像顾问一样为用户提供所需要的信息。根据这一观点,“搜索引擎系统地倾向支持某一类型的内容并非过错”,但前提是这种倾向是基于用户的偏好进行的。就本书而言,帕里泽对于搜索引擎的观点可能更偏向于第三种,但又更进一步。首先,对于搜索引擎的这三种隐喻式的观点代表了对技术在信息传播过程中应该承担何种角色的主要认知,但这些隐喻基本上都是从静态的、单向的角度来看待这个问题的。在本书中,作者将搜索引擎对于内容的呈现表现为一个动态的、共谋的过程,通过大量的案例和访谈强调其是一种“技术与社会互动的机制”。其次,不管是“管道论”“编辑论”还是“顾问论”,都不能简单地照搬过来作为评价搜索引擎的标准。在本书中,作者提出了一种更为全面、客观的“社会福利”视角,从而避开了单一的运营商或用户的主观视角,或许更为可取。最后,不管是何种论断,这些观点都回避了一个重要前提:用户如果对搜索引擎的信息呈现机制一无所知,那么如何判断这些经由算法和利益调整后的结果?本书恰恰捅破了搜索引擎这层“窗户纸”,指出了这是件技术的“皇帝新衣”。搜索引擎位于互联网经济的核心,如此重大地影响人们生活中诸多关键决策,但其社会影响形式却是隐秘的。哥伦比亚大学法学院教授吴修铭(Tim Wu)认为:通信技术的每一次主要变迁都遵循着相似的模式,最先出现的是短暂却足以让人感到兴奋的开放性阶段,随后带有垄断性质的封闭性阶段会逐渐取代前者。这是一种“双重封闭”:一方面是技术本身的不透明性,另一方面则是对于用户信息接触的封闭性。正如任何一种技术都有其运作的社会场景,多种要素会共同影响用户的搜索引擎使用体验。这一过程的核心,会涉及互联网公司的排序算法、网页内容生产者对于搜索算法的利用和迎合,以及目前更为流行的基于用户使用习惯的个性化推荐等。而在搜索引擎提供的知识民主化的表象下,政治与商业对于知识的控制从明处走向了暗处,变得更加隐蔽,难以察觉。网络技术对于信息传播具有“非对称性”:一端是广谱性的高效与便捷,另一端则是以牺牲公共利益为代价的特殊利益殖民化。当用户选择使用某个搜索引擎时,实际上是将自身对于信息接收的权利出让了一部分交给运营商和算法,让其“代理”用户进行信息获取。那么在这个过程中,运营商有责任公开其对于信息聚合、筛选、排序、推送的机制和效果,用户也有权自主选择结果。一系列对于搜索引擎的激烈争议也表明,这一技术有可能滥用了用户对返回结果的自然信任,模糊了对算法偏向的讨论,垄断了在线内容的可检索性,其效果类似于信息操纵。2015年一篇关于搜索引擎操纵效应的研究显示,谷歌带有偏向的搜索算法可以很容易地改变摇摆选民超过20%的投票偏好,在某些群体中这一改变甚至可以达到80%,但几乎没人知道他们正在被操纵。另外,受益于搜索引擎提供的便捷服务,用户会过度信任搜索结果,缺乏对其进行批判反思的意识,更少人会采用多种搜索工具交叉比对核实的方式定位信息,这种误导性的信任会加剧信息的非均衡分发,形成信息茧房和过滤泡,推动错误信息的传播。“过滤泡”的概念提出后,也引发了一系列质疑、研究和讨论。比如哈佛大学法学教授乔纳森·齐特林(Jonathan Zittrain)对个性化过滤器扭曲谷歌搜索结果的程度提出质疑,称“搜索个性化的影响是轻微的”;沃顿商学院的研究发现,过滤器实际上可以在网上音乐品味中创造出共同性而不是将其碎片化;还有研究认为“过滤泡”现象被夸大了,实验发现搜索引擎给出的结果在人与人之间只有微小的区别,与意识形态几乎没有关系。无论支持还是反对,的确是“过滤泡”这个概念启发并开启了这一系列的研究。本书虽然成书于2011年,其后互联网历经天翻地覆的变化,书中提到的一些互联网公司和应用甚至已经成为“互联网历史”,但书中的观点和结论不仅没有过时,反而得到后来更多现实案例的印证和支持。当我们满怀期望即将进入一个高速互联、线上线下无缝对接、全景式沉浸传播的时代时,多年前作者对于互联网未来生态发展的愿景,而今依然能够获得广泛的共识。“过滤泡”这一概念的重要社会影响在于它指出互联网巨头能够凭借自身的技术能力,对信息流动进行重组和垄断,它提醒用户在使用互联网时,要切实关注自身的隐私保护,对搜索引擎和各类网络应用保持清醒的态度。因为对于善的公共生活而言,透明且多样化的信息环境至关重要。(本文作者方师师为《过滤泡》一书译者,复旦大学新闻学博士,社会学博士后,上海社会科学院新闻研究所助理研究员,互联网治理研究中心主任。)
互联网越来越少地向我们展示广阔世界,而把我们锁定在熟人邻里之间。正如伊莱·帕里泽所说的,其风险在于,我们每个人都可能无意中聚集在了一个贫民窟中。
——克莱·舍基,
《人人时代》和《认知盈余》作者
“个性化”听起来很温和,但是伊莱·帕里泽巧妙地构建了一个案例,指出它在互联网上的出色表现将引发一场信息灾难——除非我们注意到他的警告,以及保持一流的新闻敏感度和进行正确的分析。
——史蒂夫·利维,《谷歌总部大揭秘》作者
伊莱·帕里泽忧心忡忡。他非常关心我们共同的社会领域,认为它处于危急之中。他对互联网趋势的彻底调查让我也心有戚戚。他甚至给我讲授了很多关于脸书的事情。《过滤泡》一书必读。
——戴维·柯克帕特里克,《脸书效应》作者
一个由熟悉的世界构成的世界是没有任何东西可以学习的,隐形的自动宣传用我们自己的想法再灌输回我们。
——《经济学人》
在《过滤泡》一书中,伊莱·帕里泽详细分析了每一次点击、刷新和敲击键盘如何让接下来出现的信息发生变形,由此创造出一种近乎虚构的量身定制的现实。
——《纽约时报》
《过滤泡》一书提出了以下重要的问题,当大型互联网公司垄断技术和数据时,我们如何来认知和面对这一新型的“监控”和“霸权”,这一重要的社会中介形式又将给我们的社会带来怎样的影响和挑战?
——李良荣,复旦大学新闻学院教授,
浙江传媒学院新闻与传播学院院长
对整合型隐私的伤害不仅仅表现为隐私主体在短期内“无感”,有时还不断主动提供伤害的资源——持续提供数据信息以促使隐私主体接受个性化服务,于是,“隐私悖论”成为每个现代社会成员深陷其中的一个困局。
——顾理平,中国新闻史学会
媒介法规与伦理研究委员会会长
在互联网时代,期盼、呼吁“科技向善”的同时,提升网络素养也是当务之急。“过滤泡”概念使我们得以重新审视基于搜索引擎的信息获取模式的弊端,更好地趋利避害。
——戴丽娜,上海社会科学院
新闻研究所副所长
《过滤泡》这本书重点分析搜索引擎在个体认知和集体意识的形成、演化过程中可能产生的影响,提供了一个可用于探讨技术和数据利用的社会影响的分析框架。目前,中外网络安全及数据安全立法的关注点正在从传统的保密性、完整性、可用性转向规制技术和数据在利用过程中可能带来的各种安全风险。相信这本书将有利于各相关群体更有效地参与到立法和监管的讨论过程中。
——洪延青,国家标准
《信息安全技术个人信息安全规范》主要起草人
延伸阅读