查看原文
其他

华政学报 | 张凌寒 搜索引擎自动补足算法的损害及规制


搜索引擎自动补足算法的损害及规制


作者简介

张凌寒 北京科技大学文法学院副教授,法学博士

目  次

一、迥异的判决:搜索引擎算法损害责任的认定路径

二、考量的因素:不同的法律地位理论与政策利益权衡

三、规制的原点:搜索引擎作为基于算法的信息发布者

四、规制的进路:责任的框架与考量的因素

摘  要

谷歌、百度等搜索引擎的自动补足算法可在用户输入关键词后自动补足搜索内容,提供搜索建议。然而,算法提供的联想词可能造成侵害个人名誉、隐私,著作权、商标权乃至公共利益的多种算法损害。不同国家与地区的既有案例中,一些基于搜索引擎是信息发布者或帮助侵权而肯定搜索引擎的法律责任,一些则认定算法技术客观中立或搜索引擎享有言论自由而否定其法律责任。迥异判决的原因既隐含搜索引擎在信息传播中作为“信源”还是“信道”的理论假设之争,也包括国家产业利益和安全利益的考量。从信息论的角度,搜索引擎的实际法律地位是基于“算法的信息发布者”,兼具信源与信道属性,既是盈利性企业又具有公共产品特征。因此,应以“基于算法的信息发布者”作为规制搜索引擎算法损害的原点,为搜索引擎设置算法看门人的注意义务。搜索引擎的算法责任框架设计,应考量算法处理数据所涉的利益类型,算法对用户行为的干预能力,构建安全利益、公共利益与个人利益信息分层框架。

关键词

自动补足算法 搜索引擎 算法损害 算法看门人 滋扰

搜索引擎的自动补足算法能够在用户输入搜索关键词后,自动联想提供搜索建议。此项设计初衷为用户提供便利,减少其打字数量提高搜索效率。然而,当自动补足算法能够生成真实或者误导的信息时,搜索建议可能造成多种损害。其一,最为常见的虚假信息涉嫌名誉权或隐私权损害,例如德国的前第一夫人贝蒂娜•武尔夫起诉谷歌要求其承担诽谤责任,其自动补足算法暗示武尔夫夫人曾从事过色情服务行业。百度被金德管业起诉,因其提供的搜索联想词暗示金德管业存在欺诈等行为。真实信息也可能造成隐私权损害,西班牙谷歌案件中,原告要求谷歌删除多年前的个人敏感信息。其二,自动补足算法可能造成商标权与著作权损害。如输入某个电影名称,自动补足算法提示“免费下载”。其三,自动补足算法造成公共利益损害,例如2016年5月在英国谷歌输入“我如何加入”,自动补足算法提示的建议会包括“我如何加入ISIS(一个伊斯兰极端组织)”。2017年11月,Buzzfeed News发现,在YouTube上搜索“how to have”时,给出的自动化搜索建议竟然是“如何与你的孩子发生关系”。

搜索引擎是否应为自动补足算法承担相应责任,一直存在争议。目前为止,世界范围内的诉讼结果呈现巨大差异。搜索引擎主张无责的理由包括:搜索提示是由算法自动生成,搜索结果符合技术中立,自身并无过错与审查义务等。主张搜索引擎应当承担法律责任的判决虽然理由不尽相同,但一般基于私法权利保护角度,或出于支持当事人的被遗忘权,或出于搜索引擎并未履行通知删除义务等。不同的判决体现出算法损害在传统法律框架下的认定困难。

搜索引擎自动补足算法的损害如同一片棱镜,折射出算法广泛嵌于不同应用场景和平台架构之后,对传统理论与司法实践提出的挑战。无论是通用搜索引擎(如谷歌、百度)还是垂直搜索引擎(如淘宝和YouTube),早已成为网络用户获取信息最重要的来源。诚如詹姆斯•格里梅尔曼(James Grimmelmann)所言:“互联网中的信息越来越庞杂,而搜索引擎是互联网的新支柱。它们是图书管理员,处理网络混乱庞杂的信息。它们是评论家,把内容提升到显眼的位置,或放至毫不起眼的位置。” 那么,搜索引擎(等平台)是否应该为自动补足算法产生的结果承担法律责任?如果应当承担,那么这种法律责任的理论基础又是什么?应该以何种进路规制搜索引擎(等平台),以避免算法运行带来的损害?这些问题亟待解决。


一、迥异的判决:搜索引擎算法损害责任的认定路径

有关搜索引擎法律责任的迥异判决背后隐含着对两个关键问题的不同解读:其一,搜索引擎的法律地位;其二,搜索引擎在侵权行为中的作用。肯定搜索引擎责任的判决基于其作为信息发布者的地位与搜索引擎帮助侵权的作用,否认判决则基于算法的技术中立免责与其享有言论自由。

(一)肯定责任的判决:搜索引擎作为信息发布者或帮助侵权

肯定搜索引擎侵权责任的案件中,认定责任的基础分为地位论与作用论。地位论认为通过技术原理分析,搜索引擎应该被认定为主动和积极的信息发布者,进而需承担侵权责任。作用论则从搜索引擎在侵权行为中的作用,认定其帮助侵权进而需承担侵权责任。

1. 地位论:信息的缓存与发布者

搜索引擎的自动补足算法能够为网络用户提供搜索建议,肯定侵权责任的判决将这种行为认定为信息发布,进而否定算法中立的辩护而要求搜索引擎承担侵权责任。

面对搜索引擎主张“算法技术中立”和“算法自动生成建议”的辩护,各国判决从技术角度来论证搜索引擎信息发布者的地位。简单将自动补足算法生成搜索建议过程解释为以下四个步骤:第一步,搜索引擎累积内容;第二步,用户输入关键词;第三步,搜索引擎通过自动补足算法与关键词相联;第四步,用户收到搜索建议。因此,自动补足算法生成搜索建议是搜索引擎、网页内容提供者、网络用户的互动行为。

法院的推理同样从技术的角度展开。自动补足算法是搜索引擎一项独立的功能,引入了搜索引擎累积的信息内容作为资源。这时搜索引擎的法律地位不再仅仅是信息通道和技术服务提供者,而是独立的信息发布者。在2011年意大利米兰法院的判决中,谷歌的自动补足算法把“欺骗、骗局”作为原告姓名的搜索联想。谷歌抗辩其自动补足算法的搜索联想只是“他人提供信息的存储活动”。然而,法院认定,恰恰由于谷歌“托管了所有用户的搜索结果”,并且经过算法“特定方式加工”而提供给其他用户,因此不适用避风港条款而作为信息发布者承担侵权责任。此种通过技术确定信息发布者的法律地位的说理路径在其他欧盟国家的案件中较为常见。

欧盟之外的某些国家也采取了这一说理路径。2012年11月12日,澳大利亚音乐人Michael Trkulja诉谷歌的案子胜诉,因为谷歌的自动填充功能错误地将其与有组织的犯罪和谋杀联系在一起。此案中,谷歌被认定为“信息发布者(publisher)”进而承担了诽谤责任。谷歌在美国采取的言论自由的辩护策略在美国境外普遍受挫,一方面在欧洲言论自由并不涵盖自动补足算法提供的信息,另一方面欧盟法院通过技术分析,搜索引擎因对自动补足算法的控制成为信息发布者。

2. 作用论:帮助侵权行为实施

除了直接认定信息发布者的地位论以外,另一些判决采取了较为缓和的“作用论”——即通过认定自动补足算法的帮助侵权行为的作用,来认定搜索引擎的侵权责任。

日常的搜索经验表明,自动补足算法提供的搜索建议具有较强的引导搜索作用。当用户输入一个关键词后,即使自动补足算法提供的建议并不匹配用户的初步意向,也会引导用户的好奇心,转而点击自动补足算法的搜索建议。在这种情况下,自动补足算法不仅仅是加速搜索,而是具有“促进”与“定位”的作用,使得算法的搜索建议变得更加热门。而用户会更多点击自动补足算法提供的建议,因此提高此项建议的点击量,使得自动补足算法提供此项建议的可能性增加,形成恶性循环。

这种性质与效力十分模糊的搜索建议行为引起了欧盟国家广泛的司法审查。在法国最高法院的案件中,法院认为搜索建议引发了用户的好奇心,使得他们的搜索转向了算法的建议。这进一步形成了“雪球效应”,使得谷歌 “中立的算法”这一抗辩理由不再成立。自动补足算法通过引导用户搜索方向,使得用户点击量增加,构成了对侵权行为的帮助。

早期,搜索引擎承担侵权责任的情况往往局限于算法提供了诽谤类的不实信息,如德国联邦法院2013年的案件。在西班牙谷歌案件之后,搜索引擎由于算法承担侵权责任的情况扩展至算法提供了真实的合法信息。原告发现通过谷歌将自己的名字与之前的房屋拍卖信息相连,提起了诉讼。西班牙法院支持了原告的诉讼请求,理由就是搜索引擎算法可能削弱或者扭转用户本身的搜索结果,完成个人身份与信息的联结。“作用论”从搜索引擎算法在获取信息中的作用来论证其法律责任的路径,将搜索引擎算法侵权信息的范围从非法信息扩展至了合法信息。

我国行政部门有以“作用论”认定网络平台行政责任的先例。2015 年,国家工商总局直指阿里巴巴纵容用户销售侵权和违禁商品,通过自动分类、提供搜索工具算法,“涉嫌在明知、应知、故意或过失等情况下为无照经营、商标侵权、虚假宣传、传销、消费侵权等行为提供便利、实施条件”,客观上帮助了违法行为的实施。由此可见,因算法的部署、应用而承担法律责任在欧盟与我国均有先例。

(二)否认责任的判决:算法技术中立或言论自由论

围绕同一问题,不同的说理导致了完全不同的判决结果。否认搜索引擎因自动补足算法承担责任的判决同样可分为作用论与地位论。作用论认定算法作为技术客观中立,因此搜索引擎并无主观过错不应承担侵权责任。地位论则将搜索引擎由算法产生的结果作为言论,搜索引擎因享有言论自由而免责。

1. 作用论:算法技术客观中立

否定搜索引擎法律责任的常见说理路径为,补足算法自动生成搜索建议——搜索引擎没有主观过错——因此无需承担侵权责任。由于搜索建议由自动补足算法生成,而非搜索引擎主动发布,其经常主张技术中立原则而拒绝承担责任。例如在德国武尔夫夫人的案件中,谷歌提出的抗辩即为“搜索结果由算法自动生成” 。

基于法律和政策考虑,搜索引擎很多次选择了算法技术中立,没有主观过错的辩护策略并取得成功。技术中立原则也称“实质性非侵权用途原则”,指销售一种同时具有合法和非法用途的商品时,可免负侵权责任。在技术中立原则下,技术的使用者和实施者只要没有主观上的过错,就无需为技术作用于社会的负面效果承担责任。如我国2015年的任某诉百度名誉权案件中。任某以其在教育和管理领域享有声誉、百度搜索将“陶氏教育”“陶氏”与其姓名关联、陶氏教育口碑不佳为由,以其名誉、姓名及“被遗忘权”受侵害为由起诉百度公司。法院认为,百度提供的搜索建议“即任某姓名系百度搜索引擎经过相关算法的处理过程后显示的客观存在网络空间的字符组合”,“检索词的序列动态变化、时时更新。故百度公司对相关关键词在搜索结果中出现并不存在主观过错。” 

由于算法补足的内容是自动生成的,因此很难符合欧洲既往诽谤案例中严格的主观过错认定条件。如在英国一诽谤案中(Bunt v Tilley),法庭认为侵权责任的成立必须具有主观要素,而搜索引擎仅仅提供了网络服务的便利。这样并不满足诽谤的条件,即必须既具有发布信息的意图又发布了实质性内容,因此行为人可主张合理传播进行辩护。在英国大都会国际学校与技术设计公司一案中,法院再次确认了这一立场。当原告搜索自己名字时,其他网站上的诽谤通过搜索建议以“片段”的方式呈现出来。法庭认为,搜索引擎并未通过输入产生搜索建议,没有授权或者使此代码在用户的屏幕上出现,而仅仅是扮演了“提供便利的角色”(即网络服务提供者)。在作用论的判决说理中,技术中立成为搜索引擎的免责金牌。

2. 地位论:信息发布者享有言论自由

美国产生了一系列否认搜索引擎因算法承担侵权责任的案例,这些案件的判决法院采纳了以下说理路径:自动补足的搜索建议可以控制——搜索引擎是信息发布者——搜索引擎的言论自由受到保护。在这种路径下,搜索引擎需要证明自己可以直接控制和影响搜索结果,所以搜索结果并无中立的可能,而必然存在主观搜索偏倚。既然是一种主观偏倚的言论,自然享有美国宪法所赋予的言论自由,免于承担侵权责任。

既往美国的案例中,谷歌多次采用了“言论自由”的辩护思路。例如在搜索王与谷歌的案件(Search King v Google)中,搜索王(Search King)公司声称谷歌的恶意篡改网页排名算法导致其访问量急剧下降。法庭认为算法并非“客观的”“中立的”,“谷歌从来没有放弃其作为言论者的权利,即选择向用户提供何种信息以及如何提供这些信息”。这一观点在兰登(Langdon)公司与谷歌、雅虎等搜索引擎的案件中也得到了体现。法院认为谷歌、雅虎移除与原告相关的搜索结果只是合法行使“编辑者的决定”,因此其行为受到宪法保护。在这一说理路径中,核心要素是搜索引擎因对算法的控制能力而享有信息发布者的法律地位。这种控制能力甚至直接得到了谷歌公司自己的确认。例如从2012年8月开始,谷歌宣布一些网络下载软件的搜索建议被移除,因为“将盗版的可能性作为搜索建议考量的内容”。因此在美国的众多案例中,搜索引擎大量采用了承认其对搜索排名和建议的控制能力,进而被承认为言论发布者,享有宪法保护的言论自由的辩护策略。

同样通过搜索引擎自动补足算法的技术分析,但判决却认定搜索引擎“信息发布者”和“服务提供者”的不同法律地位。同样是分析搜索引擎算法在信息传播中的作用,却可以得出“技术中立”与“信息引导与集合”不同能动作用的结论。相同的说理进路得出迥异的结论,其原因值得探究。

二、考量的因素:不同的法律地位理论与政策利益权衡

不同说理路径的背后隐含着多重因素的综合衡量。搜索引擎是否基于自动补足算法承担法律责任的因素,一方面包含着对搜索引擎及算法的不同法律地位的理论解说,另一方面基于各国法院与政府在不同案件中的政策价值取向。

(一)法律地位考量:信源或信道的理论选择

搜索引擎是否应为自动补足算法承担侵权责任的争议来源于两点:第一,自动补足算法是技术中立的还是可控的?第二,算法生成的搜索建议是客观的还是主观的?不同回答背后隐含着搜索引擎法律地位的假设。从信息论角度看,信息传播各部分可分为信源(信息发布者)、信道(传播媒介)和信宿(信息接收者)三部分。认为算法中立、自动补足建议客观的判决,背后隐含着搜索引擎是信道的假设;认为算法可控,自动补足建议主观的判决则隐含着搜索引擎是信源的假设。

1. 作为信道的搜索引擎:客观中立的算法假设

互联网发展早期,搜索引擎被视为与电报、电话等公共服务无异,被描绘为互联网的地图。言论只有通过媒体才有机会被公众得知,因此需要法律对媒体的监管而遵循公共利益原则,防止私人公司对言论的私人审查。为此,电信运营法律长久以来都遵循无歧视原则。无歧视原则的具体体现,则是电话与电报被视为公用事业公司,以及后来的“网络中立”原则。

“媒体”理论后修正发展为“信道”理论,但仍坚持认为,搜索引擎对言论自由等公共利益有巨大影响,应该“客观、中立” 。搜索引擎与传统媒体的不同在于,其功能是将其他媒体与网站的言论呈现给网络用户。一些学者甚至认为应该建立“搜索中立原则”确保各网站都有被搜索到的权利。而判定谷歌因为具有垄断性市场主导地位,因此要提供客观中立搜索结果不应歧视网页也是基于信道理论。

在搜索引擎是“信道”的理论假设下,可以得出两点结论:其一,自动补足算法是一项客观中立的技术;其二,补足的搜索建议由用户搜索发起,并由算法自动生成。由此可推断搜索引擎并不需承担侵权责任。当搜索引擎使用“技术中立”为自动补足算法的建议辩护时,实际上是从信道的角度考虑,因为只有信道才有客观中立的可能。同样,当搜索引擎要求使用避风港原则时,也是将自身作为信道。

2. 作为信源的搜索引擎:可控算法的侵权责任

与信道理论不同,搜索引擎的“信源”理论将搜索引擎看作是信息的发布者,而自动补足算法则类似发布信息的编辑。在这种理论假设下,自动补足算法的搜索建议被认定为编辑的结果,进而搜索引擎作为言论的发布者,或确认搜索建议是言论自由予以保护,或确认搜索建议是算法发布的信息认定责任,背后隐含着同样的假设。

自动补足算法的搜索建议从形式上更加符合信源理论。虽然网页排序是否是搜索引擎发布的信息存在争议,但搜索建议在用户输入关键词后直接生成,因此诸多判决都采取了信源理论。正如谷歌的搜索引擎工程师宣称,“某种程度上当人们使用谷歌,就是在寻求我们的编辑性的判断。”

然而信源理论实践中存在缺陷:由于搜索引擎算法主观上过错难以举证,必然导致根据侵权结果倒推主观过错的判决说理路径。网络技术使得法官难以判断搜索引擎类的网络服务提供者的主观过错。仅以我国为例,如网络服务提供者是否“知道”有复杂的认定体系,如要考虑网络服务性质、侵害权益的类型、浏览量等等。而自动补足算法发布的意图仅通过侵权结果来推断难以令人信服。

由此可见,看似纷乱的迥异判决实际上是采用了不同的理论假设。认定搜索引擎为信道,自然推论是自动补足算法仅是中立的技术;认定搜索引擎为信源,则可根据不同损害类型判定搜索引擎承担不同法律责任。然而,两种理论均有解释上的缺陷,实践判决中的采用随机性也证明了其均不完备。那么,是什么决定了各国在司法实践中选择不同的理论呢?

(二)政策利益考量:产业、公共与私人利益

无论是通用搜索引擎(如谷歌、百度)还是垂直搜索引擎(如淘宝和YouTube),早已成为网络用户获取信息最重要的来源。因此,搜索引擎覆盖着从国家利益、公共利益到公民个人利益等多层次法益。不同的利益倾向使得类似的案例在不同国家得出了迥异的判决。

1.基于产业利益的不同选择

案例梳理显示,美国与中国等互联网产业较为发达的国家,基于产业利益选择审慎地为搜索引擎设置法律责任。而欧盟等国家和地区的判决则普遍显示严格保护个人权利的传统倾向。

美国和中国一般对认定搜索引擎的侵权责任持较为谨慎的态度。美国模式继续以传统的侵权责任司法救济模式来保护个人权利,为技术创新留够足够的空间。美国传统的侵权法通常将侵权主体分为两类:信息的出版商和分销商。信息的分销商如电话、电报等无法控制通过其网络传输的内容,且法规要求它们为所有客户提供服务,所以它们对其他人发布的侵权内容不承担责任。1996年美国《通信内容端正法案》(Communications Decency Act,简称CDA)在互联网领域沿用了“出版商”和“分销商”的分类,CDA第230条规定交互式计算机服务者不被视作其他内容信息提供者所提供信息的出版商,为网站和互联网服务提供商提供强大的豁免权。例如在美国第九巡回法庭的案例中,进一步确认了搜索引擎仅仅是“中立工具”而非信息出版商的法律地位。根据美国法院的诉讼先例,仅对网上资料的一般修订都不会使网站成为“信息内容提供者”。目前美国尚未在自动填充算法侵害个人名誉权等案件上作出明确判决,原因在于因交互式计算机服务提供者在CDA下受到保护。目前美国仅可查到的自动补足算法搜索建议侵权的案例,也以原告的撤诉而告终。

我国的法官对向搜索引擎施加注意义务也极为审慎。我国第一例自动补足算法的诉讼中,尽管经过一、二审的反复,最后判决仍倾向于为互联网产业留足发展空间。金德管业诉百度案件的一审判决中,法院认为自动补足算法提供的搜索建议“上述文字的存在的确会对金德管业公司的名誉造成损害。北京百度公司未尽到相应审核义务的行为在主观上存在过错”,但在二审采取了相反的立场,认为百度不需承担审核义务。这一司法精神继续体现在了之后的案件中。

与此形成鲜明对比的是,欧盟等国家并无发达的互联网产业,又有保护个人权利的传统。因此对搜索引擎等互联网公司施加注意义务成为其互联网政策博弈的发力点。在欧洲的法国为自动补足算法侵害企业名誉权罚款谷歌65000欧元,德国法院直接下令谷歌“限制其自动补足算法结果”,西班牙、意大利等国法院的判例普遍认为搜索引擎自动补足算法要承担侵权责任。澳大利亚在搜索引擎自动补足算法的侵权案件中一贯支持搜索引擎承担侵权责任,日本甚至为自动补足算法的名誉权侵权而禁止谷歌再使用自动补足搜索建议的功能。

2.基于安全利益的相似政策

各国在涉及安全利益的案件中高度一致地为搜索引擎设置了较为严格的注意义务,均要求其承担内容审查与删除的责任。以美国为例,虽然在涉及商业利益与个人利益的案件中否认搜索引擎为算法承担法律责任,但对涉及社会敏感的种族歧视、暴力、仇恨等自动补足算法的联想词则设立了严格标准,一改“尊重言论自由”的态度,要求谷歌及时清除和限制。2016年,谷歌发现“希特勒”“犹太人”的搜索自动补足结果是“希特勒是英雄”和“犹太人是邪恶的”之后,出手对自动补足结果进行了修改限制。早在2009年,我国监管部门因谷歌自动联想功能涉嫌传播淫秽色情内容要求其整改,谷歌随即表示“将彻查所有的服务并采取一切必要措施来解决搜索结果中存在的问题”,并立即暂停了自动补足算法的联想词搜索业务,对低俗内容进行清理。此举显示了谷歌完全有能力控制搜索结果与自动补足算法的搜索建议,而并非其一贯宣称的由算法自动生成。

各国政府进行监管时普遍不再考虑搜索引擎的法律地位等理论问题,而是直接要求搜索引擎控制和限制自动补足算法,而这些要求普遍都能够得到执行。在谷歌每六个月公布一次的透明度报告的政府章节,常见各国政府对谷歌提出的各种删除和修改搜索结果的要求。例如2016年前六个月各国政府共计送来18000份删除数据的指令,在美国和巴西,至少90%的指令会得到谷歌的执行。谷歌也为避免法律责任删除可能违反当地法律的信息,如在泰国谷歌主动屏蔽了来自YouTube上涉嫌侮辱泰国王室的视频,在阿拉伯地区删除暴力煽动性视频等,这些举措也显示了其对自动补足算法具有控制能力。

无论是信源或信道的不同理论假设,还是产业利益与安全利益的不同价值取舍,都决定了搜索引擎算法的法律责任是一个多重因素权衡设计的结果。搜索引擎算法法律责任的设计框架,应基于其技术地位的分析和利益均衡考量展开。

三、规制的原点:搜索引擎作为基于算法的信息发布者

搜索引擎显然既非纯粹的信源,也不是单纯的信道。从技术角度分析搜索引擎算法在信息发布中的地位是其法律责任设计原点。与此同时,搜索引擎既具有互联网基础设施的公共特性,又是营利性的企业,都需在搜索引擎的归责与规制中体现。

(一)搜索引擎的地位:基于算法的信息发布者

基于算法对信息和数据流的处理,搜索引擎兼具“信源”属性与“信道”属性。因此其既不是单纯的网络服务提供者,也不可归类为信息内容提供者。搜索引擎由于自动补足等算法成为了基于算法的信息发布者,因此应该承担相应的算法看门人的注意义务。

搜索引擎兼具“信源”与“信道”双重属性。搜索引擎发布的信息形式是“网页索引”与“搜索建议”,来源是算法生成。搜索引擎基于算法对信息索引,并以“信息流”的形式呈现给用户,具有“信源”属性。从信息论的角度说,搜索引擎显著降低了海量网络信息的混乱程度,将用户需要的信息以“关键词——网页排名”或者“关键词——搜索建议”的形式提供给用户,这本身就是信息。搜索引擎对其算法具有控制和操纵能力,可以对其搜索建议施加更好的限制和过滤条件。例如,谷歌自己能排除一部分与色情、暴力、仇恨言论和侵犯版权相关的搜索查询,其2017年更新的猫头鹰更新(Project Owl)算法,可主动删除虚假新闻内容,屏蔽编造的假新闻、极度偏见等信息。用户只能在此基础上进一步筛选检索,而没有由搜索引擎呈现的信息则被忽略掉,可能直接导致用户和信息的隔离。例如,淘宝搜索规则在2010年7月8日的调整导致淘宝网众多小商家的聚众抗议事件,被很多小商家指责此举目的为“逼迫”卖家投放竞价排名广告。

具体到搜索引擎的自动补足算法,则从形式上和功能上更加符合信息发布者“信源”的定位。根据2011年的研究显示,自动补足算法在搜索引擎界面中占据了72%的用户注意力(眼球运动轨迹追踪),甚至使用户忽略掉了搜索结果的页面显示。并且在搜索引擎提供的五类结果中(包括即时搜索、搜索预览等),自动补足算法是唯一能够影响用户行为的算法。自动补足算法提供的搜索建议能够引发用户的好奇心,使得用户进一步点击搜索建议,从而增加搜索建议的点击量和热度,使得搜索建议被更多地呈现。

搜索引擎是“基于算法”的信息发布者。搜索引擎自动补足算法从技术上无法控制掌握网页的相近具体内容,故而搜索引擎仍具有“信道”的媒介性质。搜索算法中的个性化、搜索量、QDF过滤器因素影响查询结果,这些因素不仅由算法生成,同时也在影响算法。如谷歌称它所提供的搜索建议是根据先前用户的搜索结果以及与搜索查询的流行程度和数量相关的其他因素而生成的,自动补足算法功能在运行过程之中会受超出搜索引擎控制范围外因素的影响。例如,网络用户可以掌握搜索引擎优化(SEO)技术对排名和搜索建议进行操纵。在此基础上,搜索引擎亦可不为用户个人的具体误导性信息承担审查的义务,进而承担侵权责任。但由于算法设计中并无法屏蔽和排除具体个人信息,搜索引擎应在用户通知之后,承担基于“通知删除”规则的义务。

由此可以得出结论,搜索引擎及其他平台(如购物、新闻)等作为“基于算法的信息发布者”兼具“信道”与“信源”的属性。如淘宝网站虽然不直接出售商品,淘宝宣称搜索算法中立,但具体应用中对各种商品排序权重的考虑和设计都体现在算法中。用户看到的无论是自动补足算法推荐的购物搜索关键词,还是综合排序下的商品页面,都是作为信息发布的“信息流”呈现方式。因此,从这点上来说,搜索引擎及相关平台是信息发布者,但在技术上无法确切掌握和控制“信息流”中的具体信息,又是一个网络服务提供者。

(二)搜索引擎的注意义务:算法的看门人

既是信源又是信道的搜索引擎,其法律地位是一个“基于算法的信息发布者”。这一地位的认定勾勒出搜索引擎等网络平台基于算法的实际功能,它能够作为厘清搜索引擎法律责任的理论基础。

首先,“基于算法的信息发布者”的地位可替代平台与算法“技术中立”的法律假设,回应智能时代平台功能的变化。1996年美国通信净化法案(CDA)与千禧版权法案(CDMA)确立了对互联网规制宽容的政策并被广泛移植。“通知—删除”规则下的平台责任归责原则是过错责任原则,网络平台被动中立无需主动发现和介入违法事实。这是基于网络平台的技术实力和商业模式无法支撑网络日常运行执法的事实构建的制度体系。智能算法在网络平台的广泛应用,极大地改变了网络平台对信息流的自动处理能力。使得搜索引擎以“账户—数据—评分”的模式对用户数据收集,并做及时的介入和干预。搜索引擎的自动补足算法就是一个用户行为干预的典型算法。自动补足算法中,用户的“个性化”排名高于其他两个因素:搜索量和新鲜度(query deserves freshness)。个性化包括用户的互联网协议(IP)地址,用户自己的搜索历史,搜索引擎所在国家和正在使用的语言等组件。当自动补足算法基于个性化的推送,通过引导用户点击引起“雪球效应”,达到搜索量的流行度阈值,则会被推荐给其他用户。平台对用户行为介入,通过部署算法从事后处理变为事前的引导和干预,地位和能力的不同也意味着法律责任的不同。基于技术中立的免责,显然已经不能符合搜索引擎基于算法的数据处理能力和行为干预能力。

其次,作为“基于算法的信息发布者”的定位,可对搜索引擎施加合理程度的“算法看门人”的注意义务,而不至于畸轻或畸重。搜索引擎基于算法发布信息流,因此应对算法的开发、部署和应用负起注意义务。这样设置搜索引擎法律责任的益处有二。其一,避免搜索引擎承担过重的信息审查义务。具体至用户个体的信息审查义务忽视了搜索引擎自动补足算法的实际功能,如此要求势必增加搜索引擎沉重的信息审查、回应和删除的负担。据统计,谷歌西班牙案件后,谷歌收到了海量的“被遗忘权”删除申请,占到全部相关案例的40%。这样既不利于产业发展也一定程度损害了公众知情权。其二,确立“基于算法的信息发布者”法律地位,可将监管和审查的对象从具体信息转移至算法的开发与部署。在司法实践中,原有的通知删除规则已被逐渐架空或取代,立法者和司法者逐渐将平台责任与“控制能力”挂钩,而其控制能力就是算法的开发部署和应用。例如,在《电子商务法》中,直接确立了电商平台搜索类算法的明示义务,个性化推荐算法的自然结果提供义务和消费者保护义务。百度竞价排名催生的魏则西事件之后,《互联网广告暂行管理办法》第11条规定的网络平台“有核对及控制能力”标准,将算法的部署和应用能力作为认定其广告发布者地位的标准。

最后,确立搜索引擎“基于算法的信息发布者”的地位,能够形成收益较高的合作规制。智能算法应用带来的平台功能变革使得法律和政策的规制不可避免。一方面,法律应尽量避免使自己置于未知的技术劣势中,带来公权力的滥用。因此,应借用平台的技术能力本身进行约束,确立一套“算法看门人”的注意义务标准,确立了激励相容的制度设计,充分发挥搜索引擎等网络平台的技术优势进行合作规制。另一方面,避免搜索引擎技术权力的过度扩张。算法看门人的注意义务的违反,将带来问责机制的约束。同时,可针对算法处理数据的重要性和治理作用的不同,为不同算法设置不同层次的注意义务,使自我规制的权力和责任相一致。

搜索引擎是否为自动补足算法承担法律责任这一争议的本质,来源于理论与实践对智能算法在平台的广泛应用回应不足。作为数据流的主要处理掌控力量,算法的是否合理设计和部署应该成为平台承担法律责任的基础。搜索引擎作为“基于算法的信息发布者”,应承担算法看门人的注意义务,依据算法的功能和所涉价值的不同层次,设置法律责任框架并嵌入其他相关因素的考量。

四、规制的进路:责任的框架与考量的因素

搜索引擎算法损害的法律责任框架应根据不同考量因素,确立不同层次“算法看门人”的注意义务。算法看门人的注意义务严格程度应随着所涉利益为安全利益、公共利益与个人利益递减。在搜索引擎算法自动补足算法的具体领域,应本着沿用与改良优先的理念,将搜索引擎等平台责任基于智能算法而发生的演进与既有法律制度充分融合。

(一)安全利益:实质严格责任的谦抑化

由于信息审查具有一致性(即无论违反公益与私益的信息过滤技术相同),搜索引擎的信息审查义务的强制性在各国立法表述中均较为模糊。虽然违反信息安全义务的行政责任理论上要求搜索引擎具有主观过错,但在实践中,世界各国政府都将涉及国家安全利益的违法信息内容审查和过滤义务设置为实质上的严格责任。根据OpenNet Initiative于2017年发布的数据显示,网络审查在全球范围内已经普遍化,超过40个国家将网络审查纳入网络安全的立法框架内,开始常态化和系统化的网络审查。我国有大量立法明确规定了威胁国家和社会安全的内容,为搜索引擎提供了违法性内容审查严格责任的范围。 从谷歌退出中国事件可以看出,我国对搜索引擎信息安全利益方面采取的是强制性义务。尤其是在2016年之后,我国平台所普遍承担的“信息安全管理义务” 在各部政策法规中频频提及,其主体责任被明确规定,这一责任或被具体化为“信息内容安全管理主体责任” 、“信息发布和运营安全管理责任”  。就行政处罚的司法实践来看,我国有关部门对网络平台未尽到安全管理义务以损害结果作为处罚原因。由于运动式执法,还存在个案罚与不罚,责任程度不一的情况。

搜索引擎对算法损害安全利益的法律责任在实践中已经演化为具有随意性的实质上的严格责任。以违法行为数量巨大来论证平台过错,而没有评判算法部署和应用是否合理的法定标准,则造成平台责任范畴模糊。如果仅做结果监管,即使符合实质正义,难免被诟病法无明文禁止的事先明示。通过设置“算法看门人”的注意义务,可在事先明确设置搜索引擎等网络平台对涉及安全利益的信息的注意义务,包括设置专门的过滤算法,安排人工审核和日常巡查机制等。

首先,对于高敏感度的,明确的损害安全利益的信息,信息内容的审查和评估并不复杂,此类信息的传播可能造成重大的危害后果,因此可采取客观归责的严格责任。其次,对于低敏感度,模糊的损害安全利益的信息,应允许搜索引擎有一定判断的滞后性,可在实践层面考察搜索引擎是否履行了法律规定的信息安全义务。只要尽到合理设置算法过滤,日常运营巡查的“算法看门人”的注意义务即可。网络运营者能够证明其已经穷尽技术手段,且并未违反事前的“防范”义务时,即无需承担违法责任。如此可减少对搜索引擎等平台进行处罚的随意性导致的内部冲突与逻辑断裂,使搜索引擎的算法损害责任谦抑化。

(二)公共利益:审慎义务与算法伦理的嵌入

在涉及公共利益的算法损害领域,搜索引擎算法看门人注意义务的严格程度,应与算法对信息和用户行为的干预力量成正比。即搜索引擎算法对用户行为引导干预能力越强,则越应当对算法的开发与部署承担严格的注意义务。此种注意义务的理论基础有二:一方面相对于用户,搜索引擎的控制力和预防能力更强,可以采取技术的、法律的手段来降低风险;另一方面搜索引擎可向用户投放广告获得巨额利益,基于收益与责任相匹配的报偿法理,应承担算法看门人的注意义务。

搜索引擎自动补足算法所涉及的知识产权、广告,甚或提供一般性知识查询,都具有“公共产品”属性,相对来说涉及较强的公共利益色彩,应具有履行社会责任的正当性。但与此同时作为商业主体,搜索引擎追逐盈利,自身利益最大化是其价值追求,在竞争关系中可能出现利用优势地位屏蔽竞争者的现象。因此,对于涉及公共利益的搜索引擎的注意义务,既考虑到搜索引擎开发和部署算法中算法伦理的嵌入问题,也要通过设置审慎义务防止公共福祉的减损。

具有公共利益色彩的知识产权、广告领域使得应对算法损害继续适用过错责任原则,在此前提下,算法看门人的注意义务严格程度与算法对用户行为的干预程度成正比。实践中,我国依靠司法判例已经形成了相关规则的雏形。例如,竞价广告算法对关键词和相关网页链接的用户行为具有较强的干预力量,我国已通过判例与行政法规逐渐建立起其高于一般注意义务的标准。搜索引擎竞价排名的相关案件中,法官明确地区分了对于“关键词”的审查义务高于对链接指向网页的审查义务。在魏则西事件后,《互联网广告暂行管理办法》迅速做出反应,不仅施加给搜索引擎承担事先审核广告商资质的注意义务,还增加了竞价排名算法结果的信息披露义务。而对于普通网络关键词与网页指向的一般网页索引算法,则承担一般的注意义务。

由于搜索引擎的公共产品属性,即使没有违反算法看门人的注意义务,法律和政策也要求算法在设计应本着“向善”原则嵌入算法伦理。所有搜索引擎的算法都必然体现了开发者的主观价值判断。尽管我国立法者一厢情愿地将搜索结果区分为“自然的”和“付费的”,但算法的设计本身就必然存在着对于不同数据权重的价值衡量。基于“向善”的伦理的算法要求可见于我国网信部门的执法实践中。例如,我国广电总局2018年4月要求今日头条关停“内涵段子”应用程序,《人民日报》为此评论,不能“只要价值不要价值观,鼓吹算法没有价值观”,而今日头条则迅速回应“会把正确的价值观融入技术和产品”。

(三)个人利益:滋扰理论的引入

涉及到公民个人的名誉、隐私等私人利益,搜索引擎的算法责任应采取过错责任原则,即为算法的设计和应用承担过错责任。与此同时为了保护用户的个人利益,可引入滋扰理论作为救济路径,并完善平台的自律机制。

如果要求搜索引擎算法为网络用户个人信息所涉及的名誉、隐私等全部负责,无疑是极其沉重的负担,这也是谷歌西班牙案饱受争议的原因。搜索引擎每天都有全新搜索内容,每一个新问题都可能突破既有的过滤解决方案。算法看门人的注意义务的设置既要注重个人隐私、名誉等利益的保护,又要鼓励产业发展避免沉重负担,因此应限于以下两点:其一,普遍性地要求搜索引擎等网络平台在算法设计时即将个人数据保护的相关政策嵌入算法,成为基本的合规要求;其二,普遍性地要求搜索引擎在设计算法时符合基本伦理要求,如不以低俗、流量作为导向。

在满足以上条件后,搜索引擎即不因违反算法看门人的注意义务而承担侵权责任,如此可防止搜索引擎运营负担过重与制度上审查义务层次的混乱。但如用户确有维权的需要,可引入滋扰理论要求搜索引擎等平台协助予以删除或清理。滋扰理论下,加害方与受害方从事的都是合法行为,因此从合法性的角度来看,很难“一刀切”地判断孰是孰非。在此基础上可采取弹性的利益衡量标准,依据个案情势予以决断。此种制度设计基于避免以下困境:一方面搜索引擎过分响应用户删除信息要求可能造成公众知情权损害与沉重的现实与制度负担;另一方面过分压抑用户对个人名誉的保护有可能造成实质公平的损害。

用户基于滋扰请求搜索引擎协助删除信息应采用何种标准?美国《第二次侵权法重述》第826条规定构成滋扰的不合理行为需符合以下两项标准之一:(1)行为造成之损害的严重性超出行为之收益(utility) ;(2)行为造成严重损害且经济赔偿之负担不足以令继续此等行为变得不可行。应用于自动补足算法对于个人名誉和隐私造成的损害,标准一可理解为对于自动补足算法提供的当事人的隐私或不实信息与公众知情权相比,损害超出了收益;标准二则应用于,如果搜索引擎已经履行了算法看门人的注意义务,则其不承担侵权责任,因此无论是经济赔偿还是法律责任的负担都不能避免自动补足算法对当事人的损害。用户在此情形下可基于滋扰对搜索引擎自动补足算法的损害获得救济。其中,第一项标准明显反映出了“成本—收益”的思想,将个人利益(隐私、名誉)与公众知情作为成为收益权衡;第二项标准则兼顾公平,一方面使得已经履行算法看门人义务的搜索引擎不再具有道德上的可责难性,另一方面使得用户的个人利益损害严重时也可得到救济。

搜索引擎自动补足算法的损害如同一片棱镜,折射出网络平台基于算法承担法律责任的宏大命题。对于算法广泛应用带来的挑战,技术中立原则、主观过错原则、平台注意义务的范围等都面临着理论更新和实践探索。搜索引擎等平台使用算法的多样性、对行为干预能力的差异性,都决定了算法损害责任的研究将会随着场景和架构的不同而分化与深化。

(责任编辑:陆宇峰)

(推送编辑:冯    丹)

本文原载于《华东政法大学学报》2019年第6期。编辑部在线投稿系统已更新,欢迎学界同仁登录journal.ecupl.edu.cn惠赐大作!



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存