查看原文
其他

孟勤国:治理算法歧视侵害消费者权益的关键问题——以大数据杀熟为视角

孟勤国 法律适用
2024-12-16


编者按


为落实中共中央宣传部、教育部、科技部印发《关于推动学术期刊繁荣发展的意见》精神,顺应媒体融合发展趋势,积极适应移动化、智能化发展方向,《法律适用》推出网络优先出版等新型出版模式。目前,已于“中国知网”上线最新一期《法律适用》知网全部首发文章,并于微信公众平台同步推出,敬请关注!




孟勤国
武汉大学法学院教授、博士生导师
中国法学会消费者权益保护法研究会副会长



摘 要
大数据杀熟是互联网平台经济久治不愈的顽疾。算法技术的复杂、隐蔽、动态和准自主并未改变侵权的本质和规律,治理算法歧视侵害消费者权益应首先解决法律实践中的价值取向、构成要件、法律成本问题。消费者权益是《消费者权益保护法》法定的综合性权利,有别于一般的意思自治权利,处理大数据杀熟纠纷应以消费者权益保护为唯一价值取向,不能代之或掺杂合同法价值取向。大数据杀熟属于结果性侵权行为,司法解释及指导案例应清晰和统一行为、后果、过错三要件,行为应是显性或隐性的使用歧视算法的不法行为,后果应以行为不法性确定差别性待遇的损害性,过错认定应适用过错推定责任原则,综合解决消费者不易举证的问题。法律成本的限度和效率决定治理机制的有效性,应形成大数据杀熟必须重罚的社会共识和立法、行政、司法联动机制,抬高经营者违法成本。


关键词
降低消费者个案维权成本 有效实现算法歧视侵权的社会治理



一、引言


算法是人工智能时代“一种有限、确定、有效的并适合用计算机程序来实现的解决问题方法”,真正支配整个世界的约 10 种算法,依照一定的算法逻辑,输入一定的数据,自动生成和输出具有特定指向的决策或结果。作为一种方法,算法具有技术中立性,但是,任何方式的运用都是人的意志行为,算法具有目的和手段的伦理性,输入什么数据、设定哪些条件、发出何种指令,取决于算法技术的运用者及其指挥者。算法作为人机互动的机制,即人类通过代码设置、数据运算于机器自动化判断与决策,其公正性取决于人的意志而非算法技术。算法技术运用可能对特定群体或个体出现系统、重复的不公正结果,构成算法歧视,如算法价格歧视、算法就业歧视、算法信用歧视等。

算法歧视侵害消费者权益,其中,以大数据杀熟最为普遍。大数据杀熟是经营者利用互联网平台优势收集消费者日常消费数据如承受能力、选择偏好、家庭成员、信息浏览等,依照一定的算法逻辑,输入具有推送对象与排斥对象的身份信息,自动生成和输出个性化的销售或服务定价,使不同消费者对相同销售或服务支付不同对价。北京市消费者协会2019年3185份、2021年4186份有效问卷调查中,经历过被大数据杀熟的分别为88.32%、86.91%,其中,网络购物的分别为44.14%、82.44%;在线旅游的分别为39.5%、76.85%;外卖和网约车分别为37.17%、63%。2021年的85.38%被调查者认为大数据杀熟体现为同一时间不同用户购买相同商品或服务的价格不同。

我国不允许算法歧视侵害消费者权益。《民法典》《消费者权益保护法》《电子商务法》《网络安全法》《数据安全法》《个人信息保护法》《反不正当竞争法》《反垄断法》《价格法》《互联网信息服务管理办法》《互联网信息服务算法推荐管理规定》等从不同角度保护消费者权益。我国有完整的消费者权益保护法律体系,强大的消费者权益保护执法体系,广泛的消费者权益保护社会监督体系,但至今未能有效遏制以大数据杀熟为代表的算法歧视侵权,消费者举证困难、维权成本高等使得律师也常常放弃维权。究其原因,主要是欠缺法律实践上的研究和共识,其中,价值取向、构成要件、法律成本最为关键。



二、算法歧视认定的价值取向


互联网经济的效率和发展取决于大数据与算法技术。“美团”“饿了么”等运用算法技术支撑外卖送餐这一全新行业,“抖音”“快手”“今日头条”等通过算法技术个性化传播新闻与娱乐资讯,“淘宝”“京东”等利用算法技术催生网上购物的巨大销量,“百度”“360”等通过算法技术确保搜索引擎的信息检索功能。不仅如此,线上招聘平台可以算法技术在海量简历中高效筛选出符合岗位条件的应聘者,评级网站可以算法技术评价相关主体与对象进而引导,美国一半以上的州可以利用COMPAS等风险评估软件辅助法官量刑。

相对于算法技术的现实价值和不可替代性,算法歧视只是算法技术的不可因噎废食的污点,而且由于种种原因不一定形成污点共识。现代文明公认歧视违背公平正义,人们不会争议损害公众基本权利的算法歧视如性别歧视、种族歧视、宗教歧视,对损害竞争性利益的算法歧视一般也易形成不正当竞争的共识如谷歌利用算法排除竞争案。但是,侵害消费者权益的算法歧视,主要是大数据杀熟,如同一房型不同价格、会员价高于普通报价、依据检索手机的品牌推送相应商品,则经常出现是否构成算法歧视的争议。

一般认为,大数据杀熟属于一级价格歧视。价格歧视是一个经济学中性词语,指同一公司销售的类似产品价格出现非成本因素的变化,一般分为一级价格歧视即依据每一消费者支付意愿不同设定价格,二级价格歧视即依据不同购买量设定价格,三级价格歧视即根据消费者群体分类分别定价。有学者认为,大数据杀熟导致的一级价格歧视并不当然贬义,只是利用算法技术实现定价个性化,对支付意愿较高的消费者提高价格,又不流失价格敏感的低端消费者,可以重塑市场充分竞争状态,显著提高社会福利水平,不能一禁了之。司法裁判也有类似潜意识,“郑育高与上海携程商务有限公司其他侵权责任纠纷”案中,原告通过携程APP在20时12分错订上午航班支付票价2376元,20时39分查询下午航班的票价为1864元,期间与携程客服交涉退票事宜,23时02分下单购买下午航班的票价却变成了2387元。一审判决认为,原告查询机票价格的时间存在一定间隔,机票价格变动幅度也在合理范围内,不能因不同时间段机票价格的波动就认定是大数据杀熟。

这是一种基于经济学知识的价值取向。价格歧视在经济学中之所以是一个中性词,是因为经济学崇尚效率第一兼顾公平,歧视更多地被理解为个性差异和个性方法,只要经济效益总体提高,个体或特定群体之间的利益得失不是决定对错的因素。“算法技术是现今社会发展的重要驱动力,严格规制算法歧视的同时,也不应任意扩张算法歧视的范围,过分苛责算法控制者”。这一表述的重点不在于严格规制算法歧视,而在于“不应”和“过分”,体现宽容算法歧视侵害消费者权益的价值取向,其理由是严苛认定算法歧视可能减弱算法技术驱动经济的动能,为消费者个体公平而降低算法技术整体效率不符合经济学原理。从经济学角度看,宽容算法歧视侵害消费者权益似乎也有依据,但算法歧视侵权不是经济学问题,而是法律问题,其合理性应当在法学领域中立论。

法律的宗旨是公平第一兼顾效率,程序法为最大限度确保公平而或多或少牺牲公权力效率,实体法追求当事人之间利益平衡和当事人与公共利益之间的利益平衡。算法技术对经济的强大驱动力可以证明算法技术自身的存在价值,不能证明算法歧视的存在价值,方法的用途和方法的使用不是同一问题,经济学上的合理性不能证成法学上的正当性。对于法律而言,任何不公平均为不法,即便是事出有因、情有可原,也以不法定性为前提,通过利弊权衡将不法转为合法的属于现代文明不能容忍的恶法。性别歧视、种族歧视、宗教歧视和损害竞争性利益也可能产生经济效益,奴隶制曾经促进过人类的生产力,但在现代社会是绝对一票否决,因为现代文明具有公平不可为效率所削弱或取代的共识。公平与否不以大小论之,再微小的不公也属不法,损害消费者权益与性别歧视、种族歧视、损害竞争性利益没有本质区别,对侵害消费者权益的算法歧视网开一面没有法律正当性。

现代法不仅律维护形式公平而且追求实质公平。公平可以通过意思自治的利益权衡和妥协实现,但前提是当事人之间有对等的平等协商的实力。如果一方当事人始终处于弱势,现代法律必须阻止意思自治异化为强者意志,以免出现弱肉强食的情形,对弱肉强食不予丝毫宽容是现代法律与古代法律、近代法律的重要区别之一。阻止的方式有二:一是在传统法律中注入实质公平的元素,对弱势当事人的意思表示予以一定的倾斜性保护,典型的如格式合同条款解释和效力倾斜于接受格式合同条款的一方;二是对特殊的弱势主体设立专项法律予以保护,解决传统法律难以过度追求实质公平的问题,如《未成年人保护法》《残疾人保障法》《妇女儿童权益保障法》《劳动合同法》《消费者权益保护法》等,这些法律集中归集和解决弱势主体经常遭遇的不公,赋予强势一方更多的义务和责任,对冲强势一方的优势,实现当事人之间的实质公平。

民商事领域,劳动者和消费者是天然的弱势群体。雇主关系分离出劳动法,合同关系分离出消费者权益保护法,是近代民商法现代化的两大内容和标志。我国在《民法典》之前就有了实施26年的《消费者权益保护法》,充分体现了社会主义对实质公平的追求,是中国式现代化的重要成果和标志。消费是一种买卖或服务的行为,合同法均有相关的权利、义务、责任规范,但依然离不开《消费者权益保护法》,原因就在于合同法不足以确保消费者在现代文明中应有的平等、自由、尊严和相关权益。消费虽然是一种合同行为,但消费者在信息、机会、议价、诉求等方面处于天然劣势,不具备与经营者对等的实力,必须由《消费者权益保护法》等专门法律解决消费者权益保护的问题。消费者权益是《消费者权益保护法》法定的综合性权利,与一般的意思自治权利性质有别,两者不能混同。侵害消费者权益属于违反《消费者权益保护法》的侵权行为而不是合同违约行为,以合同法思维处理消费者权益纠纷是一种严重的错位。“郑育高与上海携程商务有限公司其他侵权责任纠纷”一审判决将侵害消费者知情权和公平交易权定性为合同之诉而非侵权之诉,以合同法的意思自治作为价值取向,理由空虚,颇为不当。

事实上,对于算法歧视侵害消费者利益,现代社会已有明确的价值取向,这就是消费者权益保护。《消费者权益保护法》总则明确“为保护消费者的合法权益,维护社会经济秩序,促进社会主义市场经济健康发展,制定本法。”“经营者为消费者提供其生产、销售的商品或者提供服务,应当遵守本法;本法未作规定的,应当遵守其他有关法律、法规。”确立了《消费者权益保护法》的优先适用地位,而且,专条宣示“国家保护消费者的合法权益不受侵害。”总则的5个条款中,3个条款均以消费者的“保护”作为关键词,2个条款均以经营者的“应当”作为关键词,其中,消费者只论权利,经营者只论义务。这足以表明,消费者权益保护是《消费者权益保护法》唯一目的和价值。在《消费者权益保护法》范畴内,根本不存在需要考虑保护消费者权益是否影响行业发展、经营者损害消费者权益是否有情可原、消费者自身有无疏忽大意的过失等问题。只要损害消费者权益,经营者无论有多少理由,即便是为了行业发展,均为《消费者权益保护法》必须制裁的不法行为。

由此,算法歧视认定应笃行《消费者权益保护法》的价值取向。算法歧视的认定,不应也无须考虑算法本身是否具有歧视性技术要素,只以算法是否损害消费者权益作为判断标准和依据,《消费者权益保护法》没有关于技术因素可以作为经营者免除或减少侵权责任理由的规定,讨论算法的技术合理性超出了《消费者权益保护法》的范围。“P某某诉北京趣拿信息技术有限公司网络服务合同纠纷”一案,二审判决驳回P某某上诉后,还提醒被上诉人损害消费者知情权等可能损害上诉人的公共形象,体现了对网络服务平台的宽容和关爱,这是以合同法的价值取向取代《消费者权益保护法》的价值取向。价值取向选择不当是方向性错误,极易南辕北辙,长期以来,我国的消费者权益保护一直存在着价值取向模糊的问题,职业打假人的争议最为典型。近日,最高人民法院颁布《关于为促进消费提供司法服务和保障的意见》(法发(2022)35号)明确要求加强消费者权益保护,提出了保护消费者的16项具体工作,对于全面、有效落实《消费者权益保护法》的价值取向具有里程碑的意义。




三、算法歧视侵权的构成要件


关算法歧视侵害消费者权益,已有不少算法运用的技术、伦理、利益的介绍分析和规制算法运用的法律对策建议,例如,应根据主体、对象、领域不同形成可信赖和负责任的算法,由规制代码和算法结果转向代码和算法过程,以公平、透明和具有可责性的算法确保算法的规范应用。这些研究有助于立法、行政、司法、社会和消费者了解算法歧视损害消费者权益的成因、过程和机制,但不是判断消费者权益纠纷是否构成算法歧视侵权的标准。算法歧视侵害消费者权益是大数据和算法技术运用引发的新型侵权,是否侵权应当坚持消费者权益保护的价值取向,围绕侵权法上的构成要件加以讨论和判断。

算法歧视侵害消费者权益属于结果性侵权行为。消费者按照歧视算法消费即受侵害,行为和结果的因果联系不证自明,需要清晰和统一的是行为、后果、过错这三个要件。

1. 算法歧视侵权行为

算法歧视常常被用于表述算法技术本身的设计偏见、数据偏见、学习偏见。这是一个根本性误会。算法技术本身就是有限数据、特定指令、个性决策,具有设计者和指令者特有的价值和选择,如果这些个性特征就是偏见进而是歧视,那么,世上从来没有过不是算法歧视的算法,讨论算法歧视没有任何意义。最大偏见的算法在使用之前也无法产生歧视的后果,工具的实际功能永远是使用效应而不是用途本身。算法技术偏见有大有小、有显有隐、有益有害,连司法鉴定也不能保证鉴定结论唯一性,要求立法和司法规制出“可信赖和负责任的算法”,是不切实际的空想。何况,还有算法黑箱的技术难度、算法透明的竞争不公、算法运用的准自主化这些不可解或不易解的问题。

算法歧视应当用于表述侵权人利用算法侵害他人权益,对消费者而言,即是经营者利用算法侵害消费者权益的,其要义在于行为主体、行为不法性。

首先,侵权人应圈定于算法使用者。算法歧视源于算法设计者或指令者的偏见,但使用才将算法偏见转化算法歧视,即便算法设计者、指令人与算法使用人合一,决定算法歧视的是使用而不是设计,这是消除算法歧视模糊和争议的一个关键点。经营者可能使用自己设计的算法,也可能使用他人设计的算法,无论如何,侵害消费者权益一定发生于使用算法的过程之中,属于经营者不法使用算法,至于经营者是否知道或应该知道算法歧视,不影响经营者不法使用算法的定性和构成。经营者包括网络商户和网络平台服务商,网络商户使用网络平台服务的算法机制,形成网络平台服务商和网络商户网络对同一算法的双重使用,商户和网络平台服务商为算法歧视的共同侵权人;网络商户使用自己的算法机制,网络平台服务商不属于算法歧视的行为人,但负有合理监督的义务和责任。算法设计或指令人与算法使用人恶意串通,只要其不使用算法,不属于侵害消费者权益的行为人,其设计和提供歧视性算法的不法行为可由监管部门另行查处。

同时,行为不法性既有显性也有隐性。算法使用直接违反法律、法规和有效规章的是显性不法,例如,《消费者权益保护法》第 20 条的经营者告知义务即商品或者服务须明码标价、《电子商务法》第 17 条的“第三方交易平台”披露义务即准确及时披露商品信息、《互联网信息服务算法推荐管理规定》第8条的算法设置禁止即不得设置诱导用户沉迷或过度消费等算法模型,等等。算法使用实际产生损害消费者权益结果的是隐性不法,例如,“胡红芳诉上海携程商务有限公司侵权责任纠纷”案的价格欺诈。以损害结果导向认定行为不法性被称为差别性影响标准,即绕开算法歧视的内部隐蔽性,直接从外部结果识别算法歧视。消费行为的多样性和复杂性不易一一对应具体规则,但《消费者权益保护法》的价值取向容不下任何理由的消费者权益损害,产生损害消费者权益结果的算法使用行为均为不法,不得以任何理由加以辩解。消费者权益不受侵害是经营者各类义务的要素和目标,产生损害消费者权益结果的算法使用行为均为违反义务,不得以经营者义务系一般规定加以辩解。

2. 消费者权益损害结果

损害结果是算法歧视侵权的客观要件。算法歧视在技术层面上难以形成界限和共识,主要体现于算法使用过程,而算法使用过程之所以显露算法歧视的存在和不良,是因为算法使用可以产生损害消费者权益的结果,尤其是算法歧视行为的隐性不法性有赖于消费者权益损害结果的证实。消费者权益损害的类型与算法使用的阶段相关。在信息采集阶段,算法歧视主要侵害消费者的个人信息和隐私权,从中牟利或骚扰;在特定推送阶段,算法歧视主要侵害消费者的自主权,以有限的靶向信息误导消费者做出非理性的选择;在个性定价阶段,算法歧视主要损害消费者的公平交易权,以不同价格宰割消费者。

损害结果是算法歧视侵害消费者权益最富争议的要件,争议焦点主要不在于损害结果有无或多少,而在于差别性待遇结果是否具有损害性。一方面,消费者对大数据杀熟普遍不满,学者对比“无处不在、秘而不宣的数据掌控者”与“全景透明、无知无觉的消费者”之间的悬殊,指出经营者在消费者不知情情况下最大程度地攫取利益。另一方面,也有学者认为,价格歧视使部分消费者接受高价,另一部分消费享受低价,总的社会福利效果良好,断言没有一个消费者将积分卡、会员卡和消费赠送的优惠视为价格歧视。为了身份认同和私人生活额外保护,贡献数据、限缩权利的牺牲值得;失去隐私、丧失个人生活和失去批判精神的代价可以换取可预测性、安全性。这些争议既源于争议者的价值取向差异,也源于损害结果的法律属性模糊。不同价值取向都有各自理由,相互之间几无信服的可能,而法律规定的抽象化和碎片化加剧了不同论者的自信。这个问题只能在规则层面解决,差别待遇事实的定性有赖于规则的确定性。

对于显性不法行为,法律规则可以直接定性损害结果。除了《民法典》侵权责任编和《消费者权益保护法》之外,许多法律规则也可有效定性算法歧视侵权的损害结果。例如,《民法典》第1035条的个人信息处理原则、《网络安全法》第41条的网络运营者处理个人信息的义务和《个人信息保护法》的个人信息处理上的各项具体义务均可作为损害结果的事实判断标准;《个人信息保护法》第24条明确规定不得对个人在交易价格等交易条件上实行不合理的差别待遇,《个人信息保护法》第16条、《电子商务法》第18条均为消费者自主权和公平交易权损害结果的具体认定标准;《互联网信息服务算法推荐管理规定》第16条至22条系统规定的算法推荐服务具体义务,公示算法原理和机制、提供用户选择或删除功能、体现未成年人和老年人需求,尤其第21条重申了《电子商务法》第24条的不得实施不合理差别待遇,均可补强损害结果的确定性。

对于隐性不法行为,损害结果的定性需要更具体的裁判共识和规则。“刘权诉北京三快科技有限公司侵权责任纠纷”一案,原告订单所涉商圈11点47分订单大幅上涨,配送费动态上调,11点57分订单上涨结束,配送费动态恢复正常水平,一审认定被告根据平台交易量动态调整配送费是自身经营行为不构成侵权,二审以原告与其同事下单时间不一致,两者配送费不具有可比性为由驳回原告上诉。一、二审判决均未涉及10分钟之内配送费上涨33%的合理性和规则依据,也未审查被告是否履行了涨价的告知义务,以此类推,没有哪一个价格差别可认定为损害结果,也就根本不存在大数据杀熟。这不能完全责怪法官只有合同法思维,因为法官找不到配送费动态调整是否合理的判断标准。依照消费者权益保护的价值取向和明码标价的内涵,配送费调整只能在固定时间公开告知的标准和方式进行,不能以经营者单方认为和实际控制的订单量作为依据,如果有这样的裁判共识和规则,本案就可确定被告任意调整配送费的不法性进而确定结果的损害性,就可能出现符合市场规律和日常生活经验的判决。配送费只是无数的商品或服务价格之一,立法难以一一回应各种商品或服务的价格调整如何符合明码标价,应由司法解释及指导案例推动价格调整合理时间、方式、幅度等的共识和规则。

3. 算法歧视侵权过错

是否需要过错或何种过错是算法歧视侵权及其责任的主观要件。不同主观要件产生不同举证责任,不同举证责任形成不同法律事实,不同法律事实决定不同责任结果。无过错责任原则下,消费者只要证明算法歧视损害结果就足以认定侵权事实;推定过错责任原则下,经营者不能足以证明自己无过错就可以认定算法歧视侵权事实;一般过错责任原则下,消费者必须足以证明经营者有过错才能认定算法歧视侵权事实。举证责任是程序法或证据法的要件,也是实体法尤其是侵权法的关键。侵权纠纷中,决定侵权行为主观要件不是抽象的责任原则,而是具体的举证责任,算法歧视认定应高度重视主观要件与举证责任的关联性。

算法歧视侵害消费者权益不是《民法典》侵权编的有名侵权行为,按照无过错责任需法律明文规定的侵权法原理,算法歧视侵权不适用无过错责任原则。尽管如此,还是有学者认为,使用算法的网络平台应承担歧视后果的无过错责任,理由是算法自动化决策产生的歧视后果可能连设计者或平台也不可预料,考虑平台过错没有意义,歧视后果对于消费者而言本身就具有损害的高度危险,符合无过错责任的本质。应该说,这一观点是有说服力的。算法不仅可以嵌入经营者的私利和偏见,实现部分经营者追求的消费者透明化和私利黑箱化,而且人工智能系统的不断完善而升级可以自动生成更为强大和恶劣的算法歧视,形成最大限度操控个人和社会的风险。对于人人平等的现代社会而言,算法歧视操控个人和社会是不亚于物理性高危风险的社会性高危风险,适用无过错责任原则有足够的正当性。问题只在于需求是否紧迫、条件是否成熟、共识是否形成。

司法实务倾向于算法歧视侵权适用一般过错责任原则。“刘权诉北京三快科技有限公司侵权责任纠纷”一案,二审判决的最终理由是现有证据不足以证明被告多收配送费是“利用大数据区别定价,侵犯了其公平交易权等。”“赵某某与浙江某网络公司网络服务合同纠纷”一案,针对原告诉淘宝网络公司的电子商务平台算法歧视,一审判决驳回的理由是原告未举证证明被告调处涉案网络购物合同纠纷存在故意或重大过失,诉请赔偿损失的“依据不足”。一般过错责任原则要求受害人举证侵权人对侵权行为具有故意或过失的过错,故意须有翔实而完备的证据支撑,重大过失须有千差万别的专业认知标准,一般过失须有人们的日常生活共识,受害人常陷入无法举证或举证不足困境,现有证据不足或依据不足常常成为无可挑剔的裁判理由。上述两案体现了一般过错责任原则,具有典型意义。

问题在于,一般过错责任原则根本不合适算法歧视侵权。算法歧视的技术性决定了消费者几乎不可能证明经营者有损害消费者权益的故意或重大过失,算法技术本身不能证明设计者或使用者的过错,就像刀具本身不能证明制造者或使用者的目的,即便消费者是算法专家,至多证明经营者使用的算法产生差别性待遇,而一般过错责任的举证要求是证明算法的差别性待遇出于经营者过错。同时,消费者对经营者有无一般过失也无从举证,传统的一般侵权中,受害人可以日常生活经验共识证明侵权人有一般过失,侵权人疏忽毁损他人物品或伤害他人身体应承担侵权责任,罗马法至今从无争议,受害人证明了损害结果就完成举证责任。与之不同,算法的差别性待遇随着互联网技术和经济发展而变化,不断呈现新的现象和特征,是否属于损害结果极少形成日常生活经验共识,算法的差别性待遇本身不能证明经营者有一般过失,“个性化定价与大数据杀熟的监管与消费维权存在认定和证明难题”。因此,只要采用一般过错责任原则,除非法官对“依据不足”另作个性裁量,基本上就无算法歧视侵权可言。

比较合理的选择应是过错推定责任原则。过错推定责任原则和无过错责任原则同为侵权法现代化的产物,致力于纠偏特定场景下一般过错责任原则对受害人举证责任的极端不利,不同的是无过错责任原则容易过度偏向受害人,须严格限制适用范围。过错推定责任原则分配了行为人与受害人之间的举证责任:受害人先证明损害结果的存在,行为人后证明自己无过错,行为人未证明或证明不足的推定行为人有过错。这一举证责任的分配改变特定场景产生的受害人举证责任的不利地位,具有平衡行为人和受害人的地位和利益的功能,体现了现代侵权法对实质公平的追求。《民法典》规定了8种适用过错推定原则的场景。这些场景在日常生活中相当普遍,但受害人无法或难以举证行为人有过错,不适用过错推定原则常常不能认定侵权责任,对受害者不公,而且放任普遍性侵权行为影响整个社会秩序。算法歧视侵害消费者权益较之于《民法典》已有的8种适用过错推定原则场景有过之而无不及,消费者是现代社会最普遍的群体,算法歧视是互联网时代损害消费者权益最普遍的手段,消费者个体的弱势无法或难以举证经营者的算法歧视过错,举轻明重,算法歧视侵害消费者权益更有适用过错推定原则的正当性、必要性、迫切性。

唯一的疑问在于《民法典》第1115条的“依照法律规定推定行为人有过错”。《民法典》规定的8种过错推定责任原则适用场景不包括算法歧视侵权,这是否构成算法歧视侵害消费者权益适用过错推定原则不可逾越的障碍,答案为否。众所周知,《民法典》的法律规定从来不限于《民法典》本身,《消费者权益保护法》也可以成为消费者权益保护适用过错推定责任原则的法律依据。虽然《消费者权益保护法》未明确过错推定责任原则,但一切为了保护消费者权益是明确的立法目的和价值取向,一般过错责任原则无法实现这一目的和价值取向,只能在选择过错推定责任原则或无过错责任原则,基于目前的条件,选择前者可能更为可行。《消费者权益保护法》应该而且可以容纳过错推定原则,在有关立法文件已有所体现,2016年,原国务院法制办就《消费者权益保护法实施条例(送审稿)》公开征求意见,其中第17条规定:“经营者有本条第一项至第六项规定行为之一但能够证明自己并非欺骗消费者而实施此种行为的,不属于欺诈行为”,在欺诈上适用过错推定原则。但遗憾的是,这一条例至今未能出台。司法解释可以而且应当依据消费者权益保护的价值取向,明确侵害消费者权益适用过错推定原则。




四、算法歧视治理的法律成本


针对算法歧视侵害消费者权益,学者提出了各种治理建议,如《反垄断法》应将利益保护重心更多倾向于消费者利益,《个人信息保护法》应包括禁止各种算法歧视的强制性规定,算法开发和利用应形成美国计算机协会那样的算法治理伦理原则,应设置算法安全委员会代表受害群体接受和审查算法设计者或使用者的算法解读,建立类似于银保监的监督委员会依据上位法颁布专用于算法设计、使用、责任的规则等。这些建议体现了多元化机制保护消费者权益的共识,具有正当性、必要性,缺陷在于均未提及付诸实践的法律成本。

法律成本在我国法学鲜有讨论。这是法经济学的一个基本概念,是指法律系统运作的全部费用支出,即社会和当事人追求法律公正与权益所耗费的人力、物力、财力、时间等。法律成本是法律供给包括立法、司法、执法、守法的决策或行为的重要因素,法律成本的高低和效益往往决定社会对法律及其机制的选择和当事人守法、规避法律或违法的选择。由于经济学和法学的价值取向不同,法经济学至今是一个小众的研究领域,作为法经济学理论基础的科斯定理的普适性也有疑问,法律成本问题很少进入理论和实务的视野。然而,任何法律机制的有效性取决于法律成本的限度和效率,这无需长篇大论,日常生活经验就足以证明。我国刑法从醉驾一律入刑转为到醉驾不一定入刑、我国台湾地区的空头支票罪从新设到取消不过几年,别无原因,就是法律成本的驱动:不应为普遍发生而损害后果有限的不法行为过多地耗费监狱资源。

法律成本一直是民事责任的基础,填平原则以守约方、受害人损失或违约方、侵权人的获利作为违约或侵权的成本,惩罚性违约金或赔偿金以特定的恶劣的违约或侵权行为作为对价,法律成本在不同场景具有不同定位和功能。在传统或已定型的侵权责任中,岁月或立法凝练出了相对明确或固定的法律成本,前者如财产损害的责任方式,后者如人身损害的赔偿项目,淡忘法律成本对于理论和实务而言无伤大雅。算法歧视侵害消费者权益则不同,作为随着技术变迁而不断演化的新型侵权,算法歧视的复杂和隐蔽程度制约算法歧视侵权的识别成本,算法歧视侵权的泛化和碎片化制约算法歧视的治理成本,不易形成相对明确或固定的法律成本,需要理论和实务高度重视和解决。其中,经营者的违法成本、消费者的维权成本、社会的治理成本是决定算法歧视侵权治理成效的关键。

经营者违法成本远低于侵权收益是大数据杀熟普遍化的主要动因。截至2022年6月,我国网民达10.51亿人,歧视性算法一旦上线,无时不刻地自动算计潜在的消费者,让个体消费者多付几十、几百元,以北京消费者协会问卷调查的2021年大数据杀熟感受率86.91%计,蕴藏着集腋成裘的暴利。算法歧视基本不影响算法设计和使用成本,至多增加一些掩饰和巧辩的成本,如在APP中多些规避责任的提示环节,配置几个伶牙俐齿的员工应对投诉,为平息偶发的公众舆情支付一些公关费用,相比大数据杀熟收益完全可以忽略不计。对经营者真正有威胁的是算法歧视侵权的败诉成本,如果算法歧视侵权的败诉成本可能约等于甚至超过大数据杀熟的总收益,算法歧视侵权就不具有普遍的诱惑力,但现实是算法歧视侵权遭遇消费者投诉的机率极低,投诉成功的更低,经营者的零星败诉根本不影响算法歧视侵权的整体效益。“胡红芳诉上海携程商务有限公司侵权责任纠纷”一案是能检索的为数极少的消费者维权成功案例,以价格欺诈判令被告退一赔三高度体现了消费者权益保护的价值取向,即便如此,赔付额不足5千元对被告这样的商业巨头而言无疑是九牛一毛。极低的败诉风险和成本决定了经营者算法歧视侵权的利益选择。

消费者维权成本过高是大数据杀熟普遍化的重要原因。大数据杀熟集中于日常消费领域,网购、出行、订票等消费金额小,多数消费者对杀熟不敏感或难以敏感,少数敏感的多以投诉发泄气愤且经投诉处理的磨蹭不了了之,极少有较真的消费者提起诉讼。检索中国裁判文书网和北大法宝,2012年至2023年1月12日,有关消费者权益的案件总数为591710件,约占同期民事案件总数77294533件的0.76%,与消费者相关的算法歧视案件总数为1462件,实际与算法歧视侵害消费者权益相关的仅为11件。这一数据因关键词误差不甚精确,但足以反映算法歧视侵害消费者权益个案稀罕的状况。这符合日常生活经验,为几十、几百元损失请律师或自己走一审、二审甚至再审程序,费用或时间成本可几倍、几十倍高于损失,即便胜诉也得不偿失。“赵某某诉浙江淘宝网络有限公司网络服务合同纠纷”一案,原告诉请被告赔偿损失713元,一审判决予以驳回,减半收取原告诉讼费25元,无异于警示消费者维权不如忍声吞气。绝大多数消费者不得不两害取其轻,助长经营者算法歧视侵权的有恃无恐。

维护消费者权益一直是我国社会治理的一项重要任务和目标。《消费者权益保护法》明确规定保护消费者合法权益是全社会的共同责任,工商管理行政部门和有关行政部门直接而具体负责,消费者协会等予以社会监督,大众传播媒介予以舆论监督,人民法院方便消费者起诉,形成一个完整的治理体系,还有各种政府或社会组织的消费者投诉平台如全国12315投诉热线,中国315消费者维权网、中国电子商务投诉与维权公共服务平台、中国法学会消费者权益保护法研究会每年的315消费者权益保护典型案例发布会等,以便消费者投诉有门。在维护消费者权益上,我国社会投入了巨大的治理成本,立法保护、行政保护、司法保护、社会保护和消费者自我保护联动,专项治理不断,但在治理大数据杀熟上成效甚微,上海市2021年出台网络营销活动算法应用指引,15个部门联合应对大数据杀熟,效果不明。作为鲜明的对照,“阿里巴巴”滥用市场支配地位侵害平台商户权益被行政罚款182.28亿,威震经营者之间的不正当竞争。

有效治理算法歧视侵权必须抬高经营者违法成本。违法成本有两层意义:一是规则宣示的违法成本,二是个案应有的违法成本。规则层面的违法成本是确定个案违法成本的依据,个案是规则层面违法成本的用武之地,违法成本必须体现于规则,落实于个案,两者缺一不可。违法成本的确定一般依据违法行为和后果,但算法歧视侵权应以个案违法成本足以有效治理算法歧视为尺度。这是因为,大数据杀熟虽然普遍,但不易发现和证明,算法歧视侵权的隐蔽和动态使得消费者难以察觉前后几分钟机票价格随着查询次数上涨的杀熟,察觉了也难以有效固定相应证据,维权个案的形成机率低,标的额又小,以个案违法行为和后果作为确定算法歧视侵权成本,对于经营者而言犹如发放稳赚不赔的彩票末等奖,只会鼓励大数据杀熟。我国对大数据杀熟的规则警示明确、强硬,例如,《互联网信息服务算法推荐管理规定》第21条,但至今没有任何个案的违法成本足以支撑规则目的,大数据杀熟我行我素,这种状况必须改变。

首先,立法、行政、司法应形成大数据杀熟必须重罚的共识:重罚的本质是抬高违法成本实现当事人之间和当事人与公共利益之间的利益平衡。阿里巴巴的巨额罚款是为了经营者之间的利益平衡,相比之下,实现经营者和消费者的利益平衡更需要重罚。消费者利益是人的生存和发展利益,是市场经济的根本利益,是经营活动的最终目的,任何经济事业及其价值须以不得牺牲消费者利益为先决条件,大数据杀熟事关我国社会主义市场经济秩序,事关我国社会的核心利益,重罚具有充分的正当性;消费者个体在算法歧视下天然弱势,受害容易,维权不易,维权个案难得一现,唯有重罚个案经营者,才能冲抵个案经营者的大数据杀熟收益,遏制案外经营者大数据杀熟的博彩动机。基于大数据杀熟极少有过失情形,重罚应包括顶格的行政责任、加重的民事责任和必要的刑事责任,具体责任情形和限度应对标有效清除大数据杀熟等而不断完善和创新。

同时,立法、行政、司法应完善抬高大数据杀熟违法成本的机制:国务院应尽快出台7年前未竟的《消费者权益保护法实施细则》,专节规定算法歧视侵权与大数据杀熟,明确算法歧视认定的价值取向、构成要件、行政处罚情形等具体要素;在这之前,市场监督管理局应依据《反垄断法》第17条、《平台经济反垄断指南》第17条、《价格法》第14条等处罚大数据杀熟,无需拘泥规则的适用范围,因为消费者是垄断和不正当竞争的最终受害者,除直接查处投诉个案之外,对有生效判决的维权个案一个不漏地予以顶格的行政处罚,所得罚款一部分奖励维权胜诉的消费者,鼓励消费者发现和起诉大数据杀熟;法院应树立消费者权益保护的价值取向,以过错推定原则降低消费者的举证难度,以惩罚性赔偿金冲抵消费者的时间、精力和开支的维权成本,疑难案件应征询消费者协会等社会组织的意见;人民检察院应大力推进公益诉讼,主动监督消费者败诉案件,对确有错误的及时提起抗诉。




结  语

侵权行为源于弱肉强食,从石器时代、机器时代到如今的人机时代,其内容和形态随人类文明的进程不断演化和变异,但无论如何变化,其弱肉强食的动物本性始终如一。现代社会的侵权行为或有比较复杂的技术性,但不意味侵权法律关系相应复杂,更不意味侵权行为的治理有赖于相关技术。对于人类文明而言,确定和禁止侵权行为就是一个简单的抑制人类动物本性的问题,现代社会绝不允许人与人之间是弱肉强食的关系。面对大数据杀熟的事实,社会首先需要评估大数据杀熟是否属于弱肉强食,进而需要认定个案是否构成大数据杀熟,最终需要检视个案是否足以警示大数据杀熟。这一过程中,价值取向决定法律实践的具体方向,构成要件决定法律实践的个案结果,法律成本决定法律实践的社会效果。价值取向、构成要件、法律成本上的模糊或争议必然导致法律实践方向不定和行动摇摆,应当引起理论和实务的重视和争鸣,最终形成治理算法歧视侵害消费者权益的清晰共识和有效规则。


责任编辑:胡云红
文章来源:《法律适用》2023年第3期


排       版:王翼妍执行编辑:李春雨








扫二维码关注
继续滑动看下一个
法律适用
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存