算法权力规制的法律问题研究
原创文章,已得到独家授权,转载请添加公共微信“qmfmggwx2”进行接洽,取得许可后方可转载。对未经许可转载导致的侵权,本编辑部保留追究的权利。
编者按:算法如今广泛应用于社会生活的各个领域,并构建了全新的社会图景与现实。与此同时,智能时代下,数据俨然成为淬炼算法的烈焰,其最终内化为算法权力的基础;算法在规制用户行为方面也时常一展身手;更重要的是,政府似乎对算法表现出前所未有的热情,通过技术搭建社会治理体系,算法更是走上了公权力表演的前台。然而,算法帝国中,技术是圣贤还是暴君,究竟对算法权力如何规制方能确保算法社会始终围绕效率、公平、自由和善治的共同目标发展,对于上述疑问,本文作者的回答或许值得借鉴。
作者简介
戴曾盛(1995—),男 福建福州人,华侨大学法学院研究生在读,研究方向:国际经济法与金融法。
【摘要】强大的资源调配能力使得算法拥有权力基础而形成算法权力。算法权力嵌入社会之中虽为社会的运行带来一定便利,但亦造成算法歧视、算法侵权、算法与公权力合谋等一系列社会风险。为化解算法风险带来的负面影响,对算法权力的规制手段可以通过强化个人数权、监督算法本身、明确算法责任等方式限制算法的自治空间,平衡算法权力的强势地位,确保算法权力围绕正义、公平的目标运行。
【关键词】算法权力;侵权责任;个人数权保护;算法监督
目 录
一、问题的提出
二、算法权力的力量基础
(一)算法的技术力
(二)算法的强制力
(三)算法的决策力
三、算法权力的归责困境
(一)技术中立的抗辩
(二)用户协议的同意免责
(三)算法黑箱的监管逃逸
四、算法权力的规制建议
(一)强化个人数权
(二)监督算法本身运行
(三)明确算法责任
一、问题的提出
信息时代各行各业都离不开算法的协助,每个人无不在享受算法带来的便利。算法是人们对“机器理性”和“数学理性”的最高追求,人们利用数据、算法正在重塑一个更加客观且高效的物质世界。在ABC技术(人工智能、大数据、云计算)的整合创新下,算法作为最有效率的执行工具被商业公司、行政机关所采用,如淘宝网价格排名自动决策算法、今日头条的新闻推送算法、行政机关的犯罪预警系统、交通处罚的自动识别系统等。在日常决策中,算法凭借超强的算力和精准数据预测能力成为一些具体行为的直接来源,人之于算法的天然劣势使算法在这些决策中获得了“算法权威”。算法在增强政府的公共治理能力以及企业私权力的同时增强了自己对于社会资源的控制力和影响力,让算法的使用人形成了一种意识转向认为算法决策比人的判断更为有效,此时算法从辅助人的“技术力”成为了具有绝对权威的“支配力”,在技术优势的影响下算法权力由此诞生。一物均有两面,算法在带来便利的同时也导致了“算法歧视”、“算法侵权”“算法滥用”等新的社会风险出现。因此如何让算法权力受到有效规制,如何保障相对弱势的个人权益免于算法权力不当侵害,是信息时代需要深入研究的问题。
二、算法权力的力量基础
权力是一种社会关系,一个主体可以利用自己的资源对他人施加强制影响和控制。[]算法权力是人工智能技术平台的开发者和控制者在人工智能应用过程中利用算法在数据处理和深度学习算法方面的技术优势,对政府、公民、社会组织等对象产生的一种影响和控制力。其权力的力量基础表现在:
(一)算法的技术力
算法的力量来自于算法的技术优势,这体现在算法产生的影响力和控制力上。算法利用大数据以及云计算可以轻易的通过用户的浏览记录、访问通路、转帖点赞等数据分析用户的行为模式描绘出用户的“数据脸谱”,这样就可以有层次的为目标用户定向推送符合其爱好的个性化推送以此对用户产生影响和控制。如 2016“剑桥分析”利用8700万脸书用户个人资料,通过分析用户对于数据的好恶预测选民动向,定向投放广告帮助竞选者赢得选举。算法的技术力凭借自身大数据的优势,精确调动数据实现了对社会的巨大的影响,构成权力力量的来源。
(二)算法的强制力
生活中我们都曾面对这样的场景,意图接入互联网平台时用户必须通过注册才能够使用应用程序,未经用户注册、同意用户条款则被排除于程序之外。用户注册的流程本质上是合同订立的流程只有承认用户协议的内容网络平台才为其提供服务,其中网络平台一方的用户协议合意是由算法自动决策完成。在签订用户协议的过程中,用户对于用户协议中的内容只有确认的权利却没有修改、拒绝、要求解释的权利,而自动决策算法拥有拒绝用户接入平台的权利,可以见得个人与算法二者地位并不对等。例如淘宝网的用户协议要求用户接受自动化决策对于违约行为、支付风险的判定结果。又如淘宝网的风险提示算法会依用户照行为的风险程度指示支付宝公司对用户的支付宝账户采取取消收款、资金止付等强制措施。
在接入平台后,自动决策算法对用户拥有分析、处罚等强制权利,而用户则却缺乏有力的救济方式,只能因为自己“自愿”同意用户协议的格式条款而被迫放弃救济。这种无需与对象进行协商的强制力,使得自动决策算法拥有权利而免除义务,在私领域中构成了权利力量的来源。
(三)算法的决策力
在公共管理活动中自动化算法被作为决策工具大量应用,例如交通处罚中摄像头的自动人脸识别对违反交通法规的对象做出行政处罚。实施行政处罚的主体本是作为行政主体的行政机关和法律法规授权的组织,而在交通违章处罚的情境中,自动化算法从应用工具转化为行政主体在实质上替代了行政机关做出处罚。又如,疫情期间需要“健康码”的出示才有资格出入场所、搭乘交通工具。健康码的生成在行为类型上符合行政评级的特征,是由算法通过大数据计算结合相对人的相关信息或者过往的行为予以定性评价。[]此处的评价算法拥有了自动化决策的权利具有了行政主体的评级资格。自动化算法的便捷、高效、精准为行政机关所青睐,在部分应用场景中公权力高度依赖算法,甚至直接以算法得出的结论作为行政行为的实质依据,这使得算法获得了只有决策者才拥有的公共权力。算法的决策力为算法带来权力力量,在公领域中构成了权利力量的来源。
三、算法权力的归责窘境
传统侵权行为遵守“主体、行为、责任”的归责路径,然而面对算法侵权这类全新的侵权类型继续适用传统侵权责任模式易造成责任缺口。算法本身借由数据和终端跨越了数字空间和物理空间两个维度,而算法黑箱的技术壁垒造成了结果可见而决定过程不可见的隔离,当发生算法侵权时如何确定侵权主体与行为之间的因果关系、主体是否具有过错等难题,造成了算法权力难以规制的窘境。
(一)技术中立的抗辩
在理论上技术中立的含义至少包括三种:功能中立、责任中立和价值中立。其中技术中立的责任中立内涵是算法侵权较为常用的抗辩理由。[]责任中立指的是技术功能与实践后果的分离,若算法的设计人、使用人在算法设计、部署、应用的过程中对算法造成的侵权行为没有主观上的故意,那么技术使用者和实施者就不能够对损害后果承担侵权责任。例如2015年金德管业诉百度名誉侵权案中,百度的自动补足算法将金德管业与骗子相联系造成了名誉上的侵害,法院认为相关搜索词仅系动态反映过去特定期间内网络用户所使用的搜索词的客观情况并为当前用户的信息检索提供参考指引,对于搜索弹出的内容只是单纯的显示无褒贬含义。法官的判决表明,搜索引擎算法被认为是中立信息发布者,搜索提示是由算法自动产生且属于自然结果符合技术中立,故技术中立可以遮蔽侵权故意。然而算法效用的价值取向是由算法的所有人决定,算法的设计和部署必然带有一定的目的,而算法的推送的内容则是基于分析用户数据后得到的“用户偏好”,此时的数据接收并非用户的主动索取而是算法的主动推送,具有价值取向的算法很难说具有技术中立。这就形成了一种矛盾,在事实判断上技术并非中立,价值判断上技术中立可以阻断责任的承担,这使得对于算法权力的规制陷入窘境。
(二)用户协议的同意免责
发现用户协议的内容通常涉及买卖、服务、授权等多种权利义务,是明确当事人权利义务的重要依据。处于优势地位的网络平台通常在协议中减免自己的义务范围,而用户为了不被自我隔绝与网络之外只能无条件接受由运营商预先拟定的用户协议,若用户发现存在“霸王条款”希望与网络平台协商时会发现要求平台对格式条款解释的成本过高,这些在无形中限制了合同自由。网站的用户协议被故意设计的过于冗长,这使得多数用户未充分阅读便点击“同意”,即便有“霸王条款”、平台有任意修改和解除合同的权利、免除自身责任、加重用户责任等条款,非专业用户也难以识别。以淘宝网为例,“淘宝可依据您的用户数据与海量用户数据的关系来认定您是否构成违约:您有义务对您的数据异常现象进行充分举证和合理解释,否则将被认定为违约”、“淘宝会依照您行为的风险程度指示支付宝公司对您的支付宝账户采取取消收款、资金止付等强制措施。”淘宝网的用户协议包含了对自动决策算法的说明,用户接受了淘宝网的用户协议即同意了遵守淘宝网设置的自动决策算法及其决策方式,一旦出现自动决策算法的算法歧视问题,用户很难通过违约请求权举证算法的不公,并且平台可以声称用户在签署用户协议时已经对算法知情且同意进行抗辩。算法权力利用格式条款使用户自愿交出个人信息的控制权,同时承认算法对自己权利的限制,指定对算法权力有利救济的方式,以技术中立和用户同意为屏障逃避追责,使得对算法权力的归责陷入窘境。
(三)算法黑箱的监管逃逸
算法具备强大的数据处理和分析能力,在推动智慧城市建设的过程中有效的协助政府治理能力升级,在创新政府治理模式、加快实现国家治理能力现代化进程中亦发挥着积极的推动力。然而任何技术都具有两面性,行政机关的自动化决策系统是政府与商业机构合作研发的,其中由政府提供数据并且获得算法的使用权,而算法的设计、部署则是由商业公司负责,政府与私人公司的合作中蕴含了算法权力异化的风险,为此行政机关对算法的内部监管具有必要性。然而算法具有“算法黑箱”的运行不可知特性,即数据收集由于公共利益豁免知情同意规则而不透明。[]这造成公权力机关难以审查算法信息蕴含的风险,监管部门对算法的监管形成了监管空白。[]当“算法黑箱”的不透明特性引发公众被算法不正当侵害时,公众难以要求政府机关对算法的设计合法性、运行结果公平性做出解释亦难以举证证明算法侵权责任,这使得公民权利遭受侵害而无有效救济手段。此种情景导致政府公信力下降,同时造成算法的设计人、部署人利用“算法黑箱”的完成监管逃逸。
四、算法权力的规制建议
面对越来越多的自动化决策算法,因算法带来的威胁个体隐私与自由的社会风险显著提升。然而我国现有的法律规范尚缺乏有效的算法权力规制方式,面对算法权力兴起所带来的法律挑战,需要构建相匹配的规制手段。在人与算法的对抗中算法具有绝对的优势,当算法侵权产生侵权行为时个人处于弱势地位。为改变不对等的处境,可以采取强化个人数权、监督算法本身运行、明确算法责任的方式对算法进行限制。
(一)强化个人数权
1.知情同意之必要。知情同意原则是指个人有权决定何时、何地、以何种方式传递与其有关的信息,即信息主体有权决定外界在何种程度上获知自己的所思所想以及行动。知情同意原则源于人性尊严,若信息主体对其个人信息的处理活动失去控制力和参与度,则其将沦为由他人操纵的信息客体,有损其人性尊严地位。人得以自治自决,而非处于被操控的他决体,是人性尊严的核心之一。[]故同意原则应成为信息处理正当性的一般依据,为各国个人信息保护理论、立法和实践所采纳。《中华人民共和国个人信息保护法(草案)》(下称草案)第十四条表示处理个人信息的同意应当由个人在充分知情的前提下自愿、明确作出。该条明确了数据法领域的知情同意原则的确立。《草案》第十八条强调个人信息处理者在处理个人信息前,应当以显著方式、清晰易懂的语言向个人告知。该条强调了知情同意原则在处理信息的告知义务。《草案》第二十五条表示自动化决策方式作出对个人权益有重大影响的决定个人有权要求个人信息处理者予以说明。该条强调个人有权对自动化决策的运行方式要求说明,体现了算法处理程序的释明义务,亦是对知情同意原则的强化。可见知情同意原则对于算法权力的约束能够起到有效的限制作用。
2.配置算法解释权。在面对自动化决策算法侵害个人权益时,个人有权要求决策者说明决策的正当性、合法性、合理性,然而现实中算法的不透明性有碍个人解释权的实现。在追究自动化决策算法侵权责任的诉讼活动中被害人需要证明算法的过错,然而算法的不透明特性使得证明无法实现,这使得被害人缺乏救济的可能。为保障个人救济通道的顺畅,平衡算法权力的强势地位,为个人配置算法解释权具有正当性。算法解释权是自动化决策中信息不对称的有效纠偏工具,其作用在于使信息从信息优势方向信息劣势方流动,而达到双方衡平。[]在场景化中,被侵权人可以要求算法使用人解释算法目的,以此判断是过错还是技术误差;在自动化决策做出不利处罚时,可以要求行政机关解释算法的决策逻辑,以此判断处罚是否符合程序正义。算法解释权具有强制信息披露的功能,因此对信息弱势的相对人赋予算法解释权,使其得知自动化决策为何做出不利的具体原因,达到对信息不对称事后补救的效果,有助于个人权利的保护。
(二)监督算法本身运行
算法的决策路径具有“黑箱”般不透明的特性,处于黑箱中的算法决策过程不但不可见,而且非专业人士难以对黑箱中算法对数据流的处理流程难以观测检查并提出合理怀疑,这导致了算法决策过程缺少监管,亦损害了处于被动地位的普通用户的知情权。为减少算法权力的自治空间,保障普通用户合法权利,构建对算法本身的监管模式可以有效防范类似“大数据杀熟”等算法侵权事件的发生。
1.算法信息披露监督。算法技术具有中立的属性但算法本身不具有中立的价值,在算法设计时必然受到算法设计者、使用者的价值判断影响难免附带人的目的和偏见。为保障普通用户的知情权,可以尝试将操作规则、算法创建验证过程完全公开,保留类似“审计线索”的设计路径,确保算法设计的有迹可循。但算法信息披露并不是全面彻的强制公开设计路径,算法作为具有极大商业价值的知识产权亦需要保护,对涉及商业秘密的部分可以采取隐匿关键项的方式提供算法数据。
2.第三方社会监督。算法具有很强的专业性和复杂性,政府机构或普通民众对于算法监督难以实现有效审查,但社会上存在许多专业公司和技术人员如专业的算法安全公司、个人数据安全工作室等社会监督力量,因此政府机构通过许可或委托的方式邀请第三方机构进行算法审查。第三方专业机更加容易洞悉设计者的理念并了解具体的操作程序,通过同行专家的评价和信息披露,可以对设计者开发的算法进行有效监督,同时第三方专业机构价值中立,其不会偏向任何一方,对于有损决策公平性的算法黑箱零容忍。[]第三方社会监督亦可以为算法的公平性提供担保,对于保障个人权利能够起到良好效用。
(三)明确算法责任
算法本身技术中立,但算法的设计者、算法的部署人必然拥有价值上的判断,这使得算法在部署及应用的过程中有所指向,算法本身带来的算法权力亦受到此种价值趋向的影响,导致算法权力对于普通使用人权益遭受侵害。对于算法本身是否能够被追责、人工智能是否可以成为违法行为的主体等问题在学界颇具争议。为有效遏制算法权力滥用可能性,防范算法侵权导致的社会风险,首先要明确算法责任的规则对象。在现行法中尚不存在这类规则,故可以参照公司法中“刺破法人面纱”规则采取对算法的穿透监管、穿透追责,即算法侵权时要求算法的设计人、部署人、所有人承担侵权责任。其次规则责任的适用,在算法侵权中被侵权人处于劣地位而算法的控制人处于强势地位,算法的控制人应当具有更高的注意义务,为平衡双方差异应当在举证责任上有利于被害人。最后对于免责事由需要谨慎限缩,算法具有“算法黑箱”的数据特性以及用户“知情同意”的免责壁垒,能够轻易的规避侵权责任指向,宽松的免责事由不利于权益的保障。
参考文献
[1] 郭道晖.权力的特性及其要义[J].山东科技大学学报,2006(06):66
[2] 查云飞.健康码个人疫情风险的自动化评级与利用[J].浙江学刊,2020(03):32
[3] 郑玉双. 破解技术中立难题—法律与科技之关系的法理学再思[J].华东政法大学学报,2018(01):90
[4] 张凌寒.算法自动化决策与行政正当程序制度的冲突与调和[J].东方法学, 2020(06):70
[5] 谭九生,范晓韵.算法“黑箱”的成因、风险及其治理[J]. 湖南科技大学学报,2020(06):96.
[6] 宁园.个人信息保护中知情同意规则的坚守与修正[J].江西财经大学学报,2020(02):118.
[7] 张凌寒. 商业自动化决策的算法解释权研究[J]. 法律科学, 2018(03):70.
[8] 袁康. 社会监管理念下金融科技算法黑箱的制度因应[J].华中科技大学学报,2020(01):107.
青苗法鸣向全体青年学人进行长期征稿和专题征稿
一、长期征稿:
主要推送法学、文学、哲学、政治学、社会学、经济学等人文社会科学学科的学术类、思想类稿件,体裁不限,论文、时评、书评、影评、案例分析、译文等皆可。
以来稿质量为采用之标准,欢迎篇幅适中、论证详实、观点独到的稿件,来稿字数原则上不少于3000字。不对作者身份做要求,鼓励本科生练笔发声、交流进步。
为规范用稿,提高编辑质量和效率,来稿请以Word文档通过附件发至投稿邮箱:qmfmbjb@163.com,并在邮件标题注明“投稿青苗法鸣”,邮件正文中附上150字内的作者简介(内容不限,需包含作者姓名等基本信息,亦可附上照片)。对于所收稿件,我们会尽快安排评审,并在3天内回复审稿结果。
稿酬等详情请点击:稿酬有多好?够买一箱钟薛高!
二、专题征稿
请务必在来信标题中注明“专题征稿+主题”。专题征稿期限为:2021年8月11日-2021年9月30日,超出期限范围内的投稿仍然可收录,但不享受基础稿酬提高的福利。
本次专题征稿聚焦的选题有:
1.“集资”“打投”有关纠纷及法律问题;
2. 疫情防控中涉及的刑法问题分析;
3. 中美贸易战与国际法;
4. 互联网企业不正当竞争分析;
5.娱乐圈名誉权纠纷相关问题及反思;
6.洗钱相关法律问题;
7.运动员的就业保障问题;
8.个人破产法问题研究;
9.裁员与劳动争议;
稿酬等详情请点击:如何用知识获得超额收益?
本文责编 ✎ 清风
本期编辑 ✎ YH
推荐阅读
联系我们
长期收稿邮箱:qmfmbjb@163.com
社群交流请添加公共微信:
公共微信1:qmfmggwx
公共微信2:qmfmggwx2
付费咨询与讲座请添加小助手微信:qfxzsggwx
商务合作请添加微信:Fuermodian