查看原文
其他

思享|李晓辉:算法商业秘密与算法正义

李晓辉 法理杂志 2024-01-11



来源

《比较法研究》2021年第3期

作者简介

# 李晓辉

中国政法大学比较法学研究院副教授,法学博士;兼任中国法学会比较法学研究会常务理事,北京市比较法学研究会常务理事,教育部中外合作办学专家组法律事务专家,科技部国际科技管理信息系统专家库法律专家等。先后在《清华法学》《比较法研究》《华东政法大学学报》等期刊发表论文五十余篇;代表著作有《信息权利研究》《中外合作办学:法律制度与实践》等;代表译作有《比较法研究:传统与转型》等。主要研究领域为比较法、法理学等。

#

摘要

算法时代中,“算法黑箱”“算法歧视”和“算法茧房”等非正义现象引发了算法规制的需要。但算法商业秘密的存在使算法处于“黑箱”之中,成为算法正义实现的障碍。面对算法商业秘密与算法正义的张力可以从三个角度加以考量:商业秘密的公共利益平衡;算法知情同意权、算法解释权和算法拒绝权等私权制约;算法正当程序。由于对商业秘密的公共利益考量主要局限于维系商业道德和市场秩序,无法实现对算法商业秘密的有效制约。算法私权中基于一般道德和法理的算法拒绝权能够成为制衡算法商业秘密的强理由,同时,算法正义需要建构一种基于过程的,而不是仅基于结果的正当程序观。

“算法(algorithm)就是任何良定义的计算过程,该过程取某个值或值的集合作为输入,并产生某个值或值的集合作为输出。这样算法就是把输入转换成输出的计算步骤的一个序列。”

 

[美]科尔曼等:《算法导论》

殷建平等译,机械工业出版社2013年版

 

简言之,算法就是“计算机完成一个任务所需的一系列步骤”。

 

在大数据环境下,输入一个或者多个信息或指令,有效运行的算法就能够得到确定的结果。我们正在步入“算法时代”,算法已被广泛应用在工商业生产经营活动和公共管理中,成为第三波信息技术浪潮中的关键性结构要素。随着大数据和人工智能技术的发展,算法本身越来越凸显出其独立的法律价值,算法规制已经成为一个时代性的法律命题。


在这种情势下,一方面大量的资金和技术投入到算法的研发之中,追求企业和公共管理领域的竞争优势和核心能力,人财物力的汇聚需要专有权的保护以维系商业道德和竞争秩序;另一方面,“算法黑箱”“算法歧视”和“算法茧房”等负面效应,引发了广泛的担忧。当算法商业秘密这一“法律所保护的秘密”制造了“对于无知的无知”、“算法黑天鹅”与“深度秘密”时,我们也处在了无数不得而知的算法秘密的包围之中,正在被秘密算法的逻辑殖民。在“算法时代”所引发的保护和限制的张力之间,商业秘密这一“低密度”的“小制度”承载了前所未有的“大压力”。算法商业秘密保护的法律制度与实践直接反应了这种紧张关系。如何处理算法商业秘密保护与算法正义的关系?如何在保护商业秘密正当权益的同时避免算法非正义?寻找这些问题的答案不仅是算法商业秘密保护具体制度实践的要求,也是回应算法时代正义诉求的必经探索。

 


一、算法商业秘密保护与算法正义的张力


(一)商业秘密保护对象拓展至算法


频繁升级的算法在公开性上存在局限,在可专利性上存在争议。对算法的版权保护也没有形成相对一致的意见。而竞争法保护具有事后性,财产法保护又囿于传统民法财产法对有形财产的认识。因此,相比较而言,在诸种算法利益保护模式之中,算法的商业秘密保护在知识产权法层面是最没有争议的。


算法被纳入商业秘密保护,是商业秘密法不断扩张保护范围趋势的结果。随着我国商业秘密法律制度的发展,加之中美贸易摩擦和美国对华“301调查”报告的压力,我国2019年修订的反不正当竞争法加强了对商业秘密的保护力度,放宽了商业秘密保护的条件,增加了惩罚性赔偿,加强了对商业秘密的保护。2020年8月《最高人民法院关于审理侵犯商业秘密民事案件适用法律若干问题的规定》将算法列入了技术信息范畴,使其正式成为我国商业秘密法所保护的对象。对算法进行商业秘密保护,不仅是中国的做法,德国、日本等大陆法系国家也通过反不正当竞争的方式保护算法;美国《统一商业秘密保护法》(2016)和判例法也为算法提供了商业秘密保护。


(二)算法正义及其障碍


广义上的算法正义涵盖了社会对所有算法设计、运营,以及对其实质内容与运营程序所要求的理性道德原则和价值期待,既包括实体也包括程序,既包括过程也包括结果。算法正义要求算法实践在法治之下秉持平等、尊严与自由价值。但算法广泛应用中暴露出诸多问题:数据采集与捕获的平台单一性和数据失衡、数据处理中的不平等复制、算法分析中的偏见与歧视、数据应用决策中的不平等性等问题,都使算法非正义的一面受到普遍关注。从反面来看,“我们是否需要为了就一种亟待改善的不公正状况达成共识,而去寻求某一具体的谴责理由。值得指出的是,我们完全可以出于不同的缘由而产生强烈的不公正感,而不必就哪一条是其主要原因达成共识,这一点也正是正义理念的核心”。

 

[印]阿马蒂亚·森:《正义的理念》

王磊、李航译,中国人民大学出版社2012年版

 

推进正义和消减非正义是正义事业的两个维度。缺乏算法正义可能导致算法下的个人对算法决策的怀疑、不信赖、拒绝接受和拒绝服从,乃至积极的反抗与大规模抵制。尤其是在面对竞争性决策效果或涉及权利与负担的差异化分配时,算法的不公所导致的不满将产生更大的破坏力。算法正义的困难同时还在于,平衡算法平台与公众之间的利益与诉求,同时需要考虑算法运行的效率和正当收益。“……当规范使各种对社会生活利益的冲突要求之间有一恰当的平衡时,这些制度就是正义的。”

[]约翰·罗尔斯:《正义论》(修订版)

何怀宏、何包钢、廖申白译,中国社会科学出版社2017年版


 

因此,算法正义是一种平衡的正义。


一个算法既要包括算数运算、逻辑运算、关系运算,也要包括数据传输指令和赋值运算。而且算法作为一个指令系统,各指令之间的控制结构,运行顺序和相互关系也决定了算法的内部构成。从理论上讲,只要符合商业秘密的保密措施、不为公众所知晓并具有商业价值的构成要素,上述宽泛的算法内容都可以成为算法商业秘密保护的对象。商业秘密保护范围、程度和手段的不断增强,反映了信息社会维系商业道德和商业秩序的需要。但另一方面,大数据和人工智能算法引发广泛的算法规制呼声,普遍将商业秘密视为实现算法正义的障碍和算法霸权的保护伞。


在美国卢米斯(Statev. Loomis)案中,法院以保护商业秘密为由,拒绝了原告要求公开算法,以解释Northointe公司的自动算法COMPAS为何对原告作出“高风险”评估的诉请。在维亚康姆诉“油管”(Viacomv. YouTube)案中,商业秘密也成为平台拒绝公开算法的合法理由,并获得法院的支持。2016年,纽约市尝试通过立法强制政府机构披露源代码,但遭到来自企业的抵制,认为此举会伤害到企业的核心商业秘密,从而使该立法仅成为一种政策倡议。“当越来越多的公共服务基础设施采购市场主体的软件商品和服务的时候,商业秘密的主张和政府决策的民主性透明性之间的冲突也愈发凸显。”在大陆法国家,德国联邦最高法院在对2009年版《联邦数据保护法》第34条第4款第4项的解释中以触犯企业商业秘密和与立法目不符为由,拒绝了数据主体请求披露权重、评分公式、统计值和参考组等信息。且德国2017年新《联邦数据保护条例》直接废除了原第34条。在更广泛的层面,乃至于出现将商业秘密视为民主法治破坏者(比如对选举计票算法)的批评。


“商业秘密保护有效地在算法中创造了一种不需要公开的财产权利。它也强化了保持算法秘密的重要性。因为,一旦算法被披露就将丧失法律对商业秘密的保护。”“进而,在保密的气氛中,坏的信息与好的信息并存,并可能导致不公甚至灾难性的后果。”算法商业秘密保护产生的法律效果与算法正义的张力,成为了大数据和人工智能技术背景下的独特问题。一方面是商业秘密保护的法律价值遭遇到前所未有的挑战;另一方面,也为寻求算法正义制造了不小的困难。这种两难困境成为一种真实的法律和社会景观,使制度发展不得不追问解决这一问题的方案。本文将从公共利益限制、私权抗辩和正当程序三个层面回应这一问题。


 

二、算法商业秘密的公共利益限制


“商业秘密法作为平衡商业秘密权人和公共利益的制度设计,同样存在着保护公共利益的问题。商业秘密法保护公共利益的存在,意味着商业秘密法在总体上是合乎社会需要和社会总体利益要求的。”商业秘密权益不论是在知识产权框架下,还是作为某种财产或者基于契约的权利,作为私权均受到公共利益的限制,算法商业秘密也一样。要论证算法商业秘密保护的正当性问题,就需要回答算法商业秘密权益的存在不违背公共利益。


(一)算法商业秘密公共利益限制的核心指向及其局限


在制度上,根据美国《统一商业秘密法》及其相关法律规定,商业秘密的公共利益抗辩(限制)主要针对危害公共安全和国家安全、欺诈、犯罪、违法、侵权,以及影响公众健康、环保或重要福利的商业秘密。对于上述商业秘密,公共部门有要求其公开,乃至强制其公开的权力。在英国,商业秘密的公共利益抗辩从不法行为(犯罪和诈骗)控制逐渐发展到更为宽泛的“正当理由”抗辩,如非法价格同盟、存在危险隐患的医疗信息等所有涉及公共利益的不当行为。只有在保密所维护的私有利益高于公开所带来的公共利益的情况下才能限制披露商业秘密。英国宽泛的公共利益概念涉及:有害国家安全、违反制定法、欺诈、危害公共医疗危险事项、其他恶劣的行为等。而英国的公共利益限制发展到当前的“利益平衡阶段”则要求适当控制公共利益抗辩的滥用,以厘清公共利益的边界。欧盟《商业秘密保护指令》中所及公共利益,主要涉及不当行为、不道德行为或者以非法行为为目的获取、使用或者披露商业秘密,而公开商业秘密是揭露此种行为所必要。


概言之,在公共利益这一高度弹性的概念应用中,各国商业秘密保护法律实践中所形成的核心认识一般包括:违法性、危害性、必要性三种主要的指向。而且为了平衡商业利益与公共利益,对三种指向性质的认定往往集中在核心领域,并非常慎重地向边缘扩展。如违法性主要指犯罪和侵权;危害性主要是指对不特定人的健康与安全造成危害;必要性则集中在保护基本权利,为实现国家与社会安全秩序不可避免、不可回避、不可替代的事项上。而且实践中,对商业秘密的公共利益限制往往需要明确的法律授权,应有法律的明文规定,以执行职务和公共管理所必须,并经由正当程序,且公共机关应负有保密义务


而“算法黑箱”“算法歧视”和“算法茧房”等问题往往不涉及犯罪等严重违法性行为,不具有危害公共安全和健康等即刻可辨识的危险性,仅在公民基本权利的层面与公共利益具有关联。而由于宪法权利涵摄仍需大量法理和解释性支撑,各国现有部门法条文又普遍缺乏可适用性条款,使得“算法歧视”所涉及的平等权和“算法茧房”所涉及的自由权在司法实践中获得保护的可能性大大降低。


(二)商业秘密公共利益限制集中适用的领域及其局限


“商业秘密法旨在惩罚和预防违法行为,维护合理的商业行为标准。”工业革命以前的几个世纪,欧洲商业秘密的保护体现了商业和外交政策中所包含的强烈的“重商主义”,通过限制人员流动和经济激励来实现。英美法在19世纪开始的商业秘密侵权法保护提供了对中小商业企业的商业利益保护。可以说,商业秘密保护法的初心主要是维系商业道德。商业秘密权利的保护能够在一定程度上避免以不正当手段盗用他人商业秘密而谋取便利和利益,而使投入大量资源开发商业秘密的一方承担不必要的风险。这一逻辑是基于亚里士多德的矫正正义,即任何人对其所获之物应付出相应的代价,不能从他人受损中获利。在理论上,商业秘密法律保护是以两个在一定程度上相互补充的理论为基础的:一种理论强调保护所有人的信息,禁止盗用该信息,鼓励对信息的投入,这一理论与承认商业秘密是一种无形财产有关;另一种理论则强调威慑违法行为,反侵权,将商业秘密理解为一种可能被侵害的正当利益。


况且,商业秘密权益主要是一种私权,尤其是商业公司所具有的私权。与追求社会普遍利益的国家和公共主体不同,商业公司的存在基础在于追逐商业利益,实现资本增殖。因此,服务于商人和商业环境中的道德,也并不必然或者首要地以公共利益的实现为前提。而是以追求商业竞争优势和维护商业秩序优先。因此,商业秘密所指向的商业道德虽然总体上产生了利他和维系公共秩序的效果,但其实现途径仍然是以亚当·斯密的“面包师和铁匠式的自利性利他”为基础的,即各自追求自身利益最大化的同时满足了交互性利益的需要。这与公法领域处理公共利益的视角完全不同,公共领域中的公权力没有自身的利益,其存在的价值就在于追求最广泛的公共利益。公共利益是公权力存在的预设性前提,是其行为衡量的主要标尺。因此要求一种私权利本身为公共利益放弃自身的诉求,显然是对公共领域与私人领域、公权力与私权利行使方式的混淆。


“作为其核心,商业秘密法所设想的基本场景是:以金钱利益为首要目标的,不同私主体之间的竞争。”由秘密性保障的知识专有,相较于专利等维护创新成果的知识产权,商业道德是商业秘密保护的首要目的。“在维护商业道德中,商业秘密法提升了社会的道德品味,增强了对市场公平竞争秩序的维护,从而在更广泛、更高的层次上实现了社会公共利益。这种公共利益也体现在确保诚信的商业道德的基础之上,商业秘密法维护了商业交易的稳定性和安全性,从而促成了商业秘密在市场流转中的社会效用。”


然而,算法时代的到来将算法商业秘密的保护推到了商业和市场之外更为广泛而普遍的道德和法律领域。算法所及已经不仅是商事竞争和市场秩序,大量涉及到公民的各类信息和数据权益,涉及到不遭受算法歧视的平等权、言论和表达自由权乃至信息获取自由等基本权利。在如此广阔的范围内,商业秘密法所给予算法的公共利益衡量和道德限制就显得捉襟见肘了。商业秘密公共利益衡量所使用的标准,主要局限于商业道德和市场秩序的层面。服务于私人商业领域的商业秘密保护法的理论、判例和法条中的概念和法理不适用于更广泛的社会民主价值领域。当商业秘密法所提供的保护商业道德和维护市场竞争秩序的善,与更大范围的一般道德和基本权利所代表的善——公共政治生活、社会生活中的善——相冲突时,商业道德反而成为妨碍后者实现的障碍。算法商业秘密的公共利益衡量已经超出了部门法的领域,其自身的矫正机制无法解决,必然要突破商业秘密法自身系统与公共领域产生复杂的关系。“商业秘密必须为透明度和可追责性的传统观念让路,尽管在私人商业领域中保护商业秘密有好的理由,但当其涉及到基础性公共基础设施的时候,基本的透明度与可问责性的民主价值优先。”尽管在理论上多有主张商业秘密一旦走出私人商业领域即应受到公共善的制约,但在“骨感”的现实中,无论在立法还是在司法层面,对商业秘密的保护都占据了上风,其原因仍在于启动压制算法商业秘密的法律机制因其复杂性和不确定性仍有诸多障碍需要跨越。事实上,以公共利益抗衡商业秘密,早有众多败绩,比如著名的美国1984年的“孟山都案”,美国联邦最高法院支持了农业巨头孟山都公司以商业秘密为抗辩理由,不公开涉嫌严重危害环境的农药配方。因此,仰赖传统商业秘密法上的公共利益限制来达成与算法正义的平衡仍然是非常困难的。

 


三、私权对策:算法知情同意权、算法解释权与算法拒绝权


在算法深度嵌入社会组织结构和治理结构的情况下,个人面对算法平台的弱势地位几乎被锁定,决定与被决定的地位差以及信息不对称的程度也被进一步放大。出于权力制约和契约正义的要求,赋予个人以平衡算法权力的权利,就成为达成算法正义的必然选择。目前,这些与算法权力形成对峙势态的私权利主要包括知情同意权、算法解释权和算法拒绝权。这些私权利与维护算法平台利益的商业秘密形成了直接的对应性关系。算法平台可以运用商业秘密作为上述三种算法私权利的抗辩,从而成为具体场景下“妨碍算法正义实现的绊脚石”。反之,算法私权利也可以作为限制商业秘密权的抗辩,形成规制算法的重要手段。


(一)知情同意权与算法解释权


1.知情同意权作为契约的正当性前提


知情同意权的法理建立在契约正义理论的基础上。契约正义不仅适用于私域,也可以用于理解公共性问题,乃至作为公共权力正当性及其治理手段的基础。况且在公共服务外包的情况下,政府和市场已经越来越多地搅在一起。契约之所以作为一种规范形式并具有某种道德力量,恰在于其所要求的正当性前提。“当两个人达成一种契约时,我们可以从两种观点来评估其公正性。其一,我们可以探讨一下他们达成契约的条件,即双方是自由地还是强迫地达成此契约。其二,我们可以考察该契约的具体条款,即双方是否公平地获得各自的份额。”“我们可以将契约的道德性视为由两种相关却不同的理想构成。一为自律理想,它把契约视为一种意志行为,其道德在于交易的自愿品格。另一种理想是相互性的理想,它将契约视为一种互利的工具,其道德取决于相互交换的潜在的公平性。”

 

[美]桑德尔:《自由主义与正义的局限》

万俊人译,译林出版社2001年版


 

算法平台与个人的关系可以理解为一种契约关系,对于算法运用的知情与同意是构建个人与算法平台之间契约正义的前提之一。契约的道德正当来自于人们自愿达成并自愿受其约束的事实。而个体自愿进入契约约束的前提是对契约内容,尤其是自身和他人的契约权利义务的知情以及在此基础上的同意。契约正当性的前提意味着处于算法选择和影响之下的主体,有权了解算法及其存在的数据环境是以何种逻辑来处理其信息,以及如何生成算法结论的过程。


在既有法律中,医患关系的契约涉及较大信息和技术地位差,与算法平台和个人的情景类似。借鉴医患契约的法律要求,患者作为信息和技术弱势一方享有订立医疗契约过程中的知情权。判断患者知情存在三种标准:合理医生标准、合理患者标准和具体患者标准。这种基于不同契约身份的合理标准逻辑可以应用于理解算法知情权的场景之中,由此产生合理平台标准、合理算法平台对象个人标准(以下简称“合理个人标准”)和具体算法平台对象个人标准(以下简称“具体个人标准”)。合理平台标准,依据的是在行业惯例和商业利益的均衡之下所能达到的对平台算法解释的合理要求。合理个人标准是一个理性的、算法平台处理对象的个人在通常情况下决定是否接受平台处理其信息和决策所需要了解的信息。而具体个人标准则需要在合理个人标准的情况下加入更多的个人具体身份考量,比如未成年人、残疾人等其他情况。这三种标准在严格程度上逐级递进。


2.知情同意权、算法解释权的实质与形式化


知情同意的权利为算法平台设置解释的义务,也即形成了另外一项具体的算法私权利:算法解释权。在权利主体无法通过自身信息和技术能力获得充分理解的时候,信息和技术优势一方的解释就成为知情同意的前提。在逻辑上,算法解释权是知情同意权的内容之一。而之所以算法解释权演化成为一种独立的权利形式也说明了知情同意权需要进一步强调这一权能内容,并对算法平台强调此项义务。对应上述知情同意权的标准,也对算法平台设置相应的义务标准。算法平台解释义务的内容、形式和程度要求满足任一下述三种不同程度的解释标准,即行业的合理性解释标准、一般个人同意算法决策的合理标准或者具体个人同意算法决策的合理标准。


但现实中,知情同意权在信息技术规制领域中,即便是在相对发展比较早的个人信息和数据规制领域也仍然存在“形式大于实质、妨碍数据经济发展、违背个人信息社会属性”等问题。对算法知情同意权和算法解释权的理解同样存在上述问题。知情同意权和算法解释权的疲弱在于,生存于网络环境和大数据信息社会中的个人对算法及其数据环境的高度依赖以及在格式化内容面前的绝对弱势。个体对于算法技术过程的茫然无知,不具备理解其要义的技术能力和知识基础。加之,算法解释上的技术障碍、算法运行的规模、平台的自身和行业自律机制不足也很难实现充分、实质的解释与知情。


算法平台制作繁冗的知情同意和隐私政策条款,使数据主体无所适从,大部分的情况下是盲目同意。将知情同意权作为处理个人信息刚性甚至唯一合法理由,遭遇到的反对之声不绝于耳。反对者们不仅强调了现实的不可行性,而且认为宽泛绝对地强调知情同意,既不现实也不必要。况且社会心理学研究显示,同意标准的提高和同意的宽泛要求可能会引发“同意迟钝”(consentdesensitization)。对信息主体的同意要求越高,就可能越引发主体的惰性与忽视,反而会妨碍知情同意权的功能发挥和效果显现。在这种情况下,即便是没有商业秘密权的保护,算法的知情同意与解释权也很难实现。


3.知情同意权与商业秘密权益之间的冲突


欧盟《通用数据保护条例》(GDPR)第22条规定的知情同意权要求控制者在搜集信息时向数据主体提供个人信息处理目的以及处理法律基础的相关信息。规定控制者在获取个人数据时,应当向数据主体提供自动化处理过程中运用的逻辑以及该种数据处理对数据主体的重要性和可能产生的后果。其中“自动化处理运用逻辑”的信息包括处理过程背后的原理或者决策作出的标准。GDPR第29条工作组的指南显示,这种对数据主体的信息披露应该达到对“主体有意义”的程度;应包括这些被搜集信息的主要特征、信息来源相关性以及该原理,并应当以“易见、易懂、易读”的方式提供,并辅以示例。上述欧盟GDPR的知情权规定显示了一种以算法主体对象个人认知为标准的倾向。


我国个人信息保护法草案(二审稿)第13条将“取得个人同意”列为信息处理者可以处理个人信息的合法条件之一,与履行合同所必须、履行法定职责或义务所必须、紧急状态、公共舆论监督和其他法定情形同时并列,而没有将知情同意列为一般要件将其他情形列为例外。如此立法实质上降低了知情同意权的强度。而该草案第15条将知情作为同意的前提,要求信息处理者在获得个人的同意时,应当由个人在充分知情的前提下,自愿、明确地作出意思表示,并同时规定了个人单独、书面同意和撤回同意等特殊要求。在该草案第30条和第31条中还规定了对敏感信息应取得个人单独同意的专门要求,并要求告知敏感信息搜集的必要性和可能影响。但由于前述第13条将知情同意仅作为一种法定情形之一而不是前提,对知情同意的各项要求所可能发挥的作用就会受到相当程度的限制。


算法由基本运算及其规定的运算顺序所构成的完整的解题步骤或者计算序列组成。算法逻辑往往是决定算法性能和特质的重要因素之一。自动决策机制涉及到算法使用的参数、参数类型所占的决策比重,以及处理决策参数的或等级或平行或递进等模式。其中,自动决策机制和识别分析过程中运用的逻辑,涉及算法商业秘密的核心内容。大部分的算法商业秘密保护都将覆盖到算法的逻辑和算法决策机制。但算法逻辑和算法决策机制,不等于算法的源代码。当然,具体算法商业秘密保护的范围尚需要司法机关以传统商业秘密“三要素”(采取了保密措施、不为他人所知且具有商业价值)来具体确定。算法的核心内容既受到商业秘密保护,也是知情同意权指向的对象。一个要求秘密性,一个要求透明度和开放性,对相同对象“保密与获知”的相反权利要求必然产生权利冲突。在处理权利冲突中,权利位阶、权利边界、权利权衡等处理方法,往往又会回到更为基础的利益衡量、价值平衡的层面。由于算法内嵌到社会的广泛领域,成为结构性要素,限制算法的私利益也就不仅仅是对私人商业利益的限制,而是涉及到以算法为架构的社会基本秩序的稳定、效率与可能性问题。面对商业秘密限制,各国立法与司法犹豫不决的原因也恰在于此。在这个意义上,算法知情权和算法解释权很难成为抗辩算法商业秘密的充分理由。


4.限缩的算法解释权


欧盟GDPR第22条规定的算法解释权限定在“仅基于自动化的数据处理”的算法之内,而将有人工参与的算法排除在解释权之外,并且规定了三种可以对数据主体适用自动化算法无需解释的例外:“合同履行、欧盟或者成员国法律授权以及基于数据主体明确同意”。尽管要求数据控制者即便是在例外的情况下也仍然需要采取适当措施保护数据主体的权利、自由和合法利益,但仍然显示出了对算法解释权使用范围的限定。而且基本上将算法解释权设定为一种事后权,也即是一种在数据主体认为算法可能存在歧视和其他不公问题时所主张的权利。我国个人信息保护法草案(二审稿)第48条规定:“个人有权要求个人信息处理者对其个人信息处理规则进行解释说明。”这一规定中所指的规则具体内容、启动解释权的时间点以及解释说明所应达到的程度等问题都有待后续法律解释的进一步澄清。


即便是在欧盟GDPR中,限缩的、事后的解释权与契约正义所要求的自治、自律和自愿原则仍有偏差。在订立契约时,个人对契约权利义务的内容和后果未加充分了解,在不知情、非自愿的情况下成为了算法平台的对象,无论其结果是多么的合理与适当,在契约伦理上都缺乏正当性。严格来看,没有事前解释和知情同意的前提下,契约的存在本身就是一种侵害。由此说来,无论是事后的解释权还是事中的知情权都不足以支撑契约自愿原则。若无法达到足以支持有意义的判断的知情,那么契约本身的内容是否互惠也就无从了解了。这种事后的解释权,即便没有商业秘密权利的拦阻,也只能构成算法拒绝权的理由,而无法满足契约正义的前提性要求。


再进一步说,即便是知情与同意也并不能满足契约公正的实质要求。知情并自愿同意本身并不能赋予一个契约行为以正当性。“默许甚至认同明显不公正的制度都不能产生义务。”在算法社会中,个人即便同意不公平的、带有歧视性乃至侵夺性的算法协议,成为算法支配的对象,其同意本身也不能证成算法正当性。“决定这个契约是否公正的因素不在于它是否是双方一致达成的,而在于一个更深层面的问题。”契约的道德正当往往还需要一个实质的外在理由,即便这一理由是什么存在争议。但至少契约的实质内容应该是互惠的,而不是一方以优势获取大的利益,另一方由于弱势不得不牺牲其利益诉求。合意的契约仍有可能是不正义的,即使这些不正义的契约及其执行可能对于当事人而言没那么重要,但其所积累的负能量,如同冰川之下的火山,随时有爆发的危险。


(二)算法拒绝权


如果知情同意权和算法解释权不足以建构算法契约的正当性,且会与商业秘密权益形成冲突,难以平衡。那么算法拒绝权能否成为捍卫私主体权益的防线,并有效制衡商业秘密权益,助益算法正义呢?


1.算法结果拒绝权


欧盟委员会在制定GDPR的过程中,曾意图承认个体享有拒绝自动决策算法使用的权利。欧盟2012年提交的通用数据保护条例草案第21条第1款规定,数据主体有权拒绝屈从于以自动数据处理为方法的程序,只要该程序严重影响了其法律利益或类似利益。“算法应用拒绝权使数据主体获得了一种一概拒绝自动决策算法应用的可能:不论算法结果是否对自身有利,个体均可以要求所有与自身有关的决定均不得由自动决策算法做出。”但算法应用拒绝权可能危及包括数据画像技术在内的行业发展,阻碍技术创新。如果赋予数据主体无理由拒绝算法应用的权利,将给算法平台和经济技术体系制造巨大的运营成本,并可能抵消算法运行带来的正面社会效果。


因此,算法结果拒绝权,而不是算法应用的拒绝权,就成为一种折中的选择。数据主体不享有拒绝算法应用的权利,但享有拒绝接受算法结果的权利,即算法结果拒绝权。欧洲理事会的算法结果拒绝权方案最终被欧盟委员会接受,并在GDPR中予以规定。GDPR第22条原则上允许数据主体享有对自动决策算法结果的拒绝权。主张算法拒绝权所需要的条件是:自动决策算法是实际决策者;算法决策对数据主体产生了严重的影响。但GDPR也规定,如果符合豁免事由,个人不得拒绝自动决策算法的决定。在国家层面,德国《联邦数据保护法》对保险行业算法应用也赋予了豁免权,以保护保险行业的特殊需求,避免对保险行业商业模式造成过大打击。而且该德国法案第22条第2款C项规定,如果数据主体已经明确同意自动决策算法的应用,就不能拒绝接受算法的结果。显然GDPR中的算法结果拒绝权,成为了一种限缩的算法拒绝权,即具有事后性、条件性(要求拒绝的数据主体提供理由)、结果性和可豁免性。


我国个人信息保护法草案(二审稿)第25条规定:“当个人认为自动化决策对其权益造成重大影响的,有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”从语义上来看,该草案设定了算法拒绝权,且该权利具有下述特征:仅针对“自动化决策”,但未设定是完全的自动化决策还是包括有人为参与的半自动化决策;并未体现明显的时间性,也即个人可以在得知自动化决策对其权益造成重大影响的时候启动权利诉求,无论事前、事中还是事后;启动拒绝权的条件是个人主观上认为即可,对于证据强度未作要求,但应达到对个人的权益造成“重大影响”的程度;该拒绝权的内容是拒绝“仅通过自动化决策的方式作出决定”,是一种不完全的拒绝权,也即不是拒绝算法,而是拒绝非人为的全自动化算法的决定。由于对自动决策算法拒绝权尚有相当的模糊性,比较欧盟的算法结果拒绝权,很难判断这一规定是一种基于结果的算法拒绝权。


在我国个人信息保护法草案(二审稿)第44条对个人信息权利的一般性规定中,个人有权限制或者拒绝他人对其个人信息进行处理,这似乎是一种范围更加广泛和彻底的“一般性信息处理拒绝权”。依照草案第44条规定的一般性信息处理拒绝权,个人对于所有信息的处理,无论是否是自动化决策算法处理的信息行为,都有权拒绝,可以彻底退出信息处理过程,完全拒绝信息处理者处理其信息。当然,也可以包括限制信息处理的要求。草案第44条规定的一般性信息处理拒绝权的广度和强度超过了第25条针对自动化决策算法专门规定的规格,但也产生了一般性的信息处理拒绝权和自动化决策算法拒绝权的适用优先性问题。而且,关于信息处理和自动决策算法拒绝权的规定没有考虑到一般性信息处理拒绝权对产业的影响和个人主张这一权利的现实可能性。


2.算法拒绝权可以成为强制衡


一般认为,算法拒绝权的理由是对个人权益产生严重影响。但如果对个人的权益影响构成一种普遍权利要求,这种算法应用带来的权益减损就不仅仅是单个人具体福利层面的损失,当然也包括一种普遍认同的道德和法理层面的理由。关于这一点,拉兹的“共同善”理论从正面提供了论证。权利的正当不仅来自权利主体利益的正当,“在大多数情形中,共同善所带来的利益对个人的重要性比他们享有自己的公民权与政治权利的重要性要更大,因此,在自由主义民主国家中这种权利享有的地位更多地归功于其对共同善的贡献”。

 

[英]约瑟夫·拉兹:《权利与个人福利》

葛四友译,载朱振、刘小平、瞿郑龙编译:

《权利理论》,上海三联书店2020年版

 

共同善理论为权利提供了理由,同时也为权衡权利在具体语境中的重要性和价值提供了基础。


从反向论证来看,权利正当的理由和法理不只是建立在“权利”本身所意指的普遍性上,也建立在权益减损基于一般道德和法理是不可接受的。托马斯·斯坎伦认为拒绝权是契约道德证成的一种反向逻辑。“……一个行为如果其事实在那种境遇之下会被一般行为规则的任何一套原则所禁止,那么,这个行为就是不正当的;这种一般行为规则是没有人能有理由将其作为明智的、非强制的普遍一致意见之基础而拒绝的。”

 

[美]托马斯·斯坎伦:《我们彼此负有什么义务》

杨选译,人民出版社2008年版

 

反之,如果对于一种行为存在上述意义上普遍的道德理由加以拒绝,那么这种行为就是不正当的。道德上的对错以及其他的概念,如价值等,都只能通过人们无法合理地拒斥的理由来加以界定和说明。斯坎伦所主张的拒绝权基于一种道德主体普遍的共同主张。合理拒绝权以社会的互惠互利和共同生存为前提和基础来思考行为的道德和法律理由。


就算法拒绝权而言,个体基于结果的拒绝可能依赖的普遍道德理由至少包括:歧视、信息压制与尊严贬低、数据与信息的不自由。当然,在具体场景中论证这些理由需要引入更为复杂的道德和法律叙事,而这些叙事本身有可能是相当模糊或者多元的。在道德正当的意义上,这种结果主义的论证未必是事后的,也可以是在事前知情和事中运行过程中发现后加以主张的。所谓被拒绝的结果,可以指在逻辑上合理推理的结果,也指可能或者已经发生在他人身上的类似结果。只要这种结果是可以合理说明的,就可以构成个体拒绝算法的理由。普遍的可接受性是合理性判断的基本要求。


但斯坎伦意义上的普遍道德判断需要满足一定的条件,即信息充分,不受强迫。“所谓‘信息充分’乃是把基于迷信和对行为后果的错误估计达成的一致排除在外;所谓‘不被强迫’不仅包括不被强制参与、强制同意,还包括不能把协议的结果强加给他人。换言之,缔约各方能够清楚地意识到自己的处境、背景、目标等各种与缔约活动相关的信息,并自由、自愿地参与缔约。”在算法世界,算法结果拒绝权需要权利人在不受强制的且认识到结果及其对自身之意义的情况下作出拒绝的意思表示。


当算法上存在商业秘密权益时,基于一般道德理由或法律理由的算法拒绝权仍构成对商业秘密的一种强制衡。当两种权利(益)形成实质对峙,双方都具有合法性时,算法的结果拒绝权可能成为制约商业秘密的优势理由。这种制衡不仅具有充分的理论基础,且更具有现实性。综合现有的立法思路,算法拒绝权限缩在结果拒绝权范围内,且有例外条款存在,对算法经济的影响较小,其相较于算法知情同意和解释权的要求因兼顾到产业的利益而更易于被接受。另一方面,私权主体对于算法结果是否严重影响到其切身权益,不需要太多专业知识即可作出判断。私主体只需要了解算法平台的算法对其权益进行了处理,且这一处理的结果产生了对自身严重的不利影响即可。从权利行使的方式而言,拒绝权是一种单方意志决定的权利,权利的行使不需要以相对方的义务履行为实现要件。如果算法平台服务本身为私主体的社会生活所必须,权利主体也可以拒绝平台仅通过自动化决策处理其信息。这就意味着算法平台应启动有人工介入的算法和必要的解释等后续工作。而权利主体也可以在要求承担法律责任和损失赔偿之前及时止损。当然,算法结果拒绝权成为制衡算法商业秘密的强理由,更主要的原因在于算法拒绝权所具有的更为普遍和根本的道德和法理论证,在对等法律权利的道德衡量过程中,商业秘密所代表的商业道德和良序市场价值将处于劣势。算法商业秘密只能仰赖于保护算法经济和算法社会基本结构稳定的功利权衡下获得某种最低程度的保全。当二者的矛盾尖锐到一定程度,在道德和法理上,此种强的算法拒绝权将占据优势,压制商业秘密。


尽管在道德和法理上,算法结果拒绝权较商业秘密权益具有优势,但现实中即便GDPR高强度的算法私权利保护机制,也限制了算法结果拒绝权的应用,并实际上假定了算法带来的社会增益超过了对个体权利的侵害和影响,默许算法社会以牺牲个体同意为条件,以保证算法运营为优先,以最低限度地维系个人权益为底线。可以说这是一种算法社会现实的功利主义。当一种社会制度和社会安排能够为多数人带来福利提升时,即许可牺牲少数可能遭受到负面影响的个体利益。在这种大环境下,算法商业秘密权获得了权宜性保障。之所以说此种算法功利主义假定所带来对算法平台的保护(包括以商业秘密权益形式的保护)是权宜的,是因为算法功利主义不足以对抗包括算法拒绝权在内的一般法理和普遍道德理由。当算法拒绝权所代表的普遍道德理由和法权的声音逐渐放大,直至动用宪法基本权利和普遍认同的道德理由干预时,商业秘密就要面临被限缩的局面。也或许,算法技术发展出了更为复杂的平衡私权机制,再借助于更多样的算法风险防范和解决机制,将会化解掉算法本身可能存在的道德和法律风险,形成新的既保全商业利益和算法福利,也不侵害基本平等、自由和尊严的新平衡。

 


四、算法正当程序:公开性问题


算法私权对算法权力制约的讨论集中在一个瓶颈处,即公开性问题。不论知情同意权、解释权还是结果拒绝权,都需要一个能够充分了解算法信息的途径,以达到权利主体亦或监督者形成有意义判断的程度。以算法的公开性和透明性换取算法正义是一种常规的思路。然而,当商业秘密为算法罩上黑箱时,一切可能的算法正义似乎都被阻挡在了门外。一个不公开的算法就可能是不正义的。追求算法正义一定要打破算法黑箱吗?


(一)算法作为正当程序的技术问题


这一问题涉及到另一种追寻算法正义之路,即程序正义之路。这种思路主张:算法已经形成了某种干涉和控制的权力,权力的行使需要道德上的证成,需要限制和避免算法权力的滥用,因此“算法与正当程序有关”。应借鉴行政权力等公共权力行使的正当程序理念,使其满足正当程序的规范性要求。在此,算法正义的瓶颈——“公开性”问题——就转化为:算法公开是否是正当程序的必要?存在不公开的正当程序吗?


“公众的注意是对专断和不正义的一个有效制约,一种正义的程序能够将法治与恣意区分开来。”

 

[美]贝勒斯:《程序正义:向个人的分配》

邓海平译,高等教育出版社2005年版


 

阳光之下无罪恶,黑箱之内易藏不公。这一判断建立在对传统程序正义的理解之上,即公开是程序正义之根本。“为了避免算法操纵,可依赖的唯一做法,就是攻破算法黑箱,使得算法透明化。”秘密的就是不正义的。这一点在程序正义的意义上几乎是不容反驳的。尽管公开性不是治疗程序非正义的“万灵药”,但的确可以成为防范某些程序非正义的“止痛片”。


按照贝勒斯(MichaelD. Bayles)关于程序类型的划分,大部分算法决策程序属于“做出使相对方承担负担或者享受利益的决定之程序”。目前,无论是商业平台还是公共机构所使用的算法,基本上是依赖大数据进行分类、甄别、判断,从而作出决策和选择,算法所处理的问题从定价、雇佣选择、最佳医疗解决方案、量刑到护照发放、移民资格等,涉及公民的多种权利、利益和负担,其处理的公正性也是法律规制最为关切的方面。算法不公会造成高昂的经济和道德成本,应受到正当程序的规制。


依据正当程序的要求,权益受到决策影响的任何当事人都应被告知决策的性质和理由,并享有陈述意见和获得抗辩的权利。在行政程序中,特别是在政府的决定影响相对方利益的程序中,程序设计最为要害之处也在于充分提示那些权益可能受到影响的主体,使其知悉对其不利的证据,并利用反驳证据、询问以及辩论等对应性机制,对行政决定可能对其产生的不利影响加以纠正、阻断。在这个意义上,程序正义是实现可预测性和可计算性的形式化手段。算法自动化决策一方面增强了行政权力,另一方面也侵蚀了正当程序制度。


当然,算法处于黑箱之中并不必然就是不正义的。传统程序正义所针对的“黑箱”往往指向公共权力运作,其本应透明化,不该被定为特殊领域而加以秘密保护。秘密性保护下的算法与本应透明而自罩黑箱的公共权力是两种不同性质之物。“算法黑箱本身并不是应当遭受谴责的现象,一方面,如同过去所言,黑箱不等于不公平;另一方面,算法黑箱也是算法社会得以建立的基础,除非能找到理由说应当彻底否定算法社会的正当性,而这一点因为算法社会对福祉明显促进而变得非常艰难。”


算法公开的可行性遭到了技术派的挑战。技术层面的观点认为,主张算法解释和算法公开,以换取算法透明度的方法本身就是天真的。目前的算法中,开放性算法(“白箱算法”)和半开放性的算法(“灰箱算法”)可以通过披露计算机指令的形式公开算法的具体操作过程,这一过程亦能为业内技术人员加以还原实现。但处于算法发展高级阶段的“黑箱算法”、“感知算法”、“奇异算法”等与AI自主学习相关的算法,特别是自动决策的人工智能算法,包含了大量的随机性及其学习过程中自主积累的算法逻辑,已经超越了人们当前的认知范围,即便是算法设计人也很难完全还原算法展开的过程,无法做到清晰描述和披露,无法达到为业内技术人员所了解并付诸实现的程度。算法随机性本身是算法克服人为操控和主观臆断的重要计算逻辑,但是算法运行中的随机性也将算法展现为一种无法完全解释的指令系统。而人们却总是会要么把算法想象成某种绝对可靠的东西,要么将其妖魔化为黑箱中的“巫术”。对这一问题的讨论在算法可专利性问题上已经有所展开。另外,图灵停机(haltingproblem)问题所体现的算法循环运行逻辑障碍本身就说明了,在一个静态的情况下评估算法逻辑是不可能的。况且,算法需要在大数据环境下工作,目前算法所依凭的大数据本身也受到商业秘密的保护,仅公开算法而不公开作为其工作环境的、不断变换的大数据,也无法获得对算法效果的有效性评估。


算法的运行被理解为内部的技术问题,不为公众所知悉是一般的状态。算法本身对于公众而言存在理解上的技术能力障碍。往往只有技术专家才能解读和判断算法模块、算法逻辑、代码程序的意义和逻辑关系。人们至多了解算法运行中输入与输出的两端,而对结果生成的过程很难充分理解。这也是目前在司法实践中对算法商业秘密的属性和侵权的判断大多依赖司法鉴定的原因。


但上述技术层面的分析并未完全封堵算法公开的可能。对于开放的“白箱算法”和半开放的“灰箱算法”,由于人的设计痕迹和操纵参与度高,随机性有限,其开放可解释性就获得了空间。而且,对于“黑箱算法”,乐观的技术观点也显示,现有的制度和技术手段能够在不公开情况下对算法权力进行控制和监督。这些技术和制度手段包括但不限于:保密协议、“零知识证明”、无偏私和一致性测试、“中间层”等。这些手段能够在不公开算法核心逻辑的情况下,对算法权力进行监督和规范。但上述手段在多大程度上保护了算法的秘密性,则存在手段和效果上的差异。“零知识证明”几乎不涉及任何形式和程度的算法公开,而保密协议等手段则涉及暂时性和有限范围内的公开。


(二)结果主义正当程序观不成立


耐人寻味的是,如果细察制度和技术手段的介入方式,的确没有对处理信息的逻辑、目的本身进行解释,也未对利害关系方权益的可能影响进行解释。其实现方式是事前的预防,比如保密协议;以及事中和事后对算法运营过程和结果的检验,如“零知识证明”和一致性测试。这些手段实际上都回避了基于过程的程序正义要求,而只关注了预防性和结果性的层面。


现有的这些技术方法似乎印证了一种结果主义的程序正义主张:“正当程序并不要求算法的透明性,并不意味着正当程序什么都做不了”,可以在输出输入两段介入,其中“输出端的评价更加重要:只要程序的输出结果是单一性的,那么就可以反过来推断,这样的做法违反了正当程序或者程序正义的要求,尤其是罗尔斯所言的‘纯粹的程序正义’”。


结果主义的程序正义,与其说是一种弱的程序正义,倒不如说是一种“伪”程序正义。首先,这种主张全方位地放弃了过程性程序正义要求,将存在公开性可能的算法也排除出去。更为关键的是,这种主张放弃了对任何过程性正义的要求,而仅将输入端和输出端作为程序正义分析的接入点,违背了程序正义主要基于“过程”这一法理基础。即便是罗尔斯在论述纯粹程序正义过程中以赌博为例,但赌博程序本身(诸如过程、条件、步骤形式等程序要素)也是可知的,这与仅通过算法的结果进行判断,对算法逻辑茫然无知的情况是不同的。


其次,仅基于结果的纯粹正义放弃了外部评价。“在纯粹的程序正义中,不存在判定正当结果的独立标准,而是存在一种正确的或公平的程序,这种程序若被人们恰当地遵守,其结果也会是正确的或公平的(或无论这种分布是什么,至少不是不公平的)。”关于纯粹正义的适用范围,罗尔斯也提醒到:“纯粹正义的一个明确特征是:决定正当结果的程序必须实际地被执行,因为在这些情形中没有任何独立的、参照它即可知道一个确定的结果是否正义的标准。显然,我们不能因为一种特殊结果是遵循一种公平程序便可以说它是正义的。如果是这样的话,口子就会开得太大。”在罗尔斯理论的框架中即便是存在分配配额上的纯粹正义,也需要在正义两原则所辖制的正义宪法和正义的政治经济制度的基本框架下才能实现。而所谓纯粹正义的效率性,不是不要过程性评价,而是可以不一事一议地考虑各种主体的特殊情况。在《正义论》之后的《政治自由主义》中,罗尔斯更加清晰地表述了这一点,即正义两原则之下的纯粹正义才可能保证任何结果都是公正的。如果有人抽象地提出一种既定资源的分配,对于那些已经明知其欲求和偏好的个体来说是否比另一种分配更为公正的问题,那么他就绝对找不到任何解答这一问题的答案。程序正义不能无视其外在的实质正义而存在。算法运行往往处理事关众多不特定相对方的权益选择和决策,无法放弃外部性评价、实质性评价,无法逃避基本价值、普遍道德和基本权利的衡量。基于算法决策所进行的权利与义务的分配,可理解为一种资源分配,程序正义当然反对在类似条件下一些人享受较大的利益而剥夺另一些人的应得。人类社会之所以选择算法决策,恰恰是为了排除人为干预下的偏见和歧视,高效率地实现社会正义。尽管“算法黑箱与算法所追求的目标,始终是两个不同类别的事物”,但无可否认二者紧密相关。在非纯粹程序的情况下,在程序正义之外,同时满足和达到实质正义目标的程序才有可能是正义的。算法只有在尊严、自由和平等的价值之下才是可欲求的。


最后,关于自愿与允诺是否构成契约道德正当的理由。即便社会具有“自愿属性”,但契约论的道德性无法经由自愿完全证成,仍然需要互惠性和其他实质道德标准提供外部评价。允诺的规则本身不是一个道德原则,而只是一个建构性的常规(constructiveconvention)。一般来说,需要考虑允诺的环境和接受允诺的条件等要素,才能保护各方的平等自由,才能使允诺、自愿和契约原则成为理性选择的手段,成为社会正义的实现方式。


人们一旦参与一个正义的程序就很难拒绝程序运行所产生的结果,尽管程序的结果本身仍然是开放性的。只有在程序存在恣意、不一致等非正义的情况才是拒绝结果的理由。对于一种适当的程序安排而言,其意义恰恰不在于追求某种必然的结果,而是对作出决定的过程本身进行考量。如果没有程序的内在和外在的道德性要求,仅凭其运行的结果加以判断,程序就抛开了其本身而成为一种结果功利主义的逻辑。在这种意义上,程序本身并没有得到评价,人们据以作出判断的仅仅是结果的可接受性。相反,任何意义上的正当程序,都存在衡量程序本身的必要,并要求对程序的过程性进行评价。只不过对程序进行评价的过程是依赖内部的过程性标准还是需要依赖或者部分依赖外部的价值判断存在区别。


现代程序所强调的四项原则:正义过程、中立性、条件优势、合理化,

 

季卫东:《法律程序的意义》(增订版)

中国法制出版社2011年版

 

即便是限缩了公开性,其他要素仍需保留才能称其为弱化或限缩版的程序正义。这种弱化或者限缩的程序正义需要坚持内在的、形式性的、过程性的要求。程序价值中的条件优势原则,注重“如果甲,那么乙”的逻辑逐步推演,其目的之一就在于减轻决策者对于结果的过度负担。但上述结果论程序观,恰恰无法实现这一目的,其所强调的反而是结果本身。在程序运行结果存在不确定性的情况下,决定者的负担将极大加重。这恰恰违背了正当程序所追求的目的:正当程序的目的是生成正当的决定而不是生成特定的结果。检验一个程序是否正当的标准不在于它做了什么,而主要在于它是如何做的。由于行政程序的条件导向,对事后追责的程序性要求就更为强烈。形式程序主义与实质正义的纠葛,主要是担心在实质正义的指向上存在不可弥合的差异。但在算法规制的层面,基于判断算法决策的实质价值是清晰的:尊严、自由与平等,即便在具体场景中可能存在价值纷争,也可以通过权利位阶、权利竞合等既有的法律方法加以处理。


(三)基于过程和结果的算法正当程序


正当程序兼有形式性与实质性。追问程序实质性价值的目的在于防止程序瑕疵和偏离。“假设正确的结论可以通过满足程序要件而自动获得,这本身就暗示了程序设计的严格要求以及对程序与结论之间关系进行事后检验的标准,也意味着程序的设计和运作本来就无法避免对程序的中立性以及效果的考量。”罗尔斯意义上的纯粹程序、完美程序和非完美程序的共性在于,都存在对程序本身的独立判断标准。如果放弃对过程性程序标准本身的判断,仅就结果进行判断,就意味着放弃了程序的视角。因此,仅基于结果判断的正当程序是不成立的。泰勒的程序心理学研究也表明,“在人们评价一项程序是否公正时,公正程序标准中那些与结果紧密相关的方面(即一致性)实际上没有多少意义。相反,像伦理性这种从社会学的角度对个人经历所做的评价,则在人们评价一项程序是否公正时占了很大的分量”。

 

[美]汤姆·R.泰勒:《人们为什么遵守法律》

黄永译,中国法制出版社2015年版

 

在坚持非技术放任的前提下,处理不公开情势下的权力监督可以建立内部和外部两个层面上的程序性机制。内部程序机制通过算法设计中、运行前的技术论证和伦理审查实现;运行中可以通过反不一致检测、价值偏离预警、神经网络中间层等技术手段来介入。算法设计者和运营者需要解释算法决策的基本逻辑、可能风险和预防机制,从而达到对一种理由的说服强度,即能够说明算法是基于某种逻辑和可预测性而生成,并非完全专断和任意。只有达到这一基本强度的解释理由,人们才能作出成本效益的判断和是否符合公共理性的决定。当然,这一理由及其解释强度的标准是普遍的。由于算法的内部审查是基于不公开原则或有限公开原则进行的,与商业秘密的秘密性并不必然产生不可调和的冲突。即便如此,内外部监管所需要植入的“中间层”可能会进一步增加复杂性,为可理解性制造更多的障碍。但勉力为之总好过放任自流。


按照上述论证逻辑,如果算法的审查不仅仅是一种基于结果的,也是基于过程的正当程序,那么除了公开性受到不同程度的限缩以外,其他程序正义的要求,诸如中立、参与、效率等原则均应得到满足。贝勒斯在分析雇佣和职业惩戒程序正当性问题的过程中提出一系列正当程序要素,包括无偏私、听证权、获得通知、提交证据、反驳不利证据、申诉、说明调查结论、一致性等原则。当职业惩戒决定和雇佣决定由算法来作出的时候,难道这些原则就要加以否定和放弃吗?答案当然是否定的。因此从过程性的角度而言,算法决策过程的形式、步骤和手续仍然要满足程序正义的要求。


算法正当程序本身就是一种满足外部道德性的和正当价值性的程序。而实质性程序要件——外部价值衡量——要求实现下述价值:尊严、自由与平等。外部审查的主要力量既来自于公共权力层面,也来自于私权利的对峙层面。算法开发者需要在设计和运营过程中将这些价值通过算法代码内嵌到算法运行当中。外部审查机制可以通过有限公开和保密协议的形式进入实质审查。而私权主体,可以通过上文所述的、基于一般道德理由和法理的算法拒绝权实现对算法的外部监督。


在社会系统中,法律向整个社会提供一种合法性稳定预期,以处理不确定性和不可预测性问题,而这也是正当程序应该发挥作用的主要方面。如果处理诸多公民基本权利义务的算法设计和运行连一个起码的程序性标准都没有的话,那么算法迟早会暴露其恶魔的本性,随意、擅断、恣意和偏见将充斥算法世界。如果任何人都对算法如何从数据信息过渡到结论的过程一无所知,算法社会就将成为一个无法为人们基本理性判断提供稳定预期的随机世界。直面过程性的正当程序是不容回避的。算法正当程序与算法私权利互为犄角,在适当维护商业秘密的情况下,可图部分实现算法正义的诉求。

 


五、结语


我们对于人类社会所了解和不了解的并非来源于社会内在的本质,而是社会自身所构造的功能,而法律是社会构造其自身的重要手段。算法商业秘密,是运用现有的法律手段对算法商业利益的某种肯定,也是算法社会中法律对于算法技术增益的一种肯定。而“算法黑箱”“算法歧视”和“算法茧房”,乃至更大范围的算法风险,并不是因为商业秘密的保护所导致的,也不是拆除算法的商业秘密保护就能解决的。没有商业秘密的世界将会是知识创新的噩梦。算法商业秘密的存在,并不意味着法律保护算法黑箱,而彻底放弃对因算法操纵所侵害的利益的保护。不支持彻底的算法透明也并不意味着放弃了算法治理的必要性和正当性。由于存在着算法私权抗辩和正当程序限制,算法商业秘密不是绝对的,而是在具体场景中对利益和价值衡量的结果,更何况并非所有的算法都获得了商业秘密的形式。我们所需要的仍然是一种平衡各方利益的适度透明(qualifiedtransparency)。


要建立算法社会的正义,所需要的首先是不简单肯定算法增益必然高于算法风险;其次,要建立对算法的伦理审查机制和风险分析机制,在法律、伦理和技术多层面予以事先预防;再次,赋予个体实质性的算法知情同意权、算法解释权、算法拒绝权以增强其制衡算法权力的能力;最后,建立基于过程和结果双重向度的算法正当程序控制。对于那些深度介入个人生活的算法,要求其设置事先听证、事中预警和事后救济的机制。在这种情况下,算法或可能够真正地增益福利、促进人类的自由解放,从而构架一个美善、正义的算法社会而不是一个神秘的“算法铁笼”。


-推荐阅读-


《法理——法哲学、法学方法论与人工智能》杂志最新稿约

学界 | 重要期刊法理论文刊载情况报告(1-4月·综合类C扩)

思享|郭栋:治超执法中罚款票证的法治悖反与回归

思享|叶会成:立法学学科性质的反思

域外 | 《法律研究》(Legal Studies)第41卷第2期

思享|朱明哲:法典化模式与规范制定权的分配

论文写作与发表 | 汪诸豪:如何有效进行英文法学论文的写作与发表?


欢迎关注法理杂志

 选粹|思享|域外|写作|学界 

赐稿邮箱|ratiojuriswechat@126.com


☜法理杂志官方“有赞”书籍商铺 | 扫码选好书


文字编辑 | 林淑萍 吴少华

继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存