查看原文
其他

思享|郑玉双:算法与法律关系的法理建构

法理杂志 2024-01-11

The following article is from 政治与法律编辑部 Author 郑玉双




来源

原题为《计算正义:算法与法律之关系的法理建构》,载《政治与法律》2021年第11期

作者简介

#  郑玉双

中国政法大学副教授,法学博士;兼任中国法学会法理学研究会理事,普林斯顿大学詹姆斯·麦迪逊协会(James Madison Society)会员等。先后在《中国法学》《政法论坛》等期刊发表论文三十余篇;代表译作有《合法性》《法律简义》等。主要研究领域为法哲学、政治哲学、新兴科技法理等。

#

摘要

基于算法的机器学习在社会应用过程中引发算法歧视、算法黑箱和个人权利受损等实践难题,也使对算法应用的法律监管和规制变得必要。然而,算法时代的首要命题是对算法与法律之间的关系进行界定,并展现算法对法律价值世界的冲击方式。理解算法和法律之关系的道德框架应当突出算法之技术和社会维度的共同善价值追求,并基于算法所产生的正义空间来提炼计算正义的基本内涵。计算正义的概念建构需要从两个问题展开,一是从算法实践中如何提炼出计算正义原则,二是法律如何基于计算正义原则应对算法产生的价值挑战。在计算正义原则的引导下,采取算法与法律之关系的重构模式,能够有效应对算法的价值危机和法律挑战,破解算法的法律规制难题,在智能时代实现算法善治。


人工智能带来社会生活的智能化,算法从幕后走到台前,成为法学研究的热点。随着算法研发的发展和成熟,生产、社会生活、商业经营和公共决策等领域越来越多地利用算法来实现特定目标。目前学界大多基于回应型规制模式探讨如何对算法应用进行规制,但对于算法与法律之间的规范关联关注不多。笔者于本文中尝试从法理学视角来理解算法与法律的关系,并构建应对算法挑战的恰当路径。首先,算法的真正社会挑战在于社会生活和实践的计算化,其本质是计算正义问题,即如何从正义原则来引导新兴科技对社会和法律的重塑。其次,法律是权威性的社会规范,算法是执行指令的计算程序,两者在功能和社会价值上存在很大差异,但随着社会生活的计算化进程加速,在计算正义原则的价值指引之下,法律与算法产生共生关系。算法无法替代法律,但算法充实了法律的正义空间,且能够发挥制度性辅助角色。最后,算法应用的确带来了全新的法律挑战,包括隐私保护乏力、算法黑箱难以破解、自动化决策与程序正义的张力等。解决这些挑战的恰当路径是采取算法与法律的重构模式,通过将算法创造的价值空间与法律实现深层互动,从而提炼算法应用的伦理准则,为我国法律实践中的算法规制提供指引,以实现算法善治,为数字时代保驾护航。


一、理解法律与算法之关系的道德框架


(一)算法:通过计算实现基本善


尽管人们常常把人工智能与算法并列,但两者略有不同。人工智能强调的是运用机器学习原理承担一定智能分析任务的系统,而算法是贯彻在人工智能系统中执行特定指令的程序。人工智能在语音和图像识别、地图导航等场景中发挥着越来越重要的作用,从社会功能角度看,是人工智能系统在承担这些重任。从技术原理来看,人工智能系统背后是计算机专家所开发的各种算法处理和分析海量数据并在特定场景中应用的过程。在实践中,人工智能应用与算法并不被严格区分,但算法规制的研究者所强调的是在数据分析和转化利用中发挥作用的算法,所以其法律问题不同于人工智能的设计开发者是否应当为人工智能所造成的损害承担侵权责任等。


算法的内涵有技术和社会两重意义。算法的技术意义并无太大争议,算法是一种计算方法,通过计算公式得出确定的结果。算法的社会意义受制于科技发展水平和社会语境,计算机的发明和网络传输技术的提升使得大数据收集成为可能,在此基础上,算法通过对海量数据的深度学习可以实现自我更新和升级,最后形成更为成熟的算法。网络服务主体开发利用特定算法(决策树、贝叶斯算法等)并服务于社会公众,比如信贷机构、网约车、社交和外卖平台等。除了商业外,政府也可以发挥自动决策的优势,运用算法决定行政审批,包括公共资源审核、假释评估等。


算法的社会应用类型广泛,目的多元,追求效率、便捷和产能提升等,但算法在根本上服务于基本善,所以可以说算法是实现基本善的工具之善,其目的是促进个体美好生活和社会福祉。信息伦理学的开创者维纳认为人们“为了蓬勃发展,需要基本的推理、思考和学习,以最佳的状态产生灵活的、创造性的适应环境的内部信息处理活动和人类选择和行动的许多供选方案”。基本善的形式也是多样的,它们是道德和法律推理的价值基础,有菲尼斯所提出的生命、知识、社交、游戏和实践理性等,也有纳斯鲍姆所提出的健康、情感、依存等核心能力。

[美]玛莎·纳斯鲍姆:《正义的前沿》

朱慧玲等译,中国人民大学出版社2016年版


算法首先是人类科学知识的结晶,体现了知识之善和人类充分运用实践理性的能力。算法应用促进了人们追求基本善的能力,改善了人们追求基本善的实践模式。例如,微信作为社交媒体促进了社会交往和互动,视频平台强化了游戏和审美之善。人们对善的追求形成了政治、经济和社会文化模式,人工智能和算法也嵌入社会生产和生活形态,改变了产业模式和经济格局。


沈向洋、[美]施博德:

《计算未来:人工智能及其社会角色》

北京大学出版社2018年版


按照菲尼斯的主张,共同善有三重维度。第一,共同善是构成个人福祉和尊严的基本善好,是人们所追求的其他善的依据。第二,共同善指引实践推理,为人们的行动选择进行辩护。第三,人们追求共同善的过程之中会存在冲突,道德原则和法律制度为人们提供道德指引和制度保障。


共同善为技术发展和应用提供了价值依据,无论算法是应用于医疗、公共卫生、社会服务、商业经济,还是应用于公共决策,其最终的指向都是算法实践过程中社会成员的共同善得以促进和提升,共同善展现了算法嵌入社会生活的技术维度背后的价值域。同时,技术发展和应用是一个复杂的社会协作和博弈的过程,技术开发者、用户和政府之间既存在共享价值追求和利益结构,也因立场、利益取向和社会角色不同而产生冲突,比如互联网平台倾向于最大限度获取用户的信息以实现商业利益,而个体权利极易受到平台的侵害。冲突的存在并不意味着共同善失去了意义。利益冲突、权利侵害和政府规制困境的解决依然需要放置在以共同善为核心的价值域中。法律制度的设计和各方主体之行为边界的划定在共同善所支配的价值空间之中进行,既充实了共同善的价值内涵,也形成了关于社会合作和治理的一系列具体价值原则,如正义、权利和平等。


尽管人们可以从共同善视角对算法应用进行评估,但由于算法对社会交往和价值实践方式的革命性冲击及其潜在风险,如何让算法贡献于而非损害共同善,是当前需要回应的迫切议题。首先,算法改变了人们追求共同善的方式,因此也就带来一些特定价值的内涵转变。比如,传统上人们通过阅读新闻报道来获取知识和更好地参与社会,但个性化推荐算法的广泛应用却产生了“信息茧房”,其导致的结果是,个人虽然获取了大量信息,但并未转化为有效知识,并且反而会被这种信息获取机制反向支配,个人自治受到侵蚀。其次,共同善为法律制度设计提供了价值支持,当人们以法律为框架参与社会实践时,法律所追求的平等、权利和正义等价值将人们的选择和行动导向共同善。算法的出现同时对法律框架和其背后的价值造成冲击,也撼动了法律在社会生活中的规范地位。由于法律在社会生活中有着独特的制度意义和实现社会价值的特殊方式,仅仅从功能上理解算法和法律的关系是不够的。算法实践中的乱象引发对算法进行监管或者对算法规制本身进行法律规制的迫切需求,但不能预设法律在这些目标的实现上一定是灵敏和高效的。规制理论并不包含被算法重塑的价值世界和法律所内含的价值世界如何调适的整全理论。


(二)算法不是法律


算法和法律是两个不同的范畴,尽管社会理论家倾向于强化算法对法律的替代功能,比如莱斯格关于“代码即法律”的夸张表达,


[美]劳伦斯·莱斯格:

《代码2.0:网络空间中的法律》

李旭、沈伟伟译,清华大学出版社2009年版


二者在概念结构和社会基础上仍然是完全不同的概念。法律是权威机构制定的行为规范,算法是基于数学原理而设计出来的计算程式。计算机是按照指令执行特定任务的机器,互联网是通过数字技术传输分享信息的虚拟空间,算法的应用是在计算机所提供的操作平台和网络空间中的数据传输的场景建构之下,执行特定的指令和任务。法律的出现是为了解决合作难题,确立人们追求共同善和基本福祉的秩序。算法的社会应用在数据技术的支撑之下全面展开,促进了人类行为的数字化和社会生活的计算化。


算法与法律共同作用于人的实践结构,并且在影响社会决策的问题上日益融合,从而引发算法治理或规制的一系列难题。算法是一种特殊的解决问题的计算程序,算法依靠数据结构,通过特定的计算过程把输入转化为输出。人们需要参与社会实践活动,包括改造世界、交易活动和文化创造,计算是对实践活动的理性化和信息化展现。举例来说,金融活动是基于信用的资本流通,计算是将海量金融活动的信息化和数据化,通过对每笔交易的客户、地点和数额等进行分析,展现某个银行或地区的金融活动状态。金融活动古已有之,但金融活动的计算化和数据化是新兴事物。接下来的发展趋势是,社会实践活动的计算化,通过对实践活动过程——几乎所有的实践形式,购物、出行、社会交往和政治活动等——进行数据化。


社会生活的计算化和算法与法律的融合产生了三方面的难题,在很多研究者看来,算法的广泛应用会带来一定程度的社会危机和治理困境。


第一类是监管难题。社会生活的计算化改变了传统概念的内涵和社会理解,算法对社会生活的“入侵”使得隐私、自主和平等等概念变得模糊不定。运营商对个人数据的收集借助于算法而变得易如反掌,通过算法监测用户的举动也成为技术常态。社交平台收集用户信息并进行画像,定向推送广告,网络服务提供者运用数据进行特定的数据分析或者实验。


第二类是价值难题。从效用上看,算法具有巨大的社会利益。在商业领域,算法可以快速精准地判断市场商业需求。在公共领域,算法也潜力无限,“而算法决策对于建构性规则在作为证据和价值指引层面的作用得以增强,从而有助于规则的统一,并可以为立法提供依据”。然而,从价值角度来看,算法引发一定程度的价值危机。算法一方面改变人的主体性理解,赋予人的自由、自主选择和决策以新的内涵,另一方面在实践中引发固化歧视、侵犯隐私的问题,构成对人之尊严的威胁。再以算法黑箱问题为例。算法黑箱的规制难点在于算法决策过程完全由机器根据特定函数进行运转,人力无法干预,更无法解释算法运转的内在原理。然而,人们需要对算法的价值难题保持清醒的认识,算法本身是技术应用程式,其价值问题本质上是算法设计者和使用者利用算法损害某些价值。


第三类是归责难题。算法应用必然伴随着法律责任配置,以防范风险和实施救济,“对算法应用所引致的风险设置一定的责任结构,是算法规制必不可少的制度设计”。随着人工智能的广泛应用,其侵权问题也成为理论难点。人工智能的风险之一是算法侵权的救济途径难以确定。一个典型的例子是自动驾驶汽车致损的责任认定问题,汽车生产厂家、算法设计者和车主应如何划分责任,是自动驾驶汽车进入市场前须解决的问题。此外,算法歧视的救济也是一个复杂问题,特别是在公共决策中,如果一个人因为性别或学历而受到自动化行政决策的不同待遇,他是否能够向政府主张救济?


这些难题的确引发人们对算法应用和算法权力的担忧,所以理论和实践都迫切要求对算法进行制度和伦理约束,算法透明是对算法进行监管的主要实施标准,很多学者主张对算法进行解释是实现透明和打破黑箱社会的重要途径。然而,如果关于算法与法律的两个前置性问题没有解决,算法监管或权力制约可能会错失重点。第一,算法权力概念需要放置在社会正义框架之中进行分析,如果算法具备了一定的公共权力形态,那么需要借助于社会正义原则对算法权力的边界及异化可能进行价值评判和划界,算法引发的正义问题建构则需要剖析算法在何种意义上重塑了社会互动方式。第二,算法监管和归责等问题需要在法律框架之中进行,但算法监管实践中出现了大量棘手问题,比如“大数据杀熟”是否构成价格歧视,算法决策是否会危及人的自治价值,或者算法能否得到充分解释。


二、计算正义的内涵与法理层次


(一)计算正义的提出


在理解法律与算法之关系及如何通过法律来回应算法的问题上,共同善是价值基础和规范背景,计算正义则是从共同善导出的制度美德和法律规制依据。计算正义是正义原则在算法实践中的体现,是人的社会合作和创造活动被计算化过程中所应遵循的价值准则。学界探讨过数字正义、数据正义和算法正义,计算正义则具有更为丰富的内涵。数字正义或数据正义更多地强调数字化技术所构建的数字世界如何解决纠纷,特别是借助于信息技术和数据处理能力而提高司法的效率和公平性。算法正义则针对算法这一新兴事物在现代世界中的角色而确立适宜的制度功能,以充分发挥算法的社会功效,典型的争论是将算法作为商业秘密,还是作为新兴知识产权形态而赋予其专利。计算正义不仅关乎如何对算法进行法律定位,而且针对社会生活借助算法而实现的计算化和数据化所产生的正义空间。


计算正义包含着两个维度。第一个维度是价值意义上的。算法冲击了传统的价值世界,政治决策、商业决策和个人生活因算法的参与而更新了价值实践方式,比如自动化决策压缩了执法权滥用的可能性,但也消除了执法主体与相对人的商谈空间。个性化推荐给个人生活带来便利,但会产生隐性歧视。算法冲击了价值世界,同时产生新的价值形态,比如人的存在形态从生物体转向智能体,人的瞬时记忆、决定和行动轨迹都可以以数字化的形式永存,这在前算法时代是难以想象的。计算正义包含着如何理解这些价值的新兴实践形态及解决价值冲突的一般准则。然而,算法作为一种技术,其本身并不包含正义的元素,计算正义的提炼需要从算法实践与价值世界的互动之中开展。特别是在算法对传统价值产生冲击而需要对算法进行价值定位时,不能因为算法对某种价值构成威胁而否定算法,而是要在算法所创造的新型技术空间和价值世界自身的动态诠释空间之间进行对应,建立一种促进共同善之更好实现的公允方案,这正是计算正义的题中之义。


计算正义作为理念,需要落实到具体制度实践之中,也需要法律实践充实其内容,因此,计算正义的第二个维度是制度意义上的。正义体现在社会生活的方方面面,但只有通过法律的规范性实践才能阐发计算正义的具体内涵,并展现其统合法律价值世界的能力。正义是法律的基本价值追求,既在法律自身得以体现,比如司法正义,也是法律在社会实践中的目标,比如环境正义、税收正义等。由于算法和法律的深度互动,计算正义既在算法的公共功能中得以体现,也在算法实现社会功能所受到的法律约束中发挥实质意义。


根据以上讨论,可以对计算正义的内涵做出初步界定。算法服务于人们追求和实现共同善的目标,但由于算法实践的多元和不同主体之间的利益冲突,需要以共同善为基础确立计算正义在算法实践中的价值统摄地位。计算正义对算法实践和价值世界之间的碰撞进行整合,并引导算法以融贯和公允的方式追求共同善,而非满足某一方群体的利益。算法与法律在功能上和价值上不断整合,因此计算正义需要在制度上落实,并且需要从法律实践之中加以提炼。


(二)算法的正义空间


计算正义的概念建构需要从两个方面展开,一是从算法实践中如何提炼出计算正义原则,二是法律如何基于计算正义原则进行自身的调整。这里首先关注第一个问题,即算法实践如何与正义相关,及其正义属性在算法引发的各种社会和政治争论中的意义。计算正义只有在智能时代才具有意义,智能时代与传统技术时代的差别在于,数字技术的应用不断重构社会实践模式、交往方式和正义空间,而传统技术(比如电力、计算机技术)只是改善人们参与社会实践的能力。能源开发与利用不会引发人们对自主性受限的担忧,但算法进入公共空间就意味着对自主的促进或制约。法律指引人们的行为,算法塑造了人们的观点,计算正义是在算法应用所产生的正义空间与法律公共实践的价值空间之间的碰撞的背景下,为了维护和促进共同善而建构的一系列价值原则。正义空间的构建和计算正义原则的提出是全面地理解算法挑战的理论前提。


罗尔斯在虚拟的无知之幕下,将社会合作和政治生活的公平构建为正义价值的核心。


[美]约翰·罗尔斯:《正义论》

何怀宏等译,中国社会科学出版社1988年版


对正义的理解包含着正义环境和正义价值的要核。计算正义同样包含正义空间和计算正义的核心价值两个方面。正义空间不同于正义环境。正义环境是确立正义以实现合作的充满不确定性的原初状态,正义空间是在既有正义环境之中形成的需要重构正义内容的不确定性社会状态。算法产生了新的正义空间,虽然既有的公平等正义原则可以对算法应用做出评价,但这是不够的。搜索引擎的出现带来了人们享受知识之善的巨大突破,这满足了正义的要求。然而,搜索引擎在带来知识革命的同时,也通过不透明的算法机制重塑人们的观念和行动,甚至影响政治决策,此时,算法就产生了一个新的正义空间,正如帕斯奎尔所讲的,“搜索引擎的秘密运作机制深深地影响着我们的世界观”。


[美]弗兰克·帕斯奎尔:

《黑箱社会:控制金钱和信息的数据法则》

赵亚男译,中信出版集团2015年版


理解算法的正义空间需要从两个方面进行,一是展现以算法为代表的新兴科技的社会意义,二是确立对算法进行价值分析的方式。计算正义的提出是对新兴科技的法律挑战的回应,解决算法各种规制问题的努力也是为了让社会进步与新兴科技发展良性互动,避免更大的科技风险和人文危机。


第一,以人工智能为主导的新兴数字科技在发展形态和技术逻辑上与传统科技存在很大差异,但既然都是科技,那么都会共享技术的哲学本质,在价值意义上也会分享一些基础性的价值原则。正如布莱恩·阿瑟所阐述的,技术是一种函数,是改造世界的进化性力量。数字技术渗入社会生活的能力不断迭代,新兴科技与社会形成粘合,很难分辨算法的技术意义与社会意义。算法的多重属性是算法实践引发分歧的重要原因,基于正义原则,算法与社会的互动需要采取一种诠释性方法进行算法的社会意义评估。互联网巨头借助算法创造出几十亿人深度参与的信息工具和社会互动平台,一个小小的算法更新都可能会影响几亿人的生活,而互联网巨头可以轻而易举地使用平台来达到他们的目的,甚至形成霸权,深刻影响社会格局。


算法权力与传统权力的最大不同在于算法秉持技术理性,政治权力则追求道德理性和正当性。当政府借助算法进行规制的时候,算法的技术理性与道德理性会发生碰撞,产生不对称和失衡。在这个正义空间中,技术推理与道德推理同时进行才能确定算法参与的正义属性。权力实践包含着权威裁断与答责(accountability)两个方面,作为权力实施者的人在权力实践中依照政治目标和利益判断改变权力对象的行动理由,权力实践者在正当权威结构中对其决策承担责任。算法权力的独特性在于通过技术理性主导决策过程,既不同于传统的权威关系,也没有一个清晰的答责架构。算法权力产生了失衡的治理关系,算法使得社会朝向技术理性支配、商谈理性空间限缩的计算化和非可逆的发展形态。纯粹技术或者社会的视角都不足以揭示这一失衡的本质。如果按照权力行使的一般原理,显然算法权力的行使是一种异化,但是在计算正义的框架之下,不能以静态眼光看待算法权力,而是应该面向数字科技本身以及信息社会未来的发展可能性。


第二,价值分析是理解算法之正义空间的主体内容,人机协作带来了新的价值问题,人工智能的价值评判是当前困扰学界的一个难题。一方面,人工智能带来巨大收益,将大大促进人类福祉。另一方面,社会和政府都对人工智能保持警惕,担忧其未知风险。在传统意义上,科技对法律的冲击体现为规范层面的冲击,比如互联网创造了一个虚拟空间,互联网上的行为逻辑不同于现实世界,所以需要在规范上重新定义网络行为和表达的法律意义,比如将互联网言论视为言论自由的体现。


(三)计算正义原则的提炼


计算正义是社会计算化的价值统摄和人机协作的伦理约束,也是对算法应用进行法律规制的正当性基础。以下笔者采取一种分解策略,主张算法实践分为不同类型,所涉及的基本善也存在差异,因此在理论上应当进行不同的讨论,同时,不同算法场景所引发的问题最终都可纳入计算正义框架进行整合,因为计算正义的基本原则能够为算法的价值论辩提供可靠的溯源。从方法论上来看,对算法实践的分解与整合是提炼计算正义原则的互惠性过程,算法实践蕴含着计算正义的质料,计算正义是对算法实践的规范建构和价值提升。


从算法应用的场景来看,算法在商业领域中应用广泛,在公共领域越来越受青睐。网络购物、社交娱乐平台、网约车和信贷领域的算法已经非常成熟,社会信用体系建设中政府部门使用算法对个体信用进行评估是算法的公共决策的典型情形。算法在公共领域的应用仍然受限,主要是因为公共职能的民主和合法性维度无法被算法所掌握。公私领域在算法规制上存在差异,商业领域的算法规制偏重对用户私权的保护,公共领域的算法规制则强调受算法影响之个体平等与权利等价值的保障。


算法应用过程中暴露出来的主要问题是算法偏见和歧视、算法黑箱和算法公共决策的不透明等。计算正义也围绕这些问题展开,但仍然需要强调计算正义的两个层次。其一,算法应用的技术意义与社会意义纠缠,所以算法产生的实践困境往往是社会走向技术支配的复杂过程的代价,走出这种困境也需要直面新兴科技与法律的关系。其二,算法的实践难题应当从价值角度切入,并纳入计算正义的价值网络。不可否认,未来的算法立法将围绕算法的合法应用范围、算法侵权的救济以及算法监管(比如反不正当竞争)等领域而展开,立法者的重任是为算法应用者确立行为规范,划定行为边界。然而,算法立法本身是一个将计算正义支配下的立法原则转化为具体行为规范的审议和制度化过程,“立法伦理为算法主体的技术行为提供了内在的制度准则和规范指引”。如果没有计算正义原则的支配,算法领域的执法和司法将陷入价值争议泥潭。从这两个方面出发,可以将算法实践中的社会担忧提炼为两类正义实践问题。一类是算法在社会正义空间中所引发的价值冲击,另一类是算法参与决策的正当边界。


算法的价值冲击首先体现为对人的主体地位的影响和对传统价值的冲击。很多批评者认为,人的主体性是现代性的彰显,算法在一定程度上替代了人的决策,所以影响了人的主体性地位。算法还有一种令人担忧的社会重塑能力,即算法不只是指引人的行为,而是还塑造人的行为。弗洛里迪认为:“信息与通信技术,特别是互动社交媒体对我们的个人身份认同产生了重大影响。”


[意]卢西亚诺·弗洛里迪:

《第四次革命:人工智能如何重塑人类现实》

王文革译,浙江人民出版社2016年版


算法机制不只是在评价现实,而是还在改变现实,增加或减少人们获得的机会。算法所引发的社会结构的改变也挑战了人的主体地位。在算法的广泛应用下,黑箱社会是不可避免的,甚至是大势所趋,是人类迎接算法时代的代价。人们担心计算时代会带来人文性的丧失或者人工智能支配人类。算法参与决策的正当边界关注的是算法决策在何种程度上可以引导人们的行为选择。事实上,我们所处的社会生活已经离不开算法的引导。算法决策仍然存在正当性问题,主要体现在算法黑箱问题上。在商业领域,消费平台会基于人们的购买记录和消费习惯而差别定价,这种操作的依据并不透明,消费者也难以察觉。在公共领域,自动化决策引发更多担忧。算法运算过程是高度复杂的,因此是不透明的。公共决策涉及当事人的切身利益,算法的参与必须是可解释的,而算法的不透明性与可解释性之间存在冲突,如果算法无法解释,则构成对当事人的不公对待,且可能带来系统性风险。


三、法律嵌入算法:迈向算法与法律之关系的重构模式


(一)算法与法律的重构模式


算法应用越来越广泛,社会规范和制度设计难以提出一种一劳永逸的算法规制方案,但从算法与法律之动态关系的计算正义维度切入,可以形成关于算法规制、算法追责的价值论分析资源和图景。社会实践是复杂的,充满了价值冲突和利益分歧,算法应用在诸多方面加剧了这种复杂性。算法实践所引发的法律挑战和价值担忧,使得对算法进行规制成为必需。学界对算法规制问题做出了较为充分的探讨,但往往采取传统的回应型规制视角,将算法纳入法律监管。然而,规制所承载的回应型法律姿态不足以应对新兴科技的发展步伐,因为从实践来看,科技对法律的重塑效应反而比法律的规制意义更为强烈。也有学者强调科技与法律的互动,在此基础上提出算法治理的理论方案。然而仅突出算法与法律的互动关系并不足够,需要全面展现两者如何在价值和功能上互相构建。理解算法与法律之关系的更理想模式是重构模式,该模式强调的是法律在应对技术挑战时,应当对自身追求共同善的方式进行反思性重建。这种模式并不是要改变法律的属性,而是对法律展现其价值意义和实践意涵的方式进行更敏感于技术之社会意义的积极调整。在算法的法律应对上,重构模式可以发挥更为实质的作用和理论指导意义,这主要体现在以下两个方面。


第一,在价值上,算法既冲击了传统价值实践方式,也重塑了价值的呈现形态。算法的社会意义主要体现在决策上,包括公共决策和私人决策。决策的主要意义在于为利益分配和社会合作提供方案,引导人们追求共同善。算法追求的具体价值类型有很多,有一些价值是法律与算法共同追求的,比如效率,但两者也存在着很多价值差异,比如算法追求决策的客观性,法律则追求决策的公开透明。这些差异会带来实践张力。例如,人的决策会受到认知局限、价值偏好等方面的影响,算法决策则以客观数据为素材、借助海量数据分析引导决策。算法运行是客观的,但也会因为数据的选择、算法的设计而注入偏见和引发歧视。这种歧视不同于人为歧视,而是一种被计算化的技术偏差。


如果单纯从结果上来判断算法对某个种族或者群体构成偏见,则会忽视算法决策自身的特性。某种实践方式是否构成对价值的损害,并不能按照价值的传统含义来理解,正如隐私的传统内涵是个人空间的私密性不受侵入,但据此不能得出个人手机定位和行踪就不是隐私的结论。合适的做法是在价值维度上探索算法与法律的重构空间。法律的价值意义具有论辩性,通过对行为选择及其实现的目标进行调整和解释来彰显某种价值,比如赋予每个个体参与竞争的机会以实现平等。算法的价值意义则是嵌入式的,算法运行的技术逻辑可能是相通的,但适用的场景不同,其价值意义就相应改变。重构模式强调以法律的价值论辩性嵌入数据世界,需要改变的不是算法,而是算法价值的嵌入方式,即在算法场景中充分释放法律价值的论辩性。


第二,算法与法律都对人的行为选择进行引导和塑造,两者在角色上具有一个互惠空间。这一点在算法参与公共决策、司法活动和影响商业决策等方面都能充分体现。如果人们只关注算法的工具意义,则会忽视算法的计算化革命对社会生活的重构意义。尽管收益与风险并存,人机协作仍是大势所趋。重构模式有助于解释和展望算法与法律共同作用于社会实践的图景。算法在一定程度上发挥着替代法律部分功能的作用,通过重构模式可以确立算法承担这些功能的边界。


算法与法律的重构不是简单的功能融合,因为算法发挥技术功能,而法律发挥规范功能。两者的重构体现在算法对人的行为指引可视为法律指引功能的延伸,但算法的技术价值需要由法律价值加以约束并进行价值整合。这是一项复杂的技术和社会工程,同时展现了算法融入法律并拓展计算正义之内涵的开放空间。例如,在司法实践中,算法的应用不仅提高审判效率,而且重塑了司法公正观念。算法不只是以海量数据处理促进同案同判或者法官说理,还改变了人们对法律适用的期待,也会更新人们对法律价值的理解。机器决策部分替代法官智能会削弱司法的程序公正感,将人们的正义追求和情感认同置于软件和算法之上。


按照边沁的功利主义观点,法律判断和司法裁判本质上就是一种计算,因此算法会大大提升司法裁判的功能。重构模式无需采取功利主义立场来展现算法对法律的构建意义。法律的丰富价值世界无法通过功利转化而加以计算,但算法的确可以以计算理性介入法律价值。算法与法律的重构将在多个层面上强化法律的功能和应对技术挑战的积极姿态。这种积极的功能转型代表了法律将迎来最深层次的价值调整,尽管其方向目前仍然不明确,因为算法时代究竟会呈现出哪些最终特征,目前无法得到定论。一方面,社会必须面对和处理算法实践所产生的各种价值问题,无论是互联网服务中的数据歧视问题,还是雇佣算法中的偏见问题。另一方面,需要从法律价值角度对算法所带来的透明问题、解释权问题进行剖解,在重构模式之下,确立法律应对算法之挑战的恰当模式。例如,在搜索引擎自动补足算法的应用过程中,该算法会随着技术设计更新、搜索服务商的目标转变、商业模式的社会变革等而不断更新,将向善原则纳入算法运行也势在必行。然而,基本善并不能直接进入算法开发和设计过程,只有借助于法律关于网络搜索服务的基本定位,以及算法引擎的商业和公共价值的规范性评价语境,才能将基本善以制度化的方式纳入算法运行的社会维度。


法律是政府进行技术规制的重要方式,但法律不只是发挥工具意义,否则法律内嵌的价值维度就会丧失。立法成本、执法压力和法律在应对实践之复杂性上的紧张等都模糊了法律价值判断的清晰脉络,也增加了通过算法规制解决算法难题的难度。在这个意义上,算法与法律的重构模式超越了将法律作为规制工具的简易方案。从计算正义的角度整合算法应用创造出的新价值域,是算法善治的应然出路。


(二)重新理解算法的法律实践难题


学界对计算正义的关切集中体现在算法不透明和算法权力的扩张之上。所谓的透明性原则和解释权是应对算法决策的不确定性的约束,然而这实际上是权宜之计,主要是因为作为公共决策之基本原则的透明性和解释权对算法决策来说,是非结构性和外在的拘束,因此无法构成真正意义上的限制。这个问题涉及算法应用的技术意义空间与法律或公共实践的制度意义空间的碰撞问题。从宏观上看,这是技术影响法律价值的展现。从微观上看,它指向的是由人类理性无法完全掌控且无法做出价值评价的计算过程来影响公共行动,是否能够经得起价值检验。透明性原则和解释权是价值检验的可选方案之一,但并一定是符合计算正义的最佳方案。数字运行所产生的意义空间与法律的价值空间在性质上不同,对两者之间关系的阐述即是算法解释权所针对的对象,但显然这种解释不同于法律解释,也不同于社会解释,是一种新兴的独特解释。因此,算法解释权就成为一个不确定的概念,甚至是无法解释的。


人们对算法透明的期待容易受到作为公权力之约束的透明原则的影响,然而,两者根本不同。透明原则强调的是公共决策背后的理由的公开性和可辩护性,而算法透明强调的是算法决策的可理解性。权力实践的透明性指向的是权力对个体利益的影响与决策背后的考量能够达成辩护意义上的一致性和融贯性。既有讨论对算法透明的追求通常强调的是算法决策和自动运行过程的公开性和可分析性。然而,这个追求在技术上并不现实,在价值上也没有太多实质意义。从技术上来说,算法的运行过程不可能实现完全公开,即使是专业技术人员也无法实现。从价值上看,算法透明涉及算法实践的一系列价值争议,如果不从计算正义的视角澄清算法的社会和法律意义,只会产生更多困扰。


首先,人们对算法透明的情感认同与计算社会必须警惕并回应的“算法黑箱”紧密相关。帕斯奎尔揭示了信息技术的突飞猛进和数字经济的不均衡发展对社会透明度和公众知情权的损害。凯西·奥尼尔也强调了遍布式算法应用会加剧社会的信息黑洞和不公正,比如信用评分、大学排名等社会计算机制,反而会加剧阶层鸿沟和教育不平等。


[美]凯西·奥尼尔:

《算法霸权:数学杀伤性武器的威胁》

马青玲译,中信出版集团2018年版


不过,人们应当客观地看待算法社会或自动化决策所产生的消极的社会意义。基于人的主观认知和理性判断而做出的决策并不一定会使社会变得更加透明,因为人的理性的有限性和专断性可能比机器更为严重。人们拥抱计算社会的一个重要理由在于,人工智能在特定领域显然比人的智能更具有优势。此外,信用评比、大学排名、个性化营销等所产生的负面效应,并不见得是算法自身的问题,而是现代社会长期以来追求精细化和数字化管理所必然产生的结果,以及资本与国家之关系重塑的观念呈现。


其次,如果算法透明是法律所应追求的一项价值的话,那么人们需要在法律的价值网络中分析算法透明如何与其他价值融贯协调。算法透明是“可问责的算法”的体现,而可问责体现的是算法的权力决策是负责任的,也就是符合可辩护的合理性标准。算法像人的决策一样,也会出现失误,也会带来不合理的结果,造成不平等或损害。传统的价值冲突解决方案通常借助于价值重要性的排序,通过法律的理性论辩空间加以回应和落实,正如环境保护与经济发展之间的紧张关系需要通过确立环境权的基础地位加以解决。算法应用对价值的社会实践模式产生了重塑,也带来了法律权利归属、法律责任判断和法律运行模式的全面调整。在这种情况下,如果人们只是简单地按照传统的价值观念——比如对平等、自由和尊严等价值的理解——来展现算法的社会内涵和价值意义,那是不够的。如果一个学校基于肤色而禁止某个人入学,这显然构成歧视。然而决策者将各种变量通过算法进行计算,得出某个群体比另一个群体在特定方面有劣势的做法,是否构成歧视和平等危机,则涉及决策目标、计算变量、算法类型和计算结果的综合评估。一方面,算法的计算结果可能有着歧视的外观,但并没有歧视之实。另一方面,实践中的算法应用确实产生了一些歧视性的计算结果,引发人们的担忧。比如,在搜索引擎里搜索“出色的医生”,结果显示的男性医生会远远高于女性医生。这个计算过程构成歧视吗?从结果上看,当然构成对女性医生的歧视。然而,这个计算偏见的产生并不是因为算法刻意地无视优秀女性医生的存在,而是在社会中根深蒂固的性别偏见被转化为大量数据,经过算法以一种直观性的方式强化了社会偏见。


因此,算法歧视的源头不在于算法本身,而在于机器学习所使用的那些数据。机器学习必须使用人类的生活和实践经验中所积累的数据,而计算结果反过来又影响人们的实践。如果没有算法的参与,人类决策和预测也会产生大量偏见。算法影响了偏见产生的方式,主要体现在决策过程的计算化和数据化改变了人们的价值推理方式和道德判断形态,也带来正义评价机制的改变。计算正义旨在揭示这种改变的社会和法律意义。算法应用范围的扩展和具体应用场景的实践积累不断重塑着计算正义空间的结构和道德内涵。机器学习的决策结果与传统的道德判断产生的社会意义不同。人的道德判断具有一个面向实践的开放性论辩结构,比如,男性是否比女性更具有能力优势的判断可以通过道德论辩、价值衡量和实践检验加以辨析。机器学习的技术性知识转化(社会理解转变为数据输入)和复杂化运作(数以亿万级的数据处理)为算法决策所承载的道德判断赋予了全新的技术内涵。通过社会规范或者制度安排而表明的歧视性判断与通过计算过程而得出的智能化偏见在本质上是不同的,正如博克所主张的,“算法创造了它们自身的社会事实,当算法对现代商业交易的参与者和实践进行重塑的时候,这些效应变得更加明显,这种应用反而会提升算法输入和处理的透明性”。


在重构模式之下,应对算法歧视或偏见的方案是将法律嵌入算法实践的正义空间,重塑算法应用的社会结构。以算法歧视为例。歧视是基于不能得到证成的决策理由而对不同个体做出差异化对待的做法,歧视的不正义性体现在其决策理由与平等的价值内核相冲突。公正的法律制度应当致力于消除歧视,以彰显平等这一价值。


基于文化观念、制度缺陷和利益格局等社会因素,由种族、性别和阶层所导致的差别化对待仍然难以消除。算法歧视引发关注和担忧,主要原因在于当前日益广泛的算法应用过程中出现了直接或潜在的差别对待。社会歧视可以通过立法确立平等原则、禁止某些歧视举动和优化社会行动框架来克服,但算法歧视不同于一般的社会歧视。算法的运行将算法设计者或社会公众的偏见加以数据化,其计算过程虽然是智能的,但也是不透明的。人们可以通过道德论辩展示社会歧视的推理过程,但算法的人工语言与自然语言不是一套系统,算法产生的道德影响也无法通过价值推理全面展示。然而,对算法输入元素的技术调整既能够客观地反映数据的输入属性,又能以中立的方式计算出符合平等原则的结果。比如克里斯托·杨(Crystal Yang)等学者所设计的犯罪预测算法虽然将种族作为数据识别的特征加以输入,但通过调整统计方式,将种族因素进行中立化处理,在纽约市预审系统的实地应用中得出了比常规算法更为符合平等保护条款的计算结果。


四、计算正义与算法规制


(一)算法规制背后的价值考量


随着算法应用场景的迅速扩张,将算法纳入法律规范框架是当务之急。然而,规制理论面临很多困境,政府在很多领域的规制边界也难以划定。算法在公共和商业领域的应用仍然属于新兴事物,目前还需要澄清的是,算法规制的落脚点在哪里。学界对于自动化决策的限度、算法评估制度和算法歧视治理等问题做出了较多探讨,并提出了一系列关于算法赋权和问责的方案。然而,算法规制背后的价值考量并未得到太多关注。从计算正义的视角来看,算法规制的首要难题并不是如何设计规制方案,而是展现规制背后的价值原理。


首先,从规制的内涵上来看,其要义在于为政府所追求的行政目标确立合宜的决策和行动方案,比如为了保护生态环境而设立排污制度,为了保护人体健康而实施严格的药品审批制度。规制的内涵包含着如何解决规制领域的难题,而建构出在规制目标与政府效率和行政成本之间有机协调的实践方案。然而,在算法规制问题上,政府规制目标和有效的规制方案这两方面都是不清晰的。算法应用的很多方面值得警惕,比如大数据杀熟、隐性歧视等,但政府在政务服务中也逐步地引入算法实现其规制任务。也就是说,政府既要对算法进行规制,也借助于算法实施规制。这表明,算法不只是一个引发实践困境的新兴规制对象,而是一种带来法律价值世界激烈变动的新兴技术形态。


其次,尽管算法规制可以成为一种应对算法之挑战的整体姿态或最低共识,但如果不具体呈现每一种算法技术应用所关涉的价值论辩,那么算法规制只能流于形式,治标不治本。算法技术应用指向共同善,但在具体领域中,算法应用所实现的价值与该领域所蕴含的价值世界之间进行融合协调,需要计算正义原则的引导,也需要在此语境下具体地克服算法不透明和难以解释等所引发的问题。在此基础上,才能展现算法规制的完整价值图景,而非简单地将算法作为规制对象,仅从后果消除算法的潜在风险。


举例来说,新闻推荐算法的广泛应用促进了公共知识传播和个人获取新闻的便利,但该算法的应用原理是抓取用户隐私偏好而在海量新闻中定向推送相关内容。这一做法对个人隐私构成威胁,也会产生信息茧房效应和算法反向支配。有学者认为通过对新闻推荐算法进行规制可以实现公共利益和个人信息保护。然而,如果不澄清新闻推荐算法如何引发价值冲突,单纯的政府规制可能会无所适从。个人通常都是通过阅读和知识获取来自我提升和参与公共生活,新闻推荐算法不同于传统著作和报刊,其本质是一种技术化的公共生活参与方式,即个体以技术化和理性化的方式参与公共生活的构建。所以,用户也是出版者和创造者。


[加]安德鲁·芬伯格:

《技术体系:理性的社会生活》

上海社会科学院科学技术哲学创新团队译

上海社会科学院出版社2018年版


对新闻推荐算法的规制当然需要对算法的潜在隐私风险进行回应,但其更重要的使命是辨析算法所带来的公共生活变革,并重新构建个人自治与公共生活之间的边界。如果个人经由与算法的互动而参与公共生活,那么个人隐私的内涵也会发生改变,按照里根(Priscilla M. Regan)的建议,隐私将会贡献于数字世界之共同善。在这个意义上,完整的算法规制不只是针对算法所带来的价值危机进行回应,还包括更为积极地介入算法的价值重整。


最后,算法规制正以渐进的方式进入政府对技术的规制工程,但在重构模式的引导下,应以算法引发的技术变革为契机,重新反思公权力和个人权利的法理边界。算法在政府决策中的应用和在商业场景上的应用在形式上存在较大差异,但两者的共同之处在于改变了社会决策方式,并以机器理性部分地取代了包含着沟通和磋商的交往理性。自动化决策可能会漠视个体的令人同情的处境,市场经营者可能会使用算法共谋形成垄断地位,却把责任推给自动运行的算法以逃避监管。算法规制不应只是发现算法失范或滥用并加以防范,而应在算法更新社会决策方式的语境下,对机器理性参与决策的正义程度进行评估,为算法规制提供价值依据。


(二)计算正义理念对规制算法的启示


在算法与法律的重构模式之框架下,对算法的规制在本质上是将算法应用纳入计算正义的评估体系,使算法对公共生活的安排和社会合作的促进能够符合基本正义原则。社会正义的要求是抽象的,算法对个体生活的影响体现在具体生活的某一面向。正是借助于法律这种权威性公共论辩机制,才能将正义要求纳入算法与法律的互动进程。规制算法需要在框架上展现三方面的价值内涵。


第一,对算法的规制旨在促进算法的公平实践。公平实践是现代技术应用的价值约束性原则,但随着科技对社会结构的影响越来越深入,如何确立公平的内涵成为科技立法和监管的一项重大难题。对算法的规制最终需要落实到监管部门的具体决策,公平价值将在政府的决策方案和规制途径之中加以呈现,但这并不是算法监管的全部。基于算法与法律的重构模式,算法应用产生了一个法律与算法互相嵌入的价值空间,算法规制是这个价值空间的延伸和纠正。算法规制不只是从公平意义上划定算法应用的边界,它同时被算法实践所创造的新兴价值评价方式所重塑,比如算法与正当程序的自然相近性使得算法的运行过程比起人类决策行为更容易受到正当程序原则的评价和制约。


第二,对于用户创造的海量数据及其算法应用中可能出现的侵权,网络服务者和政府监管机构基于不同目标实施着不同的应对方式。然而,“无论是关乎私人信息保护,抑或是关乎国家安全,私人服务、公共服务和监管利益之间的界限本质上是模糊的”。这既是挑战,也是机遇。挑战体现在,如果计算正义的内涵未能形成定论,对算法规制的过多强调会加重算法监管机构的重任,也会产生法律能够承担监管工具之重任的假象。并且,算法权力的涌现也带来了规制上的新兴问题,政府监管权力之边界成为亟需解决的议题。机遇则体现在,机器学习的运行逻辑和公共属性表明了算法在公共服务和有效监管上的巨大潜力,尽管在公共决策中算法发挥的作用非常有限,但智能社会和数字时代的来临,势必引发公共决策和服务的智能化和算法化。算法治理也应利用数字时代的计算化优势,建构数据开发利用、算法运行和平台运营的互惠性机制,“不应孤立、静态、割裂地就算法而论算法,而应秉持数据、算法和平台相互联结的聚合性视角统筹推进”。


第三,对算法的规制应强化算法应用的共同善维度。对计算正义的追求要求算法设计者和应用者以共同善作为基本价值追求。学界针对算法偏离共同善的危机提出了有针对性的方案,比如在算法设计中加入伦理元素,或者“教导”人工智能成为道德机器。然而,这些方案误解了机器学习的基本逻辑,也无法给政府监管部门提供有效的指引。算法的共同善维度体现为关于算法透明和公平实践的一系列正义要求,应当在社会实践的共同善追求、算法促进社会实践的独特原理和法律嵌入算法的创造性空间等方面进行反思性重建,提炼出能够展现共同善之辐射力量和客观规范意义的价值表达和实践方案。


举例来说,基于机器学习的基本原理,真正意义上的算法透明无法实现,但这并不意味着对算法的规制会落空。将共同善纳入揭开“算法黑箱”的设计过程,意味着促进人类社会更好合作、不挫败每个有尊严之个体的人生计划的伦理追求,应当纳入算法开发、设计和应用场景之转化的全部过程。法律对这种伦理追求的回应是,法律在与算法互动的价值分析网络中确立应对价值疑难的最佳方案。规制是将法律的权威性判断评估社会主体之行动的决策过程,算法规制符合规制的一般原理,但突出算法与法律的互惠意义。算法透明无法成为算法规制的追求,但可以通过赋予算法纠偏机制或者重估机制等程序规制来克服算法不透明所引发的消极效应,反过来促进真正意义上的平等的实现。法律当然也要面对实践中不同价值之间的张力,比如算法效率的追求、算法作为商业秘密的保护必要性和规制成本等。这些价值论辩可能难以得出定论,但对共同善的强调可以促进不同价值之间的统合。在计算时代,通过强化计算正义原则的规范意义,算法规制的复杂工程能得到有力的价值指引。


五、结论


在智能时代,算法的广泛应用既有巨大的前景,也给价值世界带来了巨大挑战。在技术结构上,算法是借助于计算过程实现特定目标的程式化步骤,法律是沟通价值世界与人类合作实践的权威性机制,两者分属不同的社会实践层次。在社会和价值意义上,算法的社会性体现在通过最优计算实现决策的成本最小化,而法律的社会性体现在法律的规范世界与社会价值世界的互惠性建构,两者在功能上互补,但并非重叠和替代。因此,算法不是法律,也无法担负法律在现代社会的使命。理解算法的法律意义及挑战,恰当的方法论方案不是将算法和法律在概念上等置,并简单地将法律作为规制工具,而是在计算正义原则的指引下,分析作为规范世界的法律如何受到纯粹技术化和计算化的决策机制的冲击,并确立计算正义在算法应用中的具体价值内涵。在社会生活数据化和算力高速提升的社会背景下,应基于重构模式理解算法与法律的互动方式和正义空间,为算法规制确立可靠的价值框架。在此基础上,才能更好地回应算法歧视、自动化决策的正当性困境和个人权利保障等紧迫难题。

 

-推荐阅读-


《法理——法哲学、法学方法论与人工智能》杂志最新稿约

学界 | 重要期刊法理论文刊载情况报告(综合类C扩

思享|杨贝:裁判文书说理写作四步法

思享|王若磊:近代中国为何选择马克思主义?

思享|陈坤:“法律解释”的概念厘定

域外 | 《康德研究》(Kant-Studien)第113卷第1期

论文写作与发表|张诗亚:学科缘何以及如何交叉?


欢迎关注法理杂志

 选粹|思享|域外|写作|学界 

赐稿邮箱|ratiojuriswechat@126.com


☜法理杂志官方“有赞”书籍商铺 | 扫码选好书


文字编辑 | 周珍珍 赵熙贤 

继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存