周尚君 罗有成|数字正义论:理论内涵与实践机制
The following article is from 社会科学杂志 Author 周尚君 罗有成
数字正义论:
理论内涵与实践机制
本文全文刊载于《社会科学》2022年第6期,第166-177页。为方便读者阅读,本文省略了原文的注释。
作 者 简 介
周尚君,西南政法大学行政法学院、立法研究院教授。
罗有成,西南政法大学网络空间治理研究院助理研究员、博士生。
目 录
引 言
一、数字正义的理论内涵
(一)数字正义的基本内涵
(二)数字正义的表现形式
二、数字正义的形态变化
(一)从“比例正义”到“计算正义”
(二)从“个体正义”到“群组正义”
(三)从“契约正义”到“场景正义”
(四)从“接近正义”到“可视正义”
三、数字正义的实践机制
(一)数字正义的基本规范框架
(二)数字正义的法律实践基点
四、数字正义的治理结构优化
(一)基础机制的优化:以数字权利的充分实现为中心
(二)实施机制的优化:以算法规制的系统实施为中心
(三)保障机制的优化:以算法评估的科学设计为中心
五、结语
【摘要】
数字正义是指导和约束人类开发、设计、应用数字技术的价值准则,其本质是社会正义而非“机器正义”。在数字社会,数字正义的基本内涵是数据资源的合理分配、数字权利的充分配置、算法决策的公开透明和代码规制的规范有效,主要表现为分配正义、程序正义、互动正义和信息正义四种形式。数字化塑造正义空间,使正义的存在形态发生了从“比例正义”到“计算正义”、从“个体正义”到“群组正义”、从“契约正义”到“场景正义”、从“接近正义”到“可视正义”的深刻转型。当前在我国数字化战略实施过程中,复合型规范制度体系已初步建立,数据源头规制、算法赋权制衡和平台算法问责等制度,已成为我国法律规制保障数字正义的实践基点。下一步数字正义的治理结构优化,还需要在基础机制上充分配置数字权利及其救济方案,在实施机制上强化算法规制实施主体与工具的系统性,在保障机制上科学设计算法影响评估制度。
【关键词】数字正义;数字社会;算法;法律规制
引 言
正义是法治的底色和永恒的价值追求,同时也是时代的反映,其理论内涵和存在形态随着时代的发展而有所变化。随着以互联网、大数据、人工智能和区块链等为代表的新一代科技革命不断迈向纵深,数字技术正在以前所未有的方式重新构造社会行为、社会关系和社会结构,同时也引发了正义理念的深刻变革。数字社会的这种改造,是价值、制度与技术的系统性结构化重建。大数据和算法不只关乎思维和技术,更重要的是它已经变成了一整套知识生产和建构体系;不仅塑造了一种全新的社会适应机制,还改变了法律的价值导向和人类的正义认知。数字正义、数据正义、算法正义、代码正义等概念频频出现,成为现代性正义价值体系中的新形态。
数字正义的提出,正是基于大数据和算法嵌入社会生活过程中所诱发的诸多不正义。其中,表现最为突出的是算法“黑箱”和算法歧视。从形式上看,算法“黑箱”的形成是由于信息不对称,数据输入与数据输出之间存在“隐层”,这也进一步导致决策过程不可解释;算法不透明形成偏好,忽视甚至强化已有的不平等和不正义,加剧数据歧视。但从根源上看,问题不在于大数据和算法,而在于人的意志及其行为。算法自动化决策本质上仍是人为编制的解决问题的过程,人的设计意图和价值取向决定了它的运算法则。也就是说,自动化算法决策,看似屏蔽了“主观人为”,但其形成决策的知识、逻辑、边界和价值基准是被预置的。因此,数字正义的本质是社会正义而非“机器正义”。它表面上看是“机器与人类”的关系,但实质上仍是人与人之间的关系。换言之,人类自身的价值偏见和不正义行为构成数字正义出场的实质理由。在数字社会,仅仅追问代码是否正确执行是远远不够的,我们还需要继续追问,它对社会而言意味着什么?是好(善)是坏(恶)?也正因如此,杰克·巴尔金教授提出,“规制的核心问题不是算法,而是使用算法的人,以及允许自己被算法支配的人。我们需要的不是阿西莫夫定律,而是控制和指导人类创造、设计及使用机器人、人工智能体和算法的法则”。这个“法则”指向的就是数字正义,即如何以正义原则引导新兴数字技术对社会、法律与伦理的重塑,以及如何为算法自动化决策划定正当边界。
杰克·巴尔金,耶鲁大学法学院信息社会项目主任
(图片来源于“数字法治”公众号)
数字化转型背景下法治建构的目标之一,是建设一个能对算法自动化决策进行有效规制的法律体系,通过“更新或构建新的正义原则”,以数字正义的实现推动更高水平的社会正义的实现。数字社会条件下,数字正义是社会正义不可或缺的有机组成部分,直接关乎社会主体享有数字技术发展成果的机会、条件、能力和实效。围绕数字正义的现实命题,尤其是面对国家提出的“实现算法公平和算法向善”的治理目标,如何通过法律规制保障数字正义,是法学理论亟待解决的重大时代命题。基于此,本文拟对数字正义的内涵、形态、实践及优化等问题进行探讨,以期为数字正义的实现提供理论指引。
(一)数字正义的基本内涵
学界对数据正义、算法正义和计算正义等概念展开过专门探讨。有学者认为,数据正义是一种关于如何公平合理地生成、分配、解释和使用数据的价值观,核心要求是数据使用的“可见性、事先约定和防范不公平对待”;算法正义更多强调算法设计、应用过程中应遵循的理性道德原则和价值期待,既涵盖实体和程序,也包括过程和结果;计算正义是在人工智能的计算思维与人类价值世界碰撞的背景下,为了维护共同善而建构的一系列价值原则。数字正义则有更丰富的规范背景及正义要求。如果我们采用一种假定人权、正义和法治的先验价值的公理学方法,从数字技术维度对社会关系、社会结构和社会问题予以评价,其指向的便是数字正义问题。广义上的数字正义,既包括对因机器人、人工智能体和算法应用产生的算法歧视、算法霸权、人权受损等社会问题的规范指引,也包括对数字技术是否符合人类社会正义要求的价值评判。有学者将数字正义理解为依托一系列数字技术来提升司法的效率和公平,以数字化方式“接近”正义。也有学者提出,数字正义是建立在人类固有的尊严之上,指导数字时代美好生活的内在价值。尽管数字正义指向的内容十分广泛,但它首先是一个关乎人类自身的价值定位问题,它的目标仍是根本性的社会正义。因此,本文以数字技术开发、设计和应用中的不正义作为数字正义指向的问题域,将数字正义定义为数字技术应用、尤其是算法应用满足人权、正义、法治价值的一种理想状态。
从数字正义的内涵来讲,首先,数据资源的合理分配是数字正义实现的根本依据。在数字社会,分配正义更多体现在大数据资源的合理分配上,因为其直接与资源、机会、财富、能力和权力等相联系。将大数据资源的合理分配置于数字正义的框架下,就要求政府建立一个公平公正的数据收集、使用和存储体系,消解不同数据主体之间数据占有、使用的不平等,确保每个数据主体从数据输入到数据输出过程的参与平等和结果正义。当然,数据资源的合理分配还内蕴了对个体数据权益、平台数据权益、数据市场秩序和数据行业发展多种利益进行协调的要求,其中不仅包括数据权益的分配,也包括数据隐私保护、数据风险提示以及数据安全维护等义务的分配。
其次,数字权利的充分配置是数字正义实现的基本保障。数字正义问题是新兴数字技术与人类价值原则产生冲突的产物,也是算法权力扩张、异化及由此产生的危害后果。从权利视角来看,数字权利是以大数据和算法为依据的利益,而大数据和算法利益是数字正义的实质表达。权利可以有效对抗数据和算法掌握者对数据主体正当利益的剥夺,同时也将数据主体的正当利益转化为法律权利予以明确保护。新型的数字权利并不是一个扁平的权利单元,而是一个宽广丰厚的权利束,其中包括数据访问权、数据更正权、数据删除权、算法解释请求权、人工接管权、免受自动决策权等一系列数据权利和算法权利。它一方面强化了数据主体的自主性和责任性,另一方面也通过倾斜性的权利配置保障数字正义的实现。
再次,算法决策的公开透明是数字正义实现的外在表征。与AI自主学习相关的算法包含了大量的随机性和不确定性,它能够根据自主积累的数据自动学习并生成高级的决策结果。在此决策过程中存在着不可见的“隐层”,从而导致算法黑箱问题。按照现代正当程序的预设,“黑箱”之内可能隐藏着算法不公或算法操纵,应让那些对结果抱有怀疑的人可以打开“黑箱”看个究竟。但由于人工神经网络(ANN)的机器通过一个复杂的分层结构进行算法学习,它们的决策规则不是预先编程的,而通常是人类无法理解的。即便算法完全透明化,用户或公众也未必能理解其运作逻辑。因此,算法决策流程的公开需要符合普通用户的常识判断和理解能力,必要时应用通俗易懂的方式向被决策对象解释,即“用可理解的术语向人类表达”。算法的可解释性是在算法透明基础上的自然延伸要求,二者共同构成了数字正义实现的外在表征。
[美]劳伦斯·莱斯格:《代码2.0》
李旭、沈伟伟译,清华大学出版社,2018年版
(图片来源于豆瓣)
最后,代码规制的规范有效是数字正义实现的内在要求。代码是架构在网络空间的基础表现形式,它与算法具有天然的紧密联系。算法运作取决于代码如何设计,故代码也可以对算法进行逆向治理。机器学习模型所依赖的代码本身不具备规范性,也并不包含正义的元素。但它一旦确定并伴随算法广泛应用于社会权力运行系统中,就能够持续地引导、改变和塑造人们的网络空间行为,由此可见“代码即法律”之论断所言不虚。尽管代码对传统法律及其产生的正义空间造成一定冲击,但不能因此否定代码,而是要在代码创造的新型技术空间中构建规范有效的代码治理方案,并通过法律的基本价值来抑制代码规制的偏好,这构成了数字正义实现的内在要求。
(二)数字正义的表现形式
从表现形式来看,数字正义主要表现为分配正义、程序正义、互动正义和信息正义四种形式。首先,分配正义涉及信息处理者与大数据生产者之间数据资源的合理分配,以及如何在数字技术应用中为个体提供平等参与的机会。一方面,分配正义是一种关于“应得”的正义。个人信息和数据直接相关的利益的合理分配,以及在此基础上产生的权利义务的合理配置,是在数字社会中实现分配正义的前提。同时,数据收集、数据存储、数据处理和数据应用等环节,涉及数据主体、数据控制者和数据监管者等多元主体,因此分配正义的实现程度取决于多元主体的利益需求的满足程度。另一方面,分配正义也是一种让每一个体享有公平机会的正义,比如获取和使用数字技术的机会公平,训练数字技能的机会公平,以及在“用户画像”过程中用户享有的平等的进入机会。
其次,程序正义涉及数字技术应用背后的过程和逻辑,具体是指透明、准确、参与、可问责要素在大数据、算法、云计算、区块链等数字技术中的满足程度。例如,数据清洗、分类、处理和分析过程是否具有透明性,又在多大程度上能够保障用户获得通知、听取意见和说明理由的权利;瞬时完成的算法自动化决策能否保证当事人的权利救济和事后问责;依托云服务来传输、存储和处理的大规模数据是否得到有效的监管或控制;去中心化的区块链技术能否满足最大程度参与的需求,能否允许每个用户自行决定数据内容、目的和形式;等等。尽管传统程序正义理论应用于数字技术的方式发生了重大变化,技术正当程序、程序性数据正当程序、算法正当程序等概念频频出现,但程序正义的核心价值理念并没有改变。用计算机科学的术语来讲,正当程序的价值理念具有“鲁棒性”,即在受到持续扰动时仍保持原有的性能,只不过其更加凸显对数字技术综合应用过程的深度技术介入。
[美]约翰.罗尔斯:《正义论》
何怀宏等译,中国社会科学出版社,2009年版
(图片来源于豆瓣)
再次,互动正义涉及个体的尊严,旨在通过协商和对话,为公民多种权利、利益和负担的公正处理提供指引。“一种正义观的恰当特征是它应当公开地表示人们的相互尊重。”在数据挖掘过程中,计算机系统基于差别对待的底层逻辑,会对不同人群实行分类,根据他们的特征进行编码和赋值,用以表明其优先等级、风险程度和商业价值。并且,自动控制系统建立起一套自我参照体系,完全不需要与外界的用户进行沟通和协商,而这种自我指涉的体系往往倾向于强化现实社会中的不平等。因此,互动正义要求在数字技术应用过程中为个人、技术团体、行业协会等构建商谈程序和机制,让用户或受决策者拥有提出异议和陈述理由的机会。个体应当既能够对计算机系统提出异议,也能够在专业审查人员的协助下开展审查并及时纠正错误,这被视为一种直觉性的个体尊严需求。
最后,信息正义涉及向用户提供相应的信息与解释。在数据采集、分析和应用环节中,大数据公司、算法平台所使用的数据库和算法并不对用户开放,由此用户无法检视计算机系统的正当性和合理性,这可能会造成整个数据化过程缺乏“透明度”。这种“不透明”嵌入大数据运行的基础设施之中,就会使知情选择权、个人信息自决权、算法质疑权、免受自动决策权等一系列重要的数字权利变得毫无意义。因此,信息正义要求攻破数据黑箱和算法黑箱,实现数据化过程的可见性、可解释性。欧盟2019年发布的《人工智能的伦理指南》(Ethics Guidelines for Trustworthy AI),对大数据系统的可见性和可解释性作出了明确要求,比如要求大数据公司和算法平台向用户提供数据处理及其自动化决策的相关信息与解释理由。数据和算法控制者提供的信息与解释符合信息正义的程度,在很大程度上也影响到用户对程序正义的实现程度的评估。
人类已不可避免地迈入“无处不计算”的数字社会,数字化构成了人们理解社会关系、分析社会问题的重要维度,也成为评价社会主体生存状况的关键依据。同时,数字化塑造正义空间,使正义的存在形态发生了从“比例正义”到“计算正义”、从“个体正义”到“群组正义”、从“契约正义”到“场景正义”、从“接近正义”到“可视正义”的深刻转型。
(一)从“比例正义”到“计算正义”
自古希腊以来,如何实现对条件相等的人分配相等的利益,一直是正义理论的中心问题。毕达哥拉斯用数的平方来说明正义,把正义理解为事物之间一种和谐稳定的比例关系。后来亚里士多德提出,在社会成员与其他成员的关系上,正义是某些事务的“均等”观念。霍布斯也认为正义就是将个人的本分额按合理比例分配给每一个人。正义就是合比例,不正义就是破坏比例。这一正义理念延续至今,不仅构成了社会主体认同实践行动的标准,还进而塑造了现代法治的内生状态。
(图片来源于天下borderless)
但在数字社会,随着云计算、知识图谱技术和神经网络深度学习算法的出现,人类通过代码设置、数据运算与机器自动化判断可以呈现出更精确、更客观的“正义”。人工智能的本质在于“计算”,“计算”处理的基本元素是大数据。机器通过对全样本数据的清洗、分类和结构化处理,将“正义”的构成成分拆解为以计算元素为基本单元的微分形态,并用0和1的特殊语言组合系统来表达。除了对正义进行技术上的分解之外,算法还对具体场景中的正义进行赋值和数字转换,并通过数学建模对正义展开分布式运算。算法冲击了人们的价值世界,同时促使新的正义空间和价值形态产生。人的生存状态可以转换为数字化的在线生存状态,大数据集的完备性、算法模型的科学性和计算结果的正当性逐渐成为人类实践行动的评价标准。因此,数字时代的正义建立在数理逻辑的基础之上,正义的数据化和计算化正逐步替代传统上对正义的比例衡量。
(二)从“个体正义”到“群组正义”
现代社会结构建立在个体正义的基础之上,强调个人的自由、平等权利的不可侵犯性,以及不同个人利益之间的不可替代性。个体的集合组成了社会,法律通过尽可能保障个体的正义来维护整个社会的正义。正是通过保护个人权利,人们才保护了共同的善,从而服务了大多数人的利益。
然而,大数据、云计算、无监督式机器学习等数字技术的发展突破了以个体正义为核心的正义观,而代之以一种效率优先的“群组正义观”。“群组正义观”是建立在相关关系分析基础上的正义观,其实质是从正义决定论跳跃到正义概率论。计算机并不是“思考”,而是依据逻辑处理数据。算法通过数据模型或代码表达意见,在相关性的概率计算基础上认识现实世界的规律,并从适当的大概率事件出发来论证决策的正当性。它将群组而不是个人作为分析单位,在展开分布式运算时,机器会对贴上“标签”的不同群组作同质化处理,以相关性分析的均等性去逼近群组的正义性。同时,在深度学习算法的加持下,机器学习模型的数据分析能力得到进一步提升。它不仅可以根据多层次特征信息进行分组,还能凭借希尔排序算法、聚类算法、C4.5分类算法等不同算法系统的相互叠加,自行从输入信息中获得最合理的输出结果。因此,算法在海量大数据中高效筛选出最能体现正义维度的信息,并对其进行分组排序、逻辑嵌套与循环递归,以寻求建立全新群组正义的各种可能性。
(三)从“契约正义”到“场景正义”
传统工商业社会强调主体平等、意思自治和忠诚允诺。正义所要求人的“规定地位”和“规定义务”并不是以固定身份的形式出现的,而是可以根据自己的意愿以契约的形式出现。自罗马法以后,对这种“契约正义”理念的认同,一直都是人类理解正义的主流方式。正如后来罗尔斯所总结的,“正义的原则是一种公平的协议或契约的结果”。
(图片来源于百度)
进入数字社会,人工智能拥有了场景化的“思维方式”,能够根据不同的场景和情形进行差异化数据分析、程序建模,最终实现精准画像。诸如量身定制的医疗方案、个性化的资讯推荐、一事一议的商业交易等场景化决策方案成为常态。基于大数据和算法运作的场景化驱动逻辑,人们对公正的期待从传统的契约平等开始转换到新型的“场景正义”。机器学习模型能够在海量大数据中筛选出不同场景的“更优解”,通过高频次的拟合或仿生尝试,甚至可以提炼出完全符合个体现实条件的规则。例如,神经网络深度学习算法在处理数据的同时,也时刻在具体场景中产生新数据,持续不断地更新和优化原始数据,以确定原始数据与输出结果的“最佳判断”。算法改变了人们对传统契约正义理论的理解,正义价值在满足契约公平的条件下,也应在场景化的决策方案中得以展现和接受检验。虽然基本的契约正义原则仍然在数字社会发挥重要的引导作用,但很多具体的正义权衡则需要基于定制场景来完成。这既构成人工智能发展的重要动力,又使得数字社会的正义呈现出新的维度。
(四)从“接近正义”到“可视正义”
“接近正义”,也称为“实现正义”,主张司法应向更容易理解、更容易利用、更加亲民的方向发展,强调公民寻求司法救济的便捷。在进入数字社会之前,对于寻求司法救济的普通公民来说,供给正义的法律之门庄严而神秘。人们很难接近司法,不仅受到物理时空、技术设备和知识能力的制约,还面临司法决策机制、信息和流程不透明的物理障碍。
在数字社会,大数据、算法和算力的深度融合为更加接近正义奠定了现实基础。数字技术可以有效化解实现传统社会正义的各种物理障碍,使物理空间上的“接近正义”迈向跨越物理—虚拟双重空间的“可视正义”。集约高效、线上线下交融、覆盖性整合的司法平台建设实现了信息的分享可视;网络庭审、ODR模式、“移动微法院”等软件系统实现了超时空的场景可视;案件信息库、电子卷宗库、司法区块链实现了全要素的数据可视。在全新的“可视正义”样态之下,正义女神摘下了蒙眼布,戴上了柏拉图所隐喻的“古各斯戒指”,全方位窥视着“法律之门”内的审理数据、司法业务和决策机制等信息。同时,“可视正义”能够实现效率和公平的结合,促进程序正义和实体正义的双重实现。算法在极短时间内自动处理海量的司法数据和文书,发掘出具有重要意义的隐藏规律,并通过简洁的语言予以呈现。然后,它在“生成式学习”的操作层面下根据给定条件进行客观的行为评估以及规范续造,可以为每个当事人量身定做“接近”正义的过程。
(图片来源于北京晚报)
大数据和算法冲击了传统的价值世界,同时产生了新的正义形态,以“计算、群组、场景、可视”为核心特征的数字正义应运而生。无论是数字正义的理论内涵还是形态变化,都需要置于具体的制度实践中加以分析,也需要法律实践充实其内容。当前,在我国数字化战略实施过程中,复合型规范制度体系已初步建立,数据源头规制、算法赋权制衡和平台算法问责等制度,已成为我国法律规制保障数字正义的实践基点。在这一规范框架及其实施体系下动态地探寻数字正义的实践机制,可以形成关于数字正义的价值论分析资源和图景。
(一)数字正义的基本规范框架
我国目前尚未针对大数据和算法制定系统性的法律,相关规定和制度设计散见于不同层级的法律规范、政策性文件及技术标准中,它们共同构成了我国保障数字正义实现的规范依据。总体来看,涉及大数据和算法规制的规范体系可分为基础性规范、专门性规范和补充性规范三个层次。基础性规范为数字正义的实现创造了外部环境,提供了基本的法律规制依据;专门性规范直接且明确指向算法自动化决策,重点解决算法歧视、算法归化、算法操纵等算法不正义问题;补充性则规范进一步细化了大数据和算法规制的基本原则和具体制度,构成了保障数字正义实现的有益补充。
1.基础性规范
基础性规范主要包括《个人信息保护法》(以下简称《个保法》)《数据安全法》《网络安全法》《电子商务法》《互联网信息服务管理办法》《网络数据安全管理条例(征求意见稿)》《互联网信息服务深度合成管理规定(征求意见稿)》等。这些法律规范针对大数据和算法应用的不正义情形进行了基础性规定。其中,《个保法》第24条专门引入自动化决策概念,不仅明确了算法决策透明和结果公正两项基本原则,还在部分借鉴欧盟《一般数据保护条例》(General Data Protection Regulation)的基础上,规定了算法解释权、算法拒绝权两项新型算法权利。《电子商务法》第18条和第40条则针对大数据杀熟现象,对平台的明示告知、为用户提供选择权、保障用户隐私等义务作出了基本规定。此外,《数据安全法》《网络安全法》立足于“安全”的治理目标,与《个保法》合理分工、相辅相成,通过建立安全管理制度、安全审查制度、安全问责制度和安全应急处理机制保障我国网络运行安全和数据安全。
2.专门性规范
2021年9月17日,国家互联网信息办公室、中央宣传部等九部门联合发布了《关于加强互联网信息服务算法综合治理的指导意见》(以下简称《算法治理指导意见》)。2021年12月31日,国家互联网信息办公室等四部门联合发布了《互联网信息服务算法推荐管理规定》(以下简称《算法推荐管理规定》)。《算法治理指导意见》和《算法推荐管理规定》的最大特点在于首次直接以“算法”命名,是针对算法出台的专门性规范。《算法指导意见》从宏观上明确了“逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局”的目标,以及提出了“坚持权益保障,引导算法应用公平公正、透明可释,充分保障网民合法权益”的原则。《算法推荐管理规定》一方面从“算法推荐服务”着手,针对算法黑箱、算法歧视、信息茧房、舆论操控、不正当竞争、用户权益保护等问题作出了明确规定;另一方面也充分体现出算法安全、算法公平和算法向善的内在规制价值。可以预测,随着算法应用实践的不断深化以及算法规制理念的更新,我国将来还会出台直接针对算法的法律基础规范,例如“算法安全法”“算法问责法”甚至“算法法”。
欧盟《一般数据保护条例》GDPR
瑞柏律师事务所译,法律出版社,2018年版
(图片来源于豆瓣)
3.补充性规范
我国保障数字正义的法律规制在其他规范、政策性文件和技术标准中也有较为清晰地呈现。比较具有代表性的是《App违法违规收集使用个人信息行为认定方法》《网络音视频信息服务管理规定》《网络信息内容生态治理规定》(以下简称《网络治理规定》)《信息安全技术个人信息安全规范》(以下简称《信息安全规范》)。这些规范针对大数据和算法在不同领域应用过程中产生的算法侵害现象,具体规定了认定标准、监管路径、责任追究和处置措施等内容。例如,《网络治理规定》第12条对设置平台的算法推荐模型、建立人工干预机制和用户自主选择机制进行了规定;《信息安全规范》第7、8部分分别对“用户画像”的使用限制和个人信息主体的权利作出了详细规定。另外,我国《新一代人工智能伦理规范》《新一代人工智能治理原则》还对人工智能提出了“增进人类福祉、公平公正和可控可信”的伦理要求。
(二)数字正义的法律实践基点
《算法治理指导意见》提出的“构建算法安全综合治理格局”,以及《新一代人工智能治理原则》确立的八项基本原则,是通过法律规制手段保障数字正义实现的基本遵循。但这些纲领性的治理目标和原则,难以满足数字正义实现中法律规制在主体、工具、内容、程序等方面的复杂要求。通过法律实现数字正义,既需要规制目标的宏观指引,也需要具体制度安排的落实。从上述大数据和算法规制的基本法律框架来看,我国保障数字正义的运行实践主要围绕源头数据规制、数据赋权制衡和平台算法问责三个维度及其联结关系来展开。
1.源头数据规制
由于算法从源头上依赖数据“喂养”,所以可通过规范数据的收集、使用来对算法施加影响,确保算法决策结果公正。为实现这一目标,我国通过多部法律规范架构起了“基本原则+具体权利”的规制模式。首先,《网络安全法》第41条明确了网络运营者收集数据的合法正当、知情同意和公开收集原则,《数据安全法》第32条重申了数据收集的合法正当原则。其次,《个保法》设置多个条款全面规定了数据处理者的合法正当、合理、诚信、最小化、公开透明、保证质量等原则。最后,《个保法》第四章引入一套个人数据权利体系来保障数据正义的具体实现。它以个体对数据的自决权为核心,在《民法典》个人信息相关条文的基础上细化了知情权、查阅复制权、更正补充权、要求删除权等具体权利形态。同时,为了确保赋予数据主体的各项权利得以充分实现,《个保法》第52、55、56条通过个人信息保护负责人制度和个人信息保护影响评估制度的构建,给个人信息处理者施加了更多的义务。因此,我国通过数据收集、处理和使用原则的确立及其数据权利义务的设置,既形成了保障数字正义实现的基本框架,又从数据源头上初步构筑起了算法规制的规范起点。
2.算法赋权制衡
《个保法》在借鉴欧盟《一般数据保护条例》的基础上,专门设置条款(第24条)规定了算法解释权和免受自动决策权。算法解释权基于公开透明的正当程序要求,旨在消除算法黑箱下隐藏的信息不正义和程序不正义情形。但《个保法》对算法解释权的规定较为简单化和模糊化,并未进一步规定解释权对象、内容、启动时间点以及解释方式、程度等具体问题。对此,《算法治理指导意见》初步明确了解释的对象,将算法的“结果解释”作为算法解释的中心,第13条提出“督促企业及时、合理、有效地公开算法基本原理、优化目标、决策标准等信息,做好算法结果解释”。“算法结果解释”具体是指提供决策结果理由的说明。因为算法解释权并不要求算法控制者提供决策树、预定义模型和底层代码的解释,而是提供一种有意义的理由说明,使得决策结果的依据能够为用户所理解。另外,免受自动决策权则充分体现了互动正义的要求,它能够在法律规制中发挥尊重用户个体自治和避免算法歧视扩散的优势。另外,免受自动决策权的适用前提是算法决策对个人权益具有重大影响,但是否对个人权益构成重大影响的客观判断标准,还有待后续法律或司法解释进一步明确。
3.平台算法问责
网络平台的崛起,一方面创造了新型的社会互动结构,另一方面也带来了大数据杀熟、算法霸权、算法操纵等一系列社会不正义问题。我国以平台规制为抓手,通过要求收集数据、构建系统和应用的平台承担相应法律责任,初步确立起了以平台算法问责为核心的制度框架。有学者将这种框架提炼为平台“穿透式监管”。具体来看,《电子商务法》第18、40条规定了平台的明示义务和个性化推荐算法的消费者保护义务,第38条要求平台承担事前的资质审查义务与安全保障义务。《数据安全管理办法》第23、24条分别规定了平台的“定推”标识义务和算法“合成”信息标识义务。《网络治理规定》第12条对网络平台建立健全人工干预机制和用户自主选择机制的义务作出了规定。同时,《个保法》不仅明确了平台追责的直接指向是自动化决策,还在平台责任的追责机制中,将平台注意义务从简单的“明知应知”扩张至算法设计、应用、输出结果全流程。在此基础上,《个保法》第66条和《算法推荐管理规定》第31条则进一步落实了平台的信息保护责任,具体包括警告、责令改正、强制执行、罚款甚至刑事处罚等责任。
数字正义的实践机制表明,我国已经初步搭建起多层级的复合型规范制度体系,在法律和政策层面为针对数字技术滥用的执法、司法提供了有力支撑。但是,随着数字技术的迭代更新以及算法权力的不断扩张,新技术新领域新问题迫使我们仍需不断思考“算法与法律的互动方式和正义空间”,思考如何促进算法公平实践形态的实现和法律规制效能的提高。关于数字正义的治理结构优化的探讨,还需要结合数字正义的理论内涵和具体实践,围绕基础机制、实施机制和保障机制等方面展开。
(一)基础机制的优化:以数字权利的充分实现为中心
从上述数字正义的理论内涵来看,保障数字正义的基本前提是充分配置数字权利。每一个具体的数字正义问题能否解决的背后,都或多或少隐含着公众数字权利是否充分配置的事实。而且,法律规制的本质就在于保护权利和正当利益。由此,数字正义和法律规制因数字权利而联结,数字权利机制构成了法律规制保障数字正义的基础性机制。围绕这一基础性机制展开对数字正义治理结构优化的讨论,主要包括如下两个方面:
首先,实现公众数字权利配置的充分性和全面性。数字正义通过权利机制来成就自身,在数字社会,正义同样集中体现在权利体系上。从数字正义的实践机制来看,《个保法》虽然首次规定了算法解释权和免受自动决策权,但并未明确其行使方式、程度、标准和时间点等具体内容。以算法解释权为例,其解释方式是人工解释还是机器解释,解释时间点是事前还是事后,解释程度是系统性解释还是个案性解释,都存在解释争议与适用困境。因此这两项数字权利的具体内容亟待后续法律及司法解释作出具体规定。同时,算法解释权是数字权利的核心,需要法律的充分配置。算法解释权通过个体对自动化的知情与控制来保护公众的合法权益,但是它也会和个人隐私权、商业秘密权发生冲突,因而需要在立法中限定其解释对象、条件和范围,平衡算法解释权保护和社会的多元利益保护。在立法形式上,可由专门机构发布统一解释指南予以精细规定,在解释指南中充分明确解释权的具体内容和技术要求。另外,单凭算法解释权和免受自动决策权还不足以应对深度学习算法的复杂化趋势,有必要在以后出台的相关法律中增设人工干预权、算法质疑权与表达观点权,进一步丰富数字权利束。算法质疑权和表达观点权提供表达数字正义诉求的机会和条件,同时也可以通过公众共同理解的嵌入提升算法决策的合法性、有效性和科学性。人工干预权则强调在人工智能系统的整个生命周期建立人类审核监督程序,它是防止算法不正义情形发生和维护人类尊严的重要保障。
其次,建构多元的权利救济方案。数字权益不同于一般的权益,它具有特殊性。传统单一救济方案可能无法应对数字权益侵害的复杂性,因此有必要引入平台救济、个人司法救济以及公益诉讼救济相结合的多元方案。在大数据和算法侵害公众合法权益的情形下,公众可先通过用户申诉渠道提出意见,要求平台公开算法的基本原理、优化目标和决策标准等信息,并对算法结果作出相应解释。平台则应规范处理用户申诉并及时反馈,切实保障用户的合法权益。如果平台救济无果,公众可通过司法程序维护其数字权益。法律规制保障数字正义所依据的相关数据权利,如数据资源公平分享权、算法解释权和免受自动决策权等权利类型,其可诉性已在我国《个保法》中得到承认。公众可以上述权利为依据,请求法院为保障数字权益而作出特定的判决,要求对因大数据和算法应用造成的合法权益损害予以赔偿。另外,行政机关对算法负有法定的监管职责,同时行政机关也是算法的开发者、使用者,在公共治理领域中广泛应用算法决策,因此可通过行政公益诉讼制度的充分运用来实现数字正义。行政公益诉讼的范围应进一步拓展,将数字正义指向的公共利益也纳入保护范围。检察机关可根据自动化决策导致公共利益受损的事实,向负有监管职责的行政机关提出检察建议,或者向人民法院提起公益诉讼。总之,多元权利救济方案是数字权利机制的基本保障,也是上述程序正义、信息正义的实质表达和具体呈现。
(二)实施机制的优化:以算法规制的系统实施为中心
如前文所述,保障数字正义的规范依据散见于法律、规章、政策性文件和技术标准中,这种立法状况必然导致我国对算法的法律规制系统性不足,规制主体、规制工具和规制对象之间的联系不够紧密。同时,鉴于算法的技术复杂性,要想达到数字正义所要求的规制效果,需要调整规制思路,形成整体意义上的规制效用。也就是说,算法规制应具有整体性,能够合理联结不同规制主体和规制工具,更需要容纳发展变化的社会要求和正义价值,将系统化的实施机制有机融入整个法治体系中,以保障数字正义的最终实现。
首先,提升算法规制实施主体的协同性,形成多元共治的规制主体系统。算法规制问题是一个特殊且复杂的问题,其中不仅存在广泛的公共风险,而且事后追责的效果有限。如何建立多元化的风险控制体系,如何在算法系统的整个生命周期中落实不同主体的责任,又如何平衡不同主体间的利益冲突,这些都需要借助规制主体的系统化安排来解决。而且,《算法治理指导意见》明确提出建立“多元协同、多方参与的治理机制”。下一步应从这一基本要求出发,既强调政府政策倡导与科学监管,也重视公民、社会、企业、行业组织等主体的互动,通过不同规制主体法律地位的确认、权利义务机制的安排以及社会监督机制的构建,形成多元协同的算法规制主体系统。这不仅与数字正义的理论内涵相契合,也增强了数字正义实现中法律规制的实施效能。
其次,强化算法规制实施工具的系统性,形成功能互补的规制工具系统。算法规制工具的应用不单要考虑法律,还要考虑技术、伦理、自律等规制工具的组合适用,以此来完成算法规制的系统化实施。具体而言,一是在法律制度的顶层设计基础上,构建代码逆向治理机制,深入机器学习算法的核心内部展开动态化监管。例如,可根据社会需要的动态变化将算法诱发的风险划分为不同等级,并通过代码一一设定对应的动态因素阈值,从而以低成本方式实现对算法运行全过程的动态监管。代码逆向治理机制的构建,也是上述数字正义的内在要求。二是注重伦理规制,制定一套人工智能的道德规范。首份人工智能伦理问题全球性协议《人工智能伦理问题建议书》(Recommendation on the Ethics of Artificial Intelligence)和我国《新一代人工智能伦理规范》均强调了人工智能的伦理规制原则。算法设计者和开发者应对算法前置性地施加以人为本的整体伦理负载,在人机关系中注意凸显数字正义所要求的人的尊严和价值优先原则。三是推进行业内部制定自治规范和技术标准。在算法应用相关规范和标准制定中,应强化算法安全可控、可解释、可问责和公平公正的价值指引。另外,企业自行制定的自治规范和技术标准经实践检验成熟时,可将其纳入法律标准或通用技术指南中,进一步推广应用。总之,数字正义具有包容性和整体性,不仅需要法律、技术、伦理和自律机制的协同共治,还需要形成算法规制的合力,以此促进其在保障数字正义中发挥最佳作用。
(三)保障机制的优化:以算法评估的科学设计为中心
算法是否达到了上述数字正义所要求的分配合理、程序正当、尊严优先和可信可控,又是否会诱发安全、伦理、责任等多元风险,需要通过算法影响评估制度来判断。同时,通过算法影响评估制度来理解、研判算法究竟反映何种规则,又会产生何种经济社会效应,在保障数字正义目标实现上具有重要作用。实践中,《个保法》第55条初步明确了利用个人信息进行自动化决策时,应当事前进行个人信息保护影响评估,并在第56条规定了评估的主要内容。但是,算法影响评估结构体系有着自身的独特要求,其具体设计和实施机制需在《个保法》基础上进一步优化。
首先,就评估理念而言,算法影响评估应坚持整体性、动态性的评估理念。一方面,不能仅限于算法的技术或政策评估,而应对算法应用的技术、意识形态、社会公平和道德伦理等风险展开全面评估,从整体性和全局性出发考察算法潜在的不正义情形,并设定多层次、多元价值观的评估指标。另一方面,算法影响评估应采取动态的评估理念,结合上述“场景正义”的要求,根据算法的具体应用场景设置动态的评估标准,并随算法技术的变化及时更新。另外,考虑到算法影响评估的道德伦理要求,在评估过程中要兼顾算法本身以及对应数据集的评估。尤其要对可能产生系统性歧视风险的“污染”数据集进行重点评估,仔细审查算法模型在输入与输出之间的非因果关系,并严格设定其伦理信任阈值。
其次,就评估主体而言,算法影响评估需要专业技术人员的介入。数据源的挑选是否公平,分析和预测工具的选取是否恰当,算法模型和运算法则的设计是是否合理,以及计算结果的解读是否正确等,需要通过专家知识来研判。实践中可借鉴美国联邦《2019算法问责法案》(Algorithmic Accountability Act 2019)的规定,设立专门的“算法师”,对算法的公平性、准确性、可控性和安全性进行评估。对于高风险或对公众权益有重大影响的自动化决策系统,则有必要在“算法师”的基础上,吸纳政府、科研机构、具有专业知识的社会公众、同行评审等多方力量展开组合性评估。
《2019算法问责法案》第1页
(图片来源于搜狐网)
最后,就评估方法而言,算法影响评估需要重视评估工具的智能化赋能。数字正义具有不同层面的社会正义要求,其实现与否需要综合法律、技术、伦理和代码才能判断,加之神经网络深度学习算法的日益复杂化,传统评估方法显然无法满足算法影响评估的需要。对此,应对评估工具进行智能化赋能,用“算法评估算法”。简单来说,可设计出一种算法影响评估模型,通过该模型就能够向算法监管机构和社会公众证明算法随机选择输入数据的公平性,以及自动化决策是根据一套统一规则做出的且不存在任何歧视性输出结果。实践中已经有了新的探索。例如,加拿大《自动化决策指令》(Directive on Automated Decision-Making)规定,算法掌控者应当运用动态编程语言开发开源性算法影响评估模型,并依据该指令附录C的评估要求为其设置权重、配比风险系数和设定评分编码。
数字技术正在建构、塑造着人类文明的新实践,它既对传统价值世界造成了冲击,也使正义的理论内涵与存在形态发生了深刻转型。数字正义成为社会正义的一种新的重要机制,作为指导和约束人类开发、设计、应用数字技术的价值准则,其出发点和落脚点是社会正义而非“机器正义”。数字正义的实践机制及其优化问题应在这一基本理解下进行讨论方具有意义。未来已来,但迈向数字正义之路道阻且长。当前和今后很长时期内,大数据和算法无疑将呈现出更大的现实力量,也必然给人类价值体系造成更大的冲击。它“可能会从根本上改变我们与法律的关系,机器而非人类终将成为正义的仲裁者”。无论如何,怎样接受和使用这种力量依然取决于人类自身,依然取决于人类在通往正义之路的进程中所做出的伦理判断。也就是说,人类所构建的关于大数据和算法的法律规制体系,包含着规制的价值沉淀、意义结晶化和客观化过程,无论哪种规制路径,都无法回避数字正义这一价值治理维度。只有在清晰明确的数字正义的指引下,才能在算法崛起诱发的一系列社会困境和挑战中厘清方向。而且,数字正义不仅来自算法的数学逻辑,更来自我们的社会经验,以及我们如何协调算法决策的效率、精度与人类正义价值的法律保障。因此,归根结底,“谁编码、如何编码以及如何使用编码并不只是一个技术问题,而是一个实实在在的社会正义问题”。
[英]维克托·迈尔-舍恩伯格、肯尼斯·库克耶:《大数据时代:生活、工作与思维的大变革》
盛杨燕,周涛译,浙江人民出版社,2013年版
(图片来源于豆瓣)
当然,数字正义的实现机制是一个包含法律、技术及伦理等诸多要素的系统工程。法律规制是保障其实现的主要手段,但仅仅依靠法律规制尚不足以解决数字正义实现过程中的所有问题。本文虽然强调规制实施工具的系统性,统筹考虑不同规制工具的功能优势和作用机理,把技术与伦理要求融入法治体系中,但是如何在数字正义的实现机制中促成多种制度的衔接和协调,如何最大化发挥技术和伦理交互作用的效能,还有待进一步研究。
往期推荐
排版:严四维、余海洋
审核:张瑞、罗有成
点击阅读原文 进入投稿系统
+