查看原文
其他

【原创】智能辅助司法决策语境下算法透明原则的构建

法律未来 互联网法律大会 2022-04-09

免费订阅请点击上方“互联网法律大会”


本文作者
赵子墨浙江大学法律硕士


摘要


算法作为智能辅助司法决策系统运行的基础,其重要性不言而喻,因而算法透明原则的构建将成为我国智能辅助司法决策系统实行合理的算法自动化决策的必由之路。本文将从《个人信息保护法(草案)》第二十五条对自动化决策透明度的规定切入,阐述算法透明原则的意义,以直接与间接两条路径实现技术与法律的深层交互,为有效驾驭算法问题、构建算法透明原则提供可靠路径。


关键词:自动化决策透明度;算法透明原则;自动化算法决策



一、《个人信息保护法(草案)》中的“自动化决策透明度”


01

意义及不足


2020年10月21日全国人大法工委发布《个人信息保护法(草案)》,其中第二十五条第一款就利用个人信息进行自动化决策时的决策透明度要求进行了明确规定,该规定被视为我国自动化决策领域算法透明原则的正式确立,具有旗帜效果,必将对我国数字法治的理论和实践产生深远影响。


近年来国内外接连出现因算法偏见、算法黑箱引发的自动化决策偏差问题,学术界关于算法规制、算法透明的讨论和争鸣也已经持续数年,而《个人信息保护法(草案)》则是我国立法第一次对此问题作出正面、直接的回应。同时,放眼整个草案内容,本条在自动化决策规制方面最具穿透性、价值性、纲领性,旨在针对目前自动化决策算法乱象进行规制和影响。


但必须承认,虽然立法对于信息处理者提出了“自动化决策透明度”的要求,但是并未明确透明度的具体内容及限度,“自动化决策透明度”在规范目的上所要解决的算法偏见等问题以隐蔽性、散发性为显著特点,难以察觉却对个人权利影响极大,这种宣示性的规则确立方式在未来可能导致实践标准的混乱以及立法目的的落空。


02

与欧盟《通用数据保护条例(GDPR)》的对比


通过对比我国《个人信息保护法(草案)》与欧盟《通用数据保护条例(GDPR)》可以发现:GDPR第五条与我国《个人信息保护法(草案)》的第二十五条的立法方式类似,对合法性、公平性和透明性原则进行了抽象性规定,要求控制者(即信息处理者)以合法、公正、透明的方式处理与数据主体有关的个人数据并对此负责,且能够证明其处理行为符合合法性、公平性和透明性原则。


我国《个人信息保护法(草案)》第二十五条第二款尝试赋予个人(即数据主体)以面对自动化决策时的获得说明权和拒绝权,但并未对“重大影响”如何界定作出清晰化的说明,亦未对说明的内容、方式、可以拒绝的场景、范围等作出具体限定,延续了第一款规定的宣示性、模糊性特点,缺乏可操作性。而GDPR第十二条到第十五条对透明性原则进行了细化,规定了数个具体要求:以数据主体为视角,数据主体有权从控制者处确认自身个人数据是否正在被处理,以及有权在自动化决策中访问个人数据和获得涉及自动化决策的有效信息,包括涉及的相关逻辑、数据处理对数据主体的重要性以及对于数据主体的预期后果及影响;以数据控制者(即信息处理者)为视角,无论是从数据主体处收集个人数据还是以其他方式收集数据主体的个人数据的控制者,在获取个人数据时,在必要的情况下,都应当向数据主体提供自动化决策的有效信息,包括涉及的相关逻辑、数据处理对数据主体的重要性以及对于数据主体的预期后果及影响,控制者应采取适当措施,包括以简单、明确、易得的方式和清晰明了的语言向数据主体提供将其个人数据用于自动化决策的任何信息以及其个人数据处理中的过程信息,信息提供形式包括书面材料、电子方式、口头方式,控制者应尽量采用标准化的图标,使其简洁明了、清晰可视、晓畅易读,并用电子方式呈现以便于机读。以上GDPR相关条款,旨在赋予数据主体算法解释权及控制者算法解释义务,保障数据主体知情、参与等权利,不失为保障算法技术正当和实现算法程序性规制的一条可靠路径。

二、智能辅助司法决策语境下构建算法透明原则的意义


01

自动化算法决策的合理性根源浅析


如今,人工智能应用已经融入日常生活的方方面面。在我国刑事司法领域,人工智能技术的运用贯穿证据检验、类案推送、量刑规范、诉讼风险预测、辅助司法决策等关键环节,“206”系统和智慧审判苏州模式可以看作智能辅助司法决策的典型代表。在刑事司法的语境下,公平、正义等价值是我们所不懈追求和强调的,这意味着我们尽可能排斥和抵制与价值追求相悖的一切因素,尤其在审判环节中。因而在人工智能与刑事司法结合日益紧密的今天,我们需要深度反思自动化算法决策的合理性根源问题:


首先,自动化算法决策至少在形式层面上必须令人信服,也即这种算法决策不会对毫无关联的因素进行考虑并引发荒谬的为社会和公众产生不安的严重后果,从而使得社会上的个体与整体即使并不全然知晓其运行原理仍可以获得预期结果并逐渐对其产生信任。


更进一步,在运用算法进行自动化决策的刑事司法人工智能应用中,如果算法决策的可靠性只能达到不会比人类判断更糟糕的程度,那将是令人失望的。而我们要实现的目标恰恰相反,我们期待自动化决策可以比法官独立做出的决策要更为可靠,无论是它的决策过程还是决策结果都应当尽可能模仿一个毫无偏私的法官的决策,进而在法律效果及现实意义上最大限度的实现公平正义。


尽管目前实践中自动化算法决策的运行状况和效果与理想间存在差距,但随着计算科学向认知科学的稳步迈进,我们相信在不远的将来这些目标将极大概率成为现实。


02

合理的自动化算法决策的实现路径——算法透明原则


在初步分析自动化算法决策的合理性根源后,我们需要探求如何保证合理的自动化算法决策的实现,也即如何有效管理自动化决策所用算法。对自动化算法决策进行管理的理想状态在于:从整体视角来看,确保整个社会,无论是实施监督的政府机构还是普通社会公众都能明确了解自动化决策的算法机制,即使这种算法不为公开也能获得其如何运行的基本流程介绍和相关规则;从个体视角来看,每个受到算法决策影响的参与者都能明确知晓有特定或和他人相同的算法适用于他,并且算法的运行将不会对他产生不利影响,这也是由一些国家的宪法性文件相关条款所衍生出的程序性规制的最低要求。


通常来说,人类对决策者的信任感源于对其的充分了解与情感互动,若类比于自动化算法决策,人类只有充分理解算法决策的运行机理并与其产生互动才有可能对其拥有信任感和依赖感,这意味着法官的人脑决策较容易产生可靠感,而自动化算法决策则不然,它必须要遵循一定的原则和程序才可能被认定为是可信任的和值得依赖的。因此,算法透明原则的构建将成为对自动化算法决策进行管理并引导其合理的做出决策的必由之路,算法透明原则将成为法律层面上人类面对算法做出不可靠决策时所拥有的最强武器。


三、智能辅助司法决策语境下构建算法透明原则的路径选择


01

直接路径


1.公开源代码


公开源代码系构建算法透明原则最为直接的方式,它要求信息处理者在条件允许的情况下对自动化决策关键环节的相关源代码进行公开,公开后通常有两种审查和检验方式,包括以直接检查是否存在编写错误或可能导致偏差的漏洞为主要内容的静态分析和通过执行程序来检测算法是否能实现特定功能需求的动态测试。


但公开源代码以理解算法的方式在技术上有时并不能实现,比如无监督学习的方式会导致数据的选取、训练和模型的构建在无监督的状态下完成,以致算法自行生产,对其审查和检验过程将十分复杂甚至无法完成。此外,在实践中权利人对于编写的程序通常采取模块分离的方式分别保护,将源代码作为商业秘密进行保护,而将目标代码通过著作权法进行保护,公开源代码无疑会加重商业秘密的泄露风险,招致开发公司等权利人的反对。


2.逆向工程


逆向工程系根据成品反向推出产品设计的各类数据、参数的过程。佩雷尔(Perel)和埃尔金·科伦(Elkin-Koren)两位学者此前曾提出过名为“黑匣子修补”的逆向工程技术,这种技术研究有别于传统的被动式观察性研究,它将深入算法黑箱内部,观察其决策过程的内部蓝图,使算法的输入和输出可以被测试,从而检验用于自动化决策的算法的实际工作状况,并研究该算法的实际工作原理,以降低其神秘性和不透明度。逆向工程目前已经成为一项较为成熟的技术,但关于其合法性的争论尚存,且在破解算法黑箱的应用场景下易受人为因素及算法动态程度等的影响。 


02

间接路径


1.算法简介


算法简介是对算法相关内容的简要说明,欧盟《通用数据保护条例(GDPR)》第十二条至第十五条对于自动化决策透明性原则的细化性规定皆可归属于这一类型。


算法简介相较于以公开算法技术为代价的公开源代码的方式更为温和,因而更容易为实践所接受。在美国纽约市2018年颁布《算法问责法案》(Algorithmic Accountability Bill)之前,有一个未通过的草案,其中部分条款要求市政机关机构公开所有用于提供公共服务、维护社会治安的智能系统的算法源代码并使其接受社会公众的自行测试。这一草案曾被视作是一份振奋人心的法案,而以科技公司为代表的广大企业则以可能危害其商业竞争优势为由对该条款表示了激烈反对。在草案的后续修订过程中,算法透明与商业秘密的竞争和角逐并未停止,并最终因反对者群体宣称并不希望算法问责推行太过激进而告吹。原草案中关于公开源代码的条款被一一删除且仅在其中一处保留了“如情况合适,技术信息应当向公众开放”的粗略表述。


然而,立法者虽然对公开源代码不予采纳已做出让步,却坚持要求信息控制者必须至少进行算法简要说明。我国未来在具体构建算法透明原则时亦可采用此条路径,对简介内容做出具体限定,至少涵盖算法设计主体、算法预设结果、算法逻辑、算法可能面临的风险等算法相关内容及控制者提供信息的方式,从而最大程度保障自动化决策相对方的知情、参与等权利。


2.算法监督及引导


第一,于国家层面设置算法安全认证标准。对于已经经过政府监管部门检验合格的或者经过算法审计通过的、符合设计目标的算法技术,应当用适当的方式予以认证。例如,澳大利亚的一些学者就曾提议创建特定的认证标志,来向购买算法及被算法决策影响的个人表明某项自动化决策使用的算法是符合伦理道德基本标准的,它能够实现算法设计时想要达成的目标,并且完全不会或有极小可能造成不可预见的危害后果。


第二,政府监管部门应对各级法院智能辅助司法决策系统的采购进行预先干预。以算法简介的内容为标准,在采购中若一种算法的可解释性高于另一种算法的可解释性,则监管部门应出于司法公正、公共利益的考量而引导法院优先采购和选择可解释性高的系统。进而,法院的法官将更有能力深入了解该算法的运行状况,更有可能接受它的判断或对它的决策结果予以推翻,从而实现辅助提高自身决策水准的目标。


第三,鼓励公共数据的利用和开发。将智能辅助司法决策系统的开发工作进行完全的转移,由社会公共部门及政府部门利用掌握的公共数据和源代码进行开发,于初始阶段就对算法透明问题进行把控,从而开发出符合算法透明要求和标准的系统。各级法院应将由社会公共部门及政府部门开发的系统作为首选,因其所使用的数据、源代码免费且公开,从而节省采购费用、减轻财政负担,并使得受到智能辅助决策系统影响的被告人的权利得到更好的保护。


结语


智能辅助司法决策语境下算法透明原则的构建极为重要,事关刑事司法领域采用智能辅助司法决策系统及自动化算法决策的合理性根源问题。算法透明原则的构建既依赖计算机科学的快速发展,又以法学研究为辅助和依靠,交互性、整体性特点突出,绝非孤立的学科研究所能完成。因此,应以技术与法律的多层交互为基本思路,采取本文将公开源代码、逆向工程与算法简介、算法监督与引导相结合的做法,为构建算法透明原则提供可靠指引。


END


浙江大学《人工智能与法学》课程成果

本文作者:赵子墨

本文编辑:涂懿敏

本文审阅:张婕妤

(限于篇幅,文中注释均已省略)

(本文观点和内容与本公众号无关)

延伸阅读:

【原创】非羁码数字监控系统的应用探讨

【原创】数字法治的理论与实践——以计算机网络犯罪为视角

数据共享与流通中的法律难题 |数字法学沙龙第19期



主     编:黄益豪 

副  主  编:涂懿敏 

来稿请投:zjulaw@aliyun.com

转载须授权


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存