刘金松|数字时代刑事正当程序的重构:一种技术性程序正义理论
CSSCI来源期刊 中文核心期刊 中国人文社会科学核心期刊
作者简介
●刘金松,中国政法大学刑事司法学院博士研究生
原文刊登于《华中科技大学学报(社科版)》2023年第二期第18至第29页
数字时代刑事正当程序的重构:
一种技术性程序正义理论
摘要
Abstract
人工智能等数字技术在中国刑事司法领域的广泛适用正在冲击并重塑司法的实践面孔。面对数字化、智能化的司法实践,传统的对抗性程序正义理论以及协商性程序正义理论在适用场域、规制主体、程序运作和结果评价等方面已经不具有完全的解释力。技术性程序正义作为对数字技术融入刑事司法程序的过程和结果进行价值评价的基本标准,包括“排出偏见”“充分参与”“程序对等”“程序合理”“问责有效”五项基本要素,旨在对司法数据和算法的透明性以及系统开发过程中的共同体参与、机器学习及智能系统的合理解释与规制提供框架。技术性程序正义立基于人的主体性和尊严理论、司法公信力理论和分布式道德责任之上。技术性程序正义全面挑战了传统程序正义理论,但二者有各自适用的空间和边界。为了接近技术性程序正义,司法机关需要对数字技术融入刑事司法的开发机制、备案机制和检验机制进行配套改革。
关键词
Key words
数字司法;技术性程序正义;人工智能;大数据;算法治理
一、问题的提出
【案例】当审判长提问“被告人你的姓名?”时,根据对该条语音的识别,系统自动从预先储存的全案证据材料中抓取与提问内容相关联的信息,如被告人身份证等材料,显示在智能抓取区;在法庭调查环节中,根据系统单一证据校验功能提示,该案存在两处瑕疵,通过系统调取的瑕疵报告显示,瑕疵点为涉案的有关扣押物品中未发现扣押笔录,公诉人应法庭的要求,对补正瑕疵的情况作出了说明……
这是2019年1月23日下午,上海市第二中级人民法院首次使用“推进以审判为中心的诉讼制度改革——上海刑事案件智能辅助办案系统”(简称“智能办案系统”)公开开庭审理一起抢劫案件的实况。上海市“智能办案系统”是目前国内开发较早、运用较为成熟的司法人工智能系统。在中央政法委的推动下,该系统目前“已经在安徽、山西、云南、新疆生产建设兵团、贵州等地推广应用,取得较好成效”。除此之外,江苏、浙江、北京等地的司法机关也在不同程度上开发、应用了类案推送系统、量刑预测系统和风险提示系统等人工智能系统。
总体来看,基于大数据的人工智能技术介入刑事司法呈现出以下三种样态。第一,替代性的介入。诸如法律文书自动生成、庭审语音同步转录、辅助信息智能生成及实时推送;基于电子卷宗的文字识别等事务性的工作,司法人工智能得到广泛运用。北京、上海、重庆、苏州、广州均开发了类似的系统。第二,认知性的介入。就定罪量刑以及其他程序性问题,基于历史案例大数据的司法人工智能可以为办案人员提供不同维度的认知,以消除认知盲点或认知误区,辅助办案人员高效作出决策。例如,通过对海量的裁判文书、审理报告等进行大数据分析,建立证据模型,为个案证据分析提供辅助,提示瑕疵证据和补正方式;又如,通过大数据分析将影响社会危险性程度的各项要素量化并设置权重,采用深度学习方式构建社会危险性评估模型,为检察官是否作出逮捕决定提供数据支持;再如,抽取影响量刑结果的各种情节进行标注,形成机器学习样本,建立量刑预测模型,为检察官提出量刑建议和为法官量刑提供参考;等等。第三,辅助性的介入。人工智能系统嵌入办案机关的内部管理系统和诉讼服务系统中,一方面辅助司法人员对司法机关内部的人事、财务、考核以及案卷等进行智能化管理,另一方面为诉讼当事人提供便捷的咨询引导服务。
不难发现,人工智能从多维度融入刑事司法,深刻塑造并改变了我国刑事司法的实践面孔,对传统程序正义理论造成了冲击。面对“证据校验、指引”系统展开的自动化证据分析、人工智能系统对“社会危险性”等抽象构成要件进行概率化测算,以及司法人员亲历性削弱等现象,传统程序正义理论所坚守的裁判者中立、控辩平等对抗、充分参与等要素,忽视了技术人员和系统部署人员等对司法过程的实质影响,也无法为数字刑事司法是否符合正义的要求提供判断标准。鉴于此,本文拟结合中国刑事司法人工智能的实践,在分析传统程序正义理论局限性的基础上,提出一种解释数字司法的技术性程序正义理论,以应对数字时代正当程序理论遭遇的挑战。
二、数字时代传统程序正义理论的局限性
程序正义理论的内涵并非一成不变,而是随着时代和实践的发展而不断分化并孕育出新的内涵。程序工具主义主张“通过程序正义实现实体正义”,强调“程序正义”对“实体正义”的工具价值;程序本位主义主张程序本身具有“体现参与人的尊严和诉讼主体地位”的功能,强调程序正义本身就是一种目的和善。程序工具主义和程序本位主义的争论将程序的法律意义从实体法的附庸中独立出来。对抗性程序正义旨在实现庭审的充分对抗和实质化审理,而协商性程序正义的出现,则为以庭审实质化为中心的对抗性程序正义划定了边界和解释范围,并对刑事和解、认罪认罚从宽和企业合规从宽制度的发展提供了理论资源。但是,面对数字时代的司法程序,上述程序正义理论都无法提供完全的解释力。
(一)场域:数字空间的规制盲区
在刑事司法领域,传统程序正义理论主要用于规制物理空间的诉讼关系,不涉及虚拟空间的适用。具体说来,对抗性程序正义主要适用于审判程序,并将参与性、中立性、对等性、合理性、及时性、终局性作为公正审判的基本标准;协商性程序正义主要适用于刑事和解程序、认罪认罚从宽程序和企业合规从宽程序等,它具有五项独立的构成要素,即可弃权性、弃权的自愿性、可协商性、诉讼结果上的获益性以及最低限度的参与性。然而,无论是对抗性程序正义还是协商性程序正义,都是基于物理空间的诉讼经验提炼出来的抽象理念,这些理念对于数字空间的公权力运作和私权利保障难以发挥应有的作用。例如,对抗性程序正义中的参与性是指控辩双方在法庭上提出证据和主张并相互辩论,从而影响法官裁判的过程,而从上海“智能办案系统”的实践来看,证据已经完全录入系统当中,由系统自动校验审查并作出提示,控方提出证据的责任和辩方进行质证的样态都发生了改变,原有的“参与性”理念很难具有完全的解释力。又如,传统程序正义理论无法对智能系统产生的偏见进行规制,如基于裁判文书和审理报告的算法模型会将法官的既有偏见融入办案系统,技术人员在将规则转化为算法程序时也会融入自己的价值判断,办案机关主导的开发过程也会导致办案系统呈现出追诉倾向,等等,都不在传统程序正义理论的规制范围。因此,数字司法成为传统程序正义理论的规制盲区。
(二)主体:实质参与人员被忽视
无论是对抗性程序正义,还是协商性程序正义,二者都将控、辩、裁三方作为核心主体予以规制,并在三方诉讼关系的基础之上形成具体的规则和理念。然而,当人工智能等数字技术深度嵌入司法程序之后,司法运作过程在实质上引入了机器、司法专家、技术开发人员、系统部署人员等“助手”和“参与人员”,这些陌生的主体成为刑事司法中“不在场的在场者”,并从实质上影响了诉讼的过程和结果,但这些人员的参与行为并不在传统正当程序理论的规制范围。
从传统刑事诉讼的结构来看,代表控诉、辩护与裁判职能的三方必须同时在场才能组成一个完整的诉讼构造来推进诉讼程序。这种在场强调“共时性”,如果只有单方参与,比如法官在另一方不在场的情况下先后“听取意见”,则会违背平等参与和中立性的要求。因此,传统程序正义理论实际上是将在场的共时性作为一项内在要求。然而,从上海“智能办案系统”的开发和运用过程来看,虽然人工智能系统当庭作出“证据瑕疵”的校验提示和其他证据审查结果,但是其形成“判断”的“方法”和“思维”并非来自在场的法官,而是审判前合作开发证据指引系统的司法专家和技术人员。可以发现,控、辩、裁三方只在用户端接触人工智能系统,而人工智能的开发端和部署过程却远离庭审,也远离个案中的控、辩、裁三方。毫无疑问,无论是负责开发的技术人员、司法专家还是系统部署者,他们的技术经验、司法经验、价值观和选择偏好等,都将随着他们的创造性工作长期影响应用人工智能系统的司法实践。遗憾的是,传统程序正义理论的各项要素,如对抗性程序正义要求的参与性、及时性、合理性以及协商性程序正义要求的可协商性和可弃权性等标准,无法直接用于引导和规制技术专家、司法专家和系统部署者等实质参与人员的行动。
(三)过程:程序数字化的规则空白
“代码就是法律”这一命题并非耸人听闻,一旦把司法规则转化为代码,对代码的编写和控制就成为司法解释和法官造法之外的重新释法甚至重写规则的第三种权力。在司法人员接触和使用可以操作的应用和系统界面之前,将海量的案例、数据和规则转化为支撑系统运行的算法,是一系列繁复而艰难的技术性工作,其关键在于,将专家经验、海量数据和模型算法三者有机贯通起来。然而,无论是对专家经验、样本数据还是算法的选择和确定,目前都处于“摸着石头过河”的阶段,还没有形成一般性的规则。
首先,参与确定标准的司法专家的经验难以能代表“集体经验”。根据上海高院披露的信息,从2017年2月到2017年10月底,公安、司法机关直接参与研发的工作人员包括法院220余人、检察院80余人、公安机关100余人、司法行政机关10余人,这些人员究竟是凭借“司法经验”丰富还是作为单纯的“人力资源”参与研发,并没有相应的标准。
其次,样本数据的合理性与合法性风险。以命案的证据标准、规则指引系统的开发为例,该系统依赖的初始数据是司法专家从上海市2012—2016年的591件命案的审理报告和案卷中提取的具体证据,然后按照法定的八大证据种类进行归类,分类整理法律、司法解释及各地审判经验中的证据规范,最后明确各种证据的收集程序、形式要件、内容要素和不可采情形,并归纳出7个环节、13项查证事项、30种证据材料、235项证据校验标准。如此选取经验样本的问题在于:仅仅依靠591件命案的审理报告和相关案卷作为初始的数据样本,样本量过少难以代表普遍的司法经验;而且法官审理报告的不公开性也加剧了相应算法的隐蔽性;更重要的是,在法律依据方面,算法描述的规则是《上海刑事案件证据收集、固定、审查、判断规则》这一地方性的司法文件,而不是《刑事诉讼法》或者“两高”的有关司法解释,不仅面临合法性隐忧,而且也容易形成司法规则的地方保护主义。
最后,由于技术话语和司法话语之间存在显著的专业壁垒,将司法经验转化为“数据”,再根据数据编写“算法”,然后将算法部署到系统的过程中,司法专家和技术专家的衔接工作难以达到完美预期,程序员在将规则从人类语言翻译成计算机代码时经常改变规则的实质,司法经验向数据转化的过程中必然存在误解、偏差和错漏,技术人员编写的算法和程序可能并非司法工作人员描述、要求和预期的“那一套程序”
(四)结果:裁判的可接受性下降
刑事裁判的可接受性是程序正当性的试金石。刑事裁判的可接受性主要来源于两个不同的方面:实体结果的正当性和诉讼过程的正当性。传统程序正义理论认为,诉讼程序具有三个显著特征:事实认定过程离不开裁判者的主观判断,法律适用过程离不开价值判断,法律适用过程离不开自由裁量。正因为如此,过程正当性对于提升判决正当性具有极其重要的价值:利害关系人充分参与可以提升判决的可接受性,当事人通过理性论辩可以协调多元价值,裁判者在判决中说明理由可以对其自由裁量权进行规制。
然而,由于人工智能等数字技术的运用,原本需要经过控辩双方提出主张和证据,并进行平等对抗和理性争辩,从而由法官在直接言词审理和自由心证的基础上作出决定的事项,现在直接由人工智能机器按照预先设定的算法和程序提取事实并作出证据分析,进而给出参考结论,致使裁判形成过程中利害关系人的参与度下降。例如,美国的COMPAS系统在量刑领域的尝试引发了人们对算法决策公正性的质疑。在Loomis案中,量刑调查官运用COMPAS系统,基于对被告的访谈以及从被告犯罪史中获取的信息,对被告的再犯风险进行评估。法官参考了COMPAS系统提供的信息,并判处Loomis六年有期徒刑和五年社区矫正。辩护律师针对一审判决提出异议,认为一审法院侵犯了其“基于精确信息被量刑的权利”和“获得个性化判决的权利”,等等。虽然威斯康星州最高法院确认了预测性算法在量刑领域运用的合宪性并维持了原判,但仍然有不少观点认为威斯康星州最高法院的判决难以接受。
三、刑事司法领域技术性程序正义理论的提出
卡多佐大法官曾言:“新一代人带来的新问题,需要新规则来解决。这些规则可用旧规则作蓝本,但必须要适应未来的需求,必须要适应未来的正义。”面对数字化、智能化的司法实践,传统的刑事正当程序理论已经不具有完全的解释力和指导力,我们有必要从法律和技术的双重视角出发,以既有的正当程序理论为参照,在刑事司法领域提出一种新的正当程序理论——技术性程序正义理论,来补足传统程序正义理论的局限性,更好地解释和指导数字时代的刑事司法。
技术性程序正义作为对数字技术融入刑事司法程序的过程和结果进行价值评价的基本标准,包含排除偏见、充分参与、程序对等、程序合理、问责有效五项基本要素。技术性程序正义不只用于评估数据和算法本身,还适用于以预测性算法为基础的司法决策过程,其核心是在智能技术的适用中引入人类的价值和监管。
(一)排除偏见:司法数据和算法的透明性与风险提示
裁判者的中立性是衡量程序正义性的重要标准。裁判者的中立性是指,“裁判者应当在那些其利益处于冲突状态的参与者各方之间保持一种超然和不偏不倚的态度和地位,而不得对任何一方存有偏见和歧视”。其实,无论是要求裁判者不得与案件有牵连或者有其他利害关系,还是要求裁判者不得存有预断和偏私,中立性的本质都是要求作出实质决策的人员应当“排除偏见”。当人工智能等数字技术融入办案系统当中后,也应当防止系统偏见渗透到正式的决策当中。
其一,针对数据和算法设置事前规制机制,确保司法数据和算法的透明性。所谓算法的透明性,是指算法的设计方或者使用方,披露包括源代码、输入数据、输出结果在内的算法要素。保证算法的公开、透明提供了验证融入智能系统的数据和算法是否存有偏见的机会,从而确保错误的、不合理的数据、规则和代码等可以被发现和修正。有学者以算法公开可能导致泄露国家机密、扰乱社会秩序和侵犯商业秘密为由,主张公开算法不具有可行性;并强调由于绝大多数人缺乏计算机科学的背景知识,算法公开并不等于算法可知;同时,诸如神经网络技术、机器学习等的运用,算法的流动性和模糊性导致其解释缺乏可行性。这种观点具有一定的合理性。然而,首先,在涉及国家机密、社会秩序和商业秘密的情况下,最多只能说明算法透明性原则应当设置例外,而不能否定透明性原则本身;其次,即使普通大众看到代码等信息也无法理解它,但如果完全不公开、不透明则直接失去理解它的可能性,通过算法的决策彻底成为“黑箱”且没有救济可能性;再次,通过一系列的配套制度设计,如算法审计、鉴定、有专门知识的人的协助等,管理人员和相关权利人是可以从法律意义而非技术意义的角度理解算法的;最后,因神经网络技术等造成的算法不可知,也要通过技术的发展解决,如果彻底回避算法的透明性和公开性,则无助于克服因技术造成的“黑箱”困境。
其二,办案机关应当就智能系统的功能限度和风险等向司法人员进行书面的风险警示。在Loomis案中,撰写终审判决书的布拉德利法官(Ann Walsh Bradley)指出,法官在运用风险评估系统时应当保持谨慎,纳入COMPAS评估的量刑调查报告必须包括五项针对法官的书面警示,从而强调该系统可能存在的风险。(1)公开性:COMPAS因为涉及商业秘密而无法公开其计算方式。(2)准确性:由于COMPAS系统依赖于历史的群体数据作出判断,因此无法识别特定的高风险或低风险个体。(3)数据基础:COMPAS系统以全国的数据为样本源和数据集,其计算的准确性没有在威斯康星州进行交叉验证。(4)科学性:已经有实证研究显示,COMPAS系统识别出的部分高风险犯罪者存在疑问。(5)开发目的:COMPAS系统最初是用于预测量刑调查官在宣判后的决策。通过对智能系统的开发目的、准确性、数据基础、科学性以及公开性等存在的问题进行风险警示,能够提醒承办人员对系统提供的信息和决策保持独立和警惕,避免过度依赖系统提供的分析结论。
(二)充分参与:系统开发运用过程中的共同体与利害关系人参与
程序参与性的核心要义是:“那些其权益可能会受到刑事裁判或者刑事审判结局直接影响的主体应有充分的机会并富有意义地参与法庭裁判的制作过程,从而对法庭裁判结果的形成发挥有效的影响和作用。”数字技术介入后,裁判的制作被人工智能技术辅助决策、自动化分析深刻影响,虚实同构的程序空间导致利害关系人将无法按照“在场”“对质”等原有的方式实质参与到裁判制作过程中。有鉴于此,数字时代的程序参与应当从以下两个方面体现出来。
第一,技术性程序正义要求法律共同体应当能够充分且富有意义地参与到设计和开发智能办案系统所依赖的算法模型、伦理规范中来。目前司法实践中运用的智能辅助办案系统的设计和开发是由司法机关和技术专家主导,几乎没有律师团体、学者和社会公众的有效参与,导致司法者和技术专家在数据标注、要素抽取和代码编写的过程中,难免更倾向于从便利司法权力运作的角度出发注入自身的和职业的价值偏好。而引入辩护律师和律师协会等团体的深度参与,一方面能够将辩方的立场和观点带入司法数据的筛选、标注当中,并在算法逻辑方面提供辩方的思路,矫正智能办案系统的追诉立场;另一方面,由法律共同体通过广泛的商谈并设计司法人工智能的伦理规范,能够为司法人工智能的运用以及人机协同的场景提供可预期的、合理的交往框架。
第二,技术性程序正义要求在具体的个案中,辩护律师和被追诉人等利害关系人应当有权知悉人工智能系统的运用、算法决策的存在,以及算法决策对自身权利影响的方式与程度,等等。办案机关应当以书面的方式向权利人披露,本案中智能办案系统在法律意义上的作用过程,“最基本的要求是披露全部自变量及其权重,因为从中可以直接分析出有无歧视性的因素以及不成比例的因素。当被告人及其辩护律师对所披露的这些内容产生合理怀疑时,则有权要求披露算法的源代码乃至训练数据集,以便委托有专门知识的人介入核实”。
(三)程序对等:保障利害关系人对智能系统的质疑机会
程序对等是传统刑事正当程序的必备要素。“为实现程序对等,控辩双方应在参与审判过程和影响裁判结论的制作方面拥有平等的机会、便利和手段;裁判者应对各方的证据和意见予以平等的关注,并在制作裁判时将各方提出的有效观点平等地考虑在内”。根据技术性程序正义的要求,使用人工智能等数字技术,不能将被追诉人处于更加不利的境地,应当赋予利害关系人挑战和质疑智能系统的机会。
其一,获得“有专门知识的人”的协助。仅仅依靠当事人、诉讼代理人和律师,并不足以应对人工智能等数字技术带来的挑战,特别是当公检法等机关利用智能办案系统获取与案件相关的大量数据之后,可能会有意无意地对当事人和辩护律师进行“文件倾倒”。这种名义上公开信息和保障权利的做法无疑让当事人陷入信息的漩涡中,无从提出有意义的主张和辩护意见。在这种情况下,应当赋予利害关系人聘请或者依申请获得“有专门知识的人”——精通算法决策的技术工程师或鉴定机构的协助,由专门技术人员辅助利害关系人认知、理解和质疑智能系统,从而与追诉机关的算法权力平等对抗。
其二,保证个人事后获得救济的权利。首先,应当赋予个人请求办案机关说明算法决策理由的权利,即将提供算法解释的启动权赋予利害关系人;其次,如果发现不利决策是由错误数据造成的,利害关系人应当享有修正或修改数据的权利;最后,如果仍然无法得到合理的算法决策,应当允许个人退出算法决策,并寻求人工决策。
(四)程序合理:说明理由、合理解释与反对自动化裁决
程序合理性意味着“裁判者据以制作裁判的程序必须符合理性的要求,使其判断和结论以确定、可靠和明确的认识为基础,而不是通过任意或者随机的方式作出”。说明理由、论证、评议是程序合理性的具体要求。合理性在技术性程序正义中体现为说明理由、合理解释与反对自动化裁决三个方面。
首先,针对智能办案系统的决策过程和结论,裁判者应当说明理由。目前,人工智能系统在刑事司法领域的应用主要是“辅助决策”,如此定位决定了司法程序的裁决者只能将人工智能系统的分析结果和参考意见作为“论据”而非“论点”或者“结论”。裁决者应当通过书面理由说明是如何考虑和应用人工智能系统所提供的参考意见,以备上级审查和利害关系人寻求救济。
其次,人工智能等数字技术自动化或者辅助参与决策的运作过程和结果,应当能够被合理解释。“在数据挖掘和机器学习场景中,可解释性被定义为向人类解释或以呈现可理解的术语的能力”。针对人工智能、算法等的合理解释可以分为内部解释和外部解释。内部解释针对的是“技术人员”,而外部解释的受众是“权利人、管理人员甚至一般公众”。有法律意义的解释是“外部解释”,也是技术性程序正义关注的核心。其内容可能分为两个层面:其一,解释的对象是系统功能,例如该自动决策系统的逻辑、意义、算法设定的目的和一般功能;其二,解释的对象是具体决策及特定自动决策的理由、原因、产生决策结果的个人数据,例如,每种指标的功能权重,机器定义的特定案例决策规则,起参考辅助作用的信息等。
最后,程序合理要求在刑事司法的定罪量刑领域绝对排斥自动化裁决的人工智能系统。一种过于快速进行的审判活动会严重地限制利害关系人对裁判过程的参与,导致裁判者对案件的结局形成预断,甚至促使裁判者不经冷静的庭审和评议即作出裁判结论。自动化裁决系统的瞬时性和排斥参与性的特征直接否定了利害关系人的尊严和主体性,导致裁判过程难以接受。因此,刑事司法的定罪量刑领域可以引入人工智能系统进行辅助决策或者协助认知分析,但是绝对不能适用自动化裁决系统。
(五)问责有效:系统设计者、开发者和部署者、使用者的行为受到监督
当数字技术深度融入司法程序之后,司法活动整体呈现出“去责任化”的趋势,这不仅引发司法人员因为亲历性减少而导致责任感缺失的问题,还会加剧司法官推卸责任的现象——司法官有更多的理由和渠道向技术人员或开发企业推卸责任,或者借助数字技术和人工智能机器规避责任。技术性程序正义的建构遵循“责任”这一逻辑主线,不仅要求对系统设计者、开发者和部署者、使用者的行为进行引导和规制,也要求责任主体对实施的行为承担责任。
首先,系统设计者和开发者的责任,包括企业和技术人员的责任。系统设计者和开发者没有公权力,更没有司法权力。如果技术人员违约或者开发出的产品并不符合约定,那么可以追究其民事责任;如果因为故意嵌入恶意的算法谋求利润,比如为了让自己开发的产品更有吸引力,将社会危险性评估的条件设置得极低,造成较高的逮捕率,让公众和司法机关误以为自己的产品更有效,则应当考虑追究其行政责任,由行政主管机关对其进行处罚,严重的可以直接吊销营业执照,取消其研发资质。
其次,系统部署者的责任。所谓系统部署者,是决定在刑事司法的具体领域部署和设计智能办案系统的人员,具体负责对接科技企业和技术人员的主管领导和司法工作人员等。系统部署者应当同时遵循司法伦理和技术伦理,不应当将刑事司法运用数字技术的“负面清单”引入人工智能系统,也不能将行政监管的逻辑强硬嵌入司法活动中,否则应当对其追究纪律责任并进行内部惩戒。
再次,作为使用者的司法官的责任。在刑事司法领域,由于智能办案系统的基本定位是“辅助决策”,人工智能提供的信息只能作为司法官作出决策的考量因素之一,司法官必须独立作出判断并履行保障诉讼权利和论证推理的义务。如果司法官在智能系统辅助下实施了违法逮捕、违法审判等行为,或者造成冤假错案,可以按照传统的司法责任制追究其责任。
最后,机器的责任。一个基本的共识是,目前刑事司法领域所有的人工智能技术都还只是处于弱人工智能阶段,机器不可能成为独立的责任主体。然而,随着信息技术的发展,基于神经网络技术的机器学习可以发展出自己的推理逻辑和认知逻辑,并和人类的判断并驾齐驱且有可能取代人类的判断。在这种情况下,如果机器的算法和逻辑已经不可验证或无法解释,成为“不可控的人工智能”,那么就应当将其重新建构。
四、技术性程序正义的正当性根基
当智能系统有可能影响人的生命或命运,并且在促成或创造使用者声称只是预测的情况时,它就变成了一个规范问题,需要道德上的理由和理论基础。数字时代的刑事司法呼唤技术性程序正义,而技术性程序正义本身则立基于人的主体性和尊严理论、司法公信力理论和分布式道德责任之上。
(一)人的主体性和尊严理论
如果我们牢记康德的教诲,尊严是人之为人的最高伦理价值,尊严并不仅仅是出于个体自主性的“权利”和“自尊”,而是出于普遍道德自主性之上的“责任”和“敬重”。人的主体性和尊严具体表现在人可以自由地运用自己的理性,人的人格受到尊重,受到人之为人的待遇等方面。在传统程序正义理论中,人的主体性有两种体现方式:其一,对抗性程序正义通过对利害关系人的参与进行保障,使得利害关系人能够参加到影响自己命运的裁判制作过程中来;其二,协商性程序正义则在利害关系人通过对话、协商和妥协对诉讼结局发挥塑造作用的过程中,凸显了人的主体性和尊严。
技术性程序正义也立基于人的主体性和尊严之上。申言之,技术性程序正义要求数字技术在刑事司法领域的运用不仅能够维护程序的公平性,而且必须有助于维护人的主体性和尊严。法哲学的研究表明,人工智能——即使是弱人工智能的应用,挑战了人性尊严和人的主体性地位。然而,伦理学研究者提出,人工智能产品不可能拥有心智状态,不能成为真正的道德主体;人工智能只有服务于人类或者与人类发生有价值的关联,才具有可以被探讨的伦理地位,否则其存在将不具有道德意义。因此,虽然技术性程序正义和传统程序正义适用的场景和解释的现象不同,但是,“正当程序的价值理念诸如维护程序公平、保障人性尊严等,具有超越时空的特性,它们在新技术条件下也不会过时。因为人工智能技术的服务对象是人,只要人的主体性保持恒定,对人性尊严的尊重之要求亦不会改变”。正因为如此,要满足技术性程序正义的基本要求,就必须将排除偏见、充分参与、程序合理等维护程序公平、保障人性尊严的标准作为数字技术运用的基本目标。“刑事司法人工智能的研发、应用和评估以是否有助于保障刑事司法权利,是否有助于发展刑事司法权利,是否有助于创制刑事司法权利为判断基准”。虽然运用司法人工智能提高诉讼效率、防范冤假错案是很重要的诉讼目标,但只有在人的权利和尊严得到尊重和保障的基础上,这些次要价值才有追求的必要性。
(二)司法公信力理论
技术性程序正义的五项基本要素,无论是排除偏见、程序参与、程序对等,还是程序合理和问责有效,其目的都在于评价数字技术融入刑事司法是否具有一种“善”的结构和内在属性。具体说来,遵循技术性程序正义的智能辅助系统有没有让刑事司法变得更好?利害关系人的权利保障是否更加完善?程序是否更公平?是否更能防范冤假错案?对这些具体因素的分析,可以引入司法公信力这一理论资源进行证成。司法公信力是既能够引起普遍服从,又能够引起普遍尊重的公共性力量,它包括四个要素,即司法拘束力、司法判断力、司法自制力与司法排除力,它表现为司法权所具有的赢得社会公众信任和信赖的能力。生产信任的功能既指向过去,更指向未来:一方面基于数字技术的司法公信力,能够解释通过历史的决策回报利害关系人基于同意投入的信任;另一方面提供解释,增强未来潜在的利害关系人个体对于数字技术辅助决策的信任。
满足技术性程序正义的数字技术在以下三个方面有助于司法公信力的提升:其一,提升公众对司法判断力的信任和信赖。将抽象的法律适用于具体的涉讼事实是司法判断力的重要表现。数字技术本身在风险预测、证据指引和证据分析等方面具备大数据优势,能够提供更为充分的参考信息以确定事实,有助于克服司法决策不确定性的风险。其二,提升公众对司法自制力的信任和信赖。因为数字技术的使用,可能导致利害关系失去传统的实质性在场的参与机会,不能有效参与裁判的制作过程,而技术性程序正义要求数字技术的使用应当满足程序对等的要求,不仅法官要独立于机器作出专业判断,而且需要保障利害关系人对智能系统的质疑机会,极大地保障了数字司法的理性运作。其三,提升公众对司法排除力的信任和信赖。技术性程序正义不仅要求司法数据和算法公开透明,而且要在系统开发过程中吸纳律师、律协等法律共同体的广泛参与,在智能系统的设计和开发过程中植入控辩平等和法官居中裁决的元素,从而有效防止偏见,防止外部因素对司法的干扰。不难发现,正因为与司法公信力的基本要求相耦合,技术性程序正义才能在传统的司法正义中寻找到生存的土壤。
(三)分布式道德责任理论
技术性程序正义扎根于人类对数据的信任和警惕这两种矛盾的心态之上。“没有道德的进步,技术的力量只会成为邪恶的工具,而且人类的处境也会每况愈下”。有哲学研究者提出了“分布式道德责任”(distributed moral responsibility)的概念,用于阐释在分布式的环境中,代理网络、某些人类、人工体(如程序)和混合体应负的道德责任。“分布式道德责任”通过预防风险、引导行为主体和明晰责任的方式为技术性程序正义提供智识资源。
首先,人与数据紧密关联,司法与数字技术深度融合,不仅体现出人类对数据和算法的依赖,而且体现出人类对数据和算法的信任。然而,超越人力的算法和数据运用产生了“算法权力”和“数据权力”的“利维坦”,存在侵犯公民权利和自由的巨大风险,技术性程序正义就是一个以道德责任为基础的用于规训算法权力和数据权力的框架,具有鲜明的风险规避与风险预防的特征。其次,当人类将自身的部分行为或部分能力委托给数据和算法时,就产生了基本的委托-代理关系。代理受到委托人意志的约束和引导。换句话说,“分布式道德责任”要求尽可能地对刑事司法人工智能设计、运用的行为进行引导,在赋权的同时不能造成利益损害。因此,技术性程序正义通过设置排除偏见、程序对等与程序合理等要素,引导行为人将可能导致不正义的因素排除,并开展符合正义要求的行为互动。最后,通过引导和预防仍无法规避和防范风险时,相关主体之间应当有明晰的责任承担机制。虽然只有人才能对某一后果负有道德责任,但是机器却有可能对某一后果负有因果责任。换言之,虽然数据和算法无法作为道德责任主体,但在追责的意义上却可以将其纳入其中。面对分散的数据主体和参与环节,有必要将整个数据运作的内外部环境视为一个系统的结构,为数字技术在刑事司法中运用的过程和结果寻找责任锚点,从而对每个参与者、每个环节都没有恶的输入但是最终有恶的输出的情况进行严格意义上的追责。
五、技术性程序正义的理论定位与制度配套
技术性程序正义突破了传统程序正义理论的适用场域,全面深刻地冲击了传统程序正义理论,为刑事司法中数字技术的运用和规制提供了基本框架。刑事司法领域的技术性程序正义区别于行政程序领域的行政正当程序等概念。为了不断向技术性程序正义靠近,未来司法机关还必须进行一些必要的制度配套改革。
(一)理论定位
技术性程序正义理论与传统的对抗性程序正义和协商性程序正义既有差别又有联系:一方面,技术性程序正义是在传统程序正义理论的基础上发展起来的,二者在维护人性尊严和保障诉讼权利方面相辅相成;另一方面,技术性程序正义的构成要素、适用场域、适用对象区别于传统程序正义理论。在人工智能全面侵入刑事司法程序的情况下,传统程序正义理论对人工智能辅助司法决策的实践现象不再具有完整的解释力,技术性程序正义全面地、深刻地冲击了传统程序正义理论,“中立”“参与”“对等”“合理”等正义要素的内涵被重新诠释。对抗性程序正义主要适用于审判阶段被追诉人不认罪的场域当中,协商性程序正义则主要适用于被追诉人认罪的案件中,而技术性程序正义则主要对数字技术影响刑事司法程序的过程和结果进行独立评价。随着人工智能的广泛应用,技术性程序正义还将在更深层次上挑战传统程序正义理论。
当然,技术性程序正义本身是有限度的,也是不断发展的。首先,技术性程序正义无法解释纯物理空间中的诉讼秩序;其次,技术性程序正义来源于实践经验的总结,随着司法实践对数字技术运用的广度和深度的逐渐拓展,技术性程序正义的要素还可以发展并注入新的内涵;最后,技术性程序正义的完善需要司法专家和技术人员深化交流合作,实现技术正义和司法正义的双向融合。目前在已经兴起并且将持续发展的证据标准、规则指引系统、风险评估系统(逮捕必要性评估、社会危险性评估、再犯风险评估)以及在线庭审系统等程序空间中,迫切需要技术性程序正义的指导和贯彻。
技术性程序正义这一概念还需要与其他相似或相近的概念进行界分。有研究者基于网络时代的刑事诉讼的变革,提出“数字正当程序”这一概念,并将“数字无罪观念”“数字能力的控辩平等”“权力专属”作为这一理念的基础框架;有研究者基于行政程序中的自动化裁决现象,采用传统行政正当程序“主体无偏见—听取意见—说明理由”的分析框架,将新的实践要素与既有的框架融合,深入阐释了行政程序领域的“技术性正当程序”;但也有学者采用“算法正当程序”这一概念来规制行政程序中的自动化裁决现象。由于行政程序与刑事诉讼程序在适用对象、制度构造、价值诉求等方面存在本质差别,如行政程序处理行政法律关系而刑事诉讼处理定罪量刑问题,行政程序追求效率优先而刑事诉讼奉行公正优先,刑事诉讼要求控辩平等对抗而行政程序只须“听取意见”……因此,无论是行政程序中的“技术性正当程序”还是“算法正当程序”,都无法用于解释并指导数字技术融入刑事司法领域所影响的法律关系和制度结构。而“数字正当程序”这一概念和本文所主张的技术性程序正义的发生场域较为相似,但其阐述的构成要素较为模糊,也未能厘清与传统正当程序的关系。因此,“技术性程序正义”具有独立的地位和价值。
(二)制度配套
作为一套理想的价值评价标准,技术性程序正义要走向司法实践,还需要按照其内在诉求,对技术融入司法的配套制度机制进行改革完善。
1.统一开发机制
其一,从立法层面统一开发机制。从目前的法律修改草案和讨论内容来看,应用人工智能和大数据等数字技术的实践经验并没有及时而充分地反映到立法过程中。具体说来,《法院组织法》应当根据数字技术运用的实践情况,明确规定司法辅助人员的权利与义务;同时,应当专门立法或者出台专门的职业伦理准则,对数据处理部门、电脑工程师的行为进行规范,对其责任承担的范围、方式和具体形式进行明确。此外,目前“90%以上的高级法院采用自行或外包方式开展数据运维”,法院的信息处理外包业务庞大,最高司法机关应当出台专门的文件,对于如何选定数据企业和科技公司,如何从全国范围内统筹智能办案系统的研发进行专门规范。
其二,国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》要求“明确人工智能相关管理活动的职责和权力边界,规范权力运行条件和程序”。司法权属于中央事权,司法人工智能的开发运用对司法权影响巨大,应当由中央司法机关建立专职机构统筹规划,可以防止地方司法机关各行其是,形成地方保护主义;也可以及时推广典型经验,从而规避各类人工智能系统的重复开发而浪费司法资源。一个可行的思路是,最高司法机关应当在全国人大常委会的同意和授权之下,联合成立由立法代表、政策制定者、法官、检察官、律师、技术人员、专家学者组成的“司法人工智能开发伦理委员会”(简称“伦理委员会”),由“伦理委员会”统一负责全国范围内刑事司法人工智能的统一规划、设计、开发和备案审查等工作。
其三,试行开发设计“负面清单”制度。从技术层面看,目前的刑事司法人工智能依旧处于弱人工智能阶段,人工智能能够适用的对象和边界受到较多限制,无法展开独立的事实认定工作;从价值层面看,相比于法官的自由心证,人工智能在处理情、理、法的关系方面存在无法克服的缺陷。基于上述考虑,人工智能介入刑事司法应当设定动态的“负面清单”,即禁止人工智能等数字技术进入特定的领域。例如,不允许人工智能在刑事司法领域进行自动化裁决,也不允许人工智能独立地进行证明标准评价等。当然,随着经验积累和技术发展,“负面清单”应当及时调整。
2.建立备案机制
《国务院关于印发新一代人工智能发展规划的通知》指出,新一代人工智能开发应当“明确管理责任,定期开展评估,加强动态调整,提高管理效率”。在明确管理责任的基础上对人工智能系统应用进行评估和动态调整,基本前提是建立人工智能系统备案机制。在刑事司法领域,对公权力机关合作开发的人工智能辅助办案系统进行备案,是为了实现数字技术在刑事司法领域的应用可控制与可审查的目的,以便于“通过对其事后进行的审查、监督来保障备案事项于公益的无害”。
针对不同层次、类型和风险的人工智能系统,应当设置不同级别的备案审查机制。需要备案的内容包括:其一,系统开发的目的、功能,应用的起止时间点;其二,参与开发设计的合作企业、司法人员和技术人员名单;其三,算法、用于构建算法模型的原始数据的范围和内容(包括相应的数据集和逻辑以及由此形成的规则和代码);其四,开发设计单位针对智能系统的风险进行评估和审计的报告(需要对可能产生的公共利益、公民权利损害等风险进行评估,包括风险的来源、性质、特殊性和严重性等)。向特定的伦理委员会备案,就可以避免泄露商业秘密和国家秘密。当满足特定条件的利害关系人申请开示数据、算法逻辑甚至源代码时,伦理委员会应当以敏捷的方式予以积极配合。
3.完善检验机制
2022年12月9日,最高人民法院发布《关于规范和加强人工智能司法应用的意见》,提出司法人工智能的开发应用应当“能够以可解释、可测试、可验证的方式接受相关责任主体的审查、评估和备案”。实现“充分参与”“程序对等”与“程序合理”等要素,均需要利害关系人有机会和能力对智能系统的运作机制进行检验。由于专业知识壁垒的存在,公开算法或者保持算法的透明度,或者向利害关系人直接公开算法逻辑甚至源代码,不一定能起到防止算法黑箱、算法歧视的效果;同时,在利害关系人无法理解算法运作机制的情况下,无法提出有效的权利救济主张。因此,一方面,需要从控权的角度加大权力机关对刑事司法人工智能系统的职权审核力度。最高人民检察院官网也专门刊发文章,指出智能辅助办案系统的开发,“应当制定并实行有效的制度,对规则生成、经验积累、技能传承等方面的数据予以严格控制”。在系统开发、维护和运行过程中,由司法专家和技术专家组成专门团队,对智能办案系统所依赖的算法的底层逻辑进行检验和测试,对其进行跟踪审计,从而确保智能系统处于良性运行状态并具有可解释性的基础。另一方面,需要从赋权的角度健全利害关系人有权获得“有专门知识的人”协助的制度。《刑事诉讼法》第179条确立的“有专门知识的人”条款已经为这种情形预留了制度通道。在满足条件的情况下,利害关系人可以聘请“有专门知识的人”针对智能系统的算法之科学性问题出具专门意见并出庭作证。事实上,在浙江自动化行政系统执法实践中,已经出现了针对算法和系统进行鉴定的做法,刑事司法领域可以借鉴类似经验。具体说来,有必要由司法部会同最高司法机关在刑事司法程序中引入针对算法的“鉴定”机制,设置专门的鉴定机构,聘用并培训专门的鉴定专家;鉴定机构和鉴定人员由司法部登记造册统一管理。算法鉴定机构可以接受办案机关的委托或利害关系人的申请而开展相应的鉴定活动,并出具鉴定意见。
结 论
本文以人工智能、大数据等数字技术融入刑事司法这一实践现象为材料,从技术与法律的双重视角,提炼了刑事司法领域的技术性程序正义这一概念,丰富了数字时代程序正义理论的研究成果。我们可以将“排出偏见”“充分参与”“程序对等”“程序合理”“问责有效”五项基本要素,作为对数字技术融入刑事司法的过程和结果进行有效的价值评价的标准。技术性程序正义扎根于人性基础之上,反映了法律人和公民对数字技术既信任又保持怀疑的矛盾心态。无论如何,因为人工智能等数字技术服务的是人,只要人的主体性不变,对人性和人的尊严的尊重也不会发生改变。事实上,本文对刑事司法领域技术性程序正义的研究和理解还处于初级阶段,数字技术对刑事司法实践的革命性影响还需要我们不断地去发现、分析和提炼。无论是技术性程序正义的构成要素以及各构成要素的具体内涵,还是技术性程序正义的制度保障问题,都还有进一步探讨的空间。司法理论界和实务界在不断向技术性程序正义靠近的道路上应当形成合力,并积极与计算机科学界、科技企业等形成有效的互动和对话,共同提升数字时代刑事司法的实践品质和理论品质。
注:封面图片源于vcg.com
华中大社科学报
欢迎您的关注
点“阅读原文”了解更多