上政学报 | 王 燃 孙艺桐:人身危险性评估的算法治理——从算法透明与商业秘密冲突展开
点击蓝字
关注我们
刑事司法的数字化转型
人身危险性评估的算法治理
——从算法透明与商业秘密冲突展开
本文刊登于《上海政法学院学报》2023年第3期
摘 要
现代技术助推着人身危险性评估从经验化走向精算化、系统化和智能化,其在审前强制措施、量刑结果、刑罚执行等方面影响着司法决策。对于人身危险性评估算法,算法透明诉求的公开性与算法商业秘密保护的秘密性构成了相互矛盾的两个方面。算法透明内蕴的宪法权利、刑事诉讼权利与商业秘密保护的实体、程序规则产生了价值博弈。但两者利益之间并非不可调和,通过积极探索算法治理规则可完成价值平衡:在算法开发者层面,构建可解释的算法模型和算法信息分级公开制度,推动技术透明和程序透明;在算法使用者层面,坚持比例原则与信息公开,逐步完善权利归属约定;在被决策人层面,赋予该群体决策后救济渠道,保障知情权和异议权。三个层面的治理规则构成了符合技术正当程序的算法治理规则框架。
关键词
人身危险性评估;商业秘密;技术正当程序;算法治理
作 者
王燃,天津大学法学院副教授,天津大学中国智慧法治研究院研究员;孙艺桐,中国人民大学法律硕士,天津大学中国智慧法治研究院助理研究员。
王燃
引用格式
王燃、孙艺桐:《人身危险性评估的算法治理——从算法透明与商业秘密冲突展开》,《上海政法学院学报》(法治论丛)2023年第3期。
目 次
一、引 言
二、域外实践:人身危险性评估的发展沿革与运行原理
(一)人身危险性评估的自动化历程
(二)自动化人身危险性评估辅助司法决策的工作原理
(三)自动化人身危险性评估工具的功能定位
三、问题聚焦:算法透明与商业秘密保护的冲突
(一)算法问题的涌现:算法透明的重要性
(二)价值冲突的产生:商业秘密保护壁垒的形成
四、价值博弈:算法透明与商业秘密的利益平衡
(一)被决策人算法透明诉求的价值
(二)算法开发者商业秘密保护的价值
(三)利益权衡与立场选择
五、中国方案:构建符合技术正当程序的算法治理框架
(一)我国自动化人身危险性评估工具应用情况
(二)构建符合技术正当程序的算法治理框架
六、结 语
一、引 言
人身危险性的基本含义是犯罪行为人再次实施犯罪的危险,即再犯可能性。这一概念肇始于以龙勃罗梭、李斯特等为代表的刑事实证学派。与只关注犯罪行为的古典学派不同,该学派认为“由于刑罚的目的不是报应而是社会防卫,因而刑罚的对象是罪犯而不是犯罪”,“该处罚的不是犯罪行为,而是犯罪行为人”,引发人们关注人身危险性对于划罚及矫治对策选择的重要意义。人身危险性理论蕴含已经在刑法诸多领域发挥功用,强制措施、量刑、行刑决策应当考虑人身危险性,已经成为我国刑法学界的共识。然而,如何科学评估人身危险性是关系该理论生死存亡的焦点。随着心理学、犯罪学、社会学等理论和行为科学方法的发展,刑事司法领域人身危险性评估方式已经由“人格调查”逐渐向精细化和纵深方向演变至“危险评估”,即通过可调查或可观测的指标具体考察行为人的危险等级(人身危险性大小),进而为强制措施选择、量刑与执行、犯罪有效防控提供科学依据。
近年来,大数据、人工智能、算法技术的发展日新月异,人身危险性评估日渐自动化、智能化、高效化,越来越多的自动化人身危险性评估工具(Risk Assessment Instrument)被研发并得到广泛应用,成为辅助刑事司法决策的有力手段。自动化人身危险性评估工具本质上是一个算法模型,通过量化行为主体的各种特征(如人口信息、犯罪历史或心理量表的答案)之间的关系,将对应数值输入模型,依据所输出的风险评分数值,对该主体未来再犯可能性高低程度进行预测,进而对不同主体分配不同的风险等级。在通常情况下,自动化人身危险性评估工具比许多现代人工智能系统中使用的深层神经网络简单得多,但它们完成了人类分析、决策的自动化,并可以进行数据扩充和机器学习,从而构成人工智能的基本形式。近年来,有学者甚至提出通过嵌入人工智能模型、利用人格计算技术以及情感计算技术迭代掉心理量表,对犯罪人进行人格画像,进一步提高人身危险性评估的智能化水平。
然而,自动化人身危险性评估算法辅助决策的过程逐渐暴露出诸多问题,如歧视性风险、技术违法风险、准确性风险、可信度风险等,引起了被决策人对于评估结果可靠性的质疑。化解上述问题的基础就在于算法透明。被决策人常常提出算法透明诉求,以了解算法相关信息(如变量、权重、训练数据等);但算法开发者则以商业秘密保护为抗辩,并得到法院认可,逐步形成“商业秘密壁垒”。信息不透明给被决策人检视算法错误、有效自我辩护、基本权利保障带来极大难度。然而,算法作为一种智力创造,若符合商业秘密价值性、保护性、秘密性等特征,便受到商业秘密制度的保护,非经相关程序,权利人有拒绝开示的权利。因此,算法透明诉求与商业秘密保护两种异质利益的矛盾和冲突给算法治理带来了挑战,算法治理规则应当注重两种价值的平衡与调和。
本文即由此争议切入,通过梳理人身危险性评估自动化的发展沿革,解释人身危险性评估算法的运行原理,聚焦算法透明与商业秘密保护的冲突问题,从开发者层面、使用者层面、被决策人层面尝试构建符合技术正当程序的算法治理框架。本文力求在兼顾商业秘密保护的同时避免算法规训和算法暴政,实现冲突利益的平衡与协调,最大程度地发挥自动化人身危险性评估工具辅助刑事司法的效能,保障被决策人权利,促进司法公正。
二、域外实践:人身危险性评估的发展沿革与运行原理
(一)人身危险性评估的自动化历程
虽然人身危险性评估方法进入刑事司法的时间较晚,但是20世纪下半叶该议题一经抛出,西方心理学界对于暴力行为、再次犯罪等倾向预测的热情一直高涨,英美、加拿大等西方国家在该领域的犯罪学、心理学研究发展迅速,完成了人身危险性评估从经验到精算、从精算到智能的发展变革,走在理论和实践的前沿。在几十年的时间中,人身危险性评估经历了四代的更迭,甚至正在进行第五代的革新。第一代人身危险性评估实践于20世纪50至70年代,是一种临床非结构判断,依赖于监狱管教人员以及临床专业人员自己对于判刑、监督和处遇的经验性、专业性的判断,典型的代表是“贝尔富特案”(Barefoot v. Estelle,1983)中所使用的专家临床评估证言。两个精神病医生在量刑听证程序中就其人身危险性作证。这两位医生甚至没有对他做任何检查,只是通过问贝尔富特一些假设性问题,就得出贝尔富特有“严重的危险性”的结论。虽然这个预测结论遭到了律师、美国精神病协会、医学伦理专家等的强烈反对,法庭还是采纳了该证言并对贝尔富特判处死刑。可见第一代临床预测型人身危险性评估主观性较强、科学性不足,随着时间的推移很少再被使用。
第二代人身危险性评估工具产生于20世纪70年代,完成了从临床预测到精算式评定、从经验到计算的转化。第二代工具主要采用“静态风险因素”来衡量风险,而静态因素的滞后性和不可改变性使得这些工具很难衡量罪犯积极的变化或进展,从而很少反映罪犯矫正需要的信息。在这一时期,较常用的工具是“病态人格检索表(PCL-R)”和“暴力危险性评估指南(VRAG)”。第三代工具发端于20世纪90年代,加入动态风险因素以提高对罪犯情况变化的敏感度。同时,第三代工具不仅呈现危险评估结果,而且反映罪犯的越轨需求,从而为具有针对性的矫正及干预提供指引。惩教人员可以根据嵌入了动态因素的第三代工具的输出结果,对动态风险因素进行直接干预,因为成功解决这些动态风险因素将有助于降低罪犯的风险。这诠释了“风险—需求—回应”原则(Principlesof risk—Need—Responsivity,RNR)。第三代工具为罪犯矫治模式的选取提供了可能,在这一时期,最常用的是“水平评估量表”(LSI-R)和“威斯康星危险性评估工具(WRNAI)”。
第四代人身危险性评估工具产生于21世纪之后,将风险评估与案件管理相结合,主要目的是对犯罪人给予更有效的改造和治疗,以保护社会免遭再犯危害。在第三代评估工具的基础上,第四代工具采用了一种更系统和全面的方法,根据累犯的具体风险因素和特点来衡量累犯和矫治罪犯。随着技术的发展,当今第四代风险评估工具在技术上要复杂得多,完成了从“精算”到“智能”的转化,较为常用的是营利性公司“以奎文特”(Equivant)开发的COMPAS系统。许多现代风险评估工具利用计算机算法来生成基于大量数据的风险模型,由于这些算法是随着时间的推移而使用的,它们的模型经常会动态调整以适应新的数据。
(二)自动化人身危险性评估辅助司法决策的工作原理
自动化人身危险性评估辅助司法决策的工作过程,可以总结为“AIPIE”工作模式和“信息-计算-决策-行动-反馈”的工作过程,即通过计算评估(Assessment)、解释结果(Interpretation ofthe Results)、制定计划(Plan, create an action based on the information gathered)、实施计划(Implementthe Plan)、评估效果(Evaluate the results of the actions and outcomes)五个步骤,达到以信息分析为依据进行司法决策并进行效果反馈的目标。以COMPAS暴力风险评估工具为例,工作原理详见表1。
截至2020年2月,美国自动化人身危险性评估工具即已在联邦直辖特区及50个州得到了广泛普及和应用,多集中在第三代和第四代,其中37个州和联邦直辖特区已经完成了工具的有效性研究,但各州甚至县应用的具体工具各不相同,评估工具种类多达60余种。各类型评估工具所采纳的自变量数量和种类根据预测内容的不同而存在差别,但目前在应用较广泛的系统中通常考虑“中心八项”的风险因素变量:反社会态度、反社会关系、反社会人格、犯罪历史、药物滥用、家庭特征、教育就业、亲社会娱乐的缺失。替代制裁的罪犯矫治管理画像(COMPAS)、审前安全评估(PSA)、水平服务清单(LSI-R)三种评估系统应用较为普遍,变量领域详见表2。
(三)自动化人身危险性评估工具的功能定位
人身危险性评估工具主要在审前强制措施、量刑结果、刑罚执行三方面发挥功能特征。由于自动化系统可以集成多个量表,一种评估工具并不只服务一种功能,而是具有多功能性,司法机关可以根据程序阶段选择执行的量表和对应功能。(1)在审前强制措施方面,人身危险性评估工具可以对犯罪嫌疑人处于非羁押状态下等待审判时可能毁灭证据、威胁证人、逃避刑事追诉等现实危险的概率与程度进行预测,得出的结果可能决定其能否得到保释。(2)在量刑结果方面,近年来出现的循证实践(Evidence-based Practice)要求通过纳入科学和定量的方法为量刑提供依据,进而改进判决结果。例如,犹他州量刑委员会对所有罪犯进行危险评估,把结果交给主审法官,法官在审判时必须考虑州的量刑指南和危险评估结果两方面的因素。(3)在刑罚执行方面,人身危险性评估结果为科学化的罪犯处遇、个别化的罪犯矫治、针对性的减刑假释与有效的犯罪防控提供了重要依据。在罪犯入监时进行人身危险性评估是美国罪犯分级处遇的基础和前提,以罪犯人身危险性为分类关押的标准。对于危险评估等级较高的罪犯严格关押、管控,对危险等级较低的罪犯使用相对宽松的关押措施,对即将出监且危险性低的罪犯尝试向开放性、人性化监管措施过渡,以便有效减少交叉感染、确保监管安全、优化资源配置。
三、问题聚焦:算法透明与商业秘密保护的冲突
算法作为人工智能时代的知识产物,在为社会创造便利、提高效率、增加财富的同时,也在触发伦理、政治、法律或技术的一系列问题,而这些问题会给社会整体及个体带来诸多风险。具体到人身危险性评估算法,法律问题尤其受到关注。法律实践的经验表明,应对日渐涌现出的算法问题及风险的关键之一在于算法透明。然而,算法透明往往因商业秘密保护制度受阻,算法透明的公开性与算法商业秘密保护的秘密性构成了相互矛盾、冲突的两个方面。
(一)算法问题的涌现:算法透明的重要性
自动化人身危险性评估工具在促进司法便利和效率的同时,也给法律实践带来了不容忽视的算法问题。包括以“卢米斯案件”为代表的系列案件,凸显出算法的歧视性风险、技术违法风险、准确性风险以及可信度风险,这些风险对当事人的生命、自由等权利关系重大。
(1)ProPublica的研究调查:在预测结果与实际结果的偏差中可能存在种族歧视。美国公益性新闻机构ProPublica发布的关于COMPAS的研究显示,黑人被告被归类为高风险却实际上没有再犯的可能性几乎是白人被告的两倍,白人被告被归类为低风险却实际再犯的可能性几乎是黑人被告的两倍,该工具对白人被告的再犯可能性预测不足、对黑人被告的再犯可能性预测过度,因此具有歧视性风险。(2)“卢米斯案”:技术使用可能违反正当程序原则。在卢米斯案中,被告人卢米斯因企图逃避交通官员罪、未经车主同意而驾驶汽车罪等罪名被判处6年有期徒刑和5年社区监督,在审判中,卢米斯提出法院对COMPAS评估的使用侵犯了他基于精确信息被量刑、获得个性化判决的权利,因此存在高科技使用掩盖违法决策的风险。(3)罗德里格斯的假释报道:人身危险性评估结果存在不准确性。在罗德里格斯案中,罗德里格斯起初由于COMPAS“高风险”的评级被拒绝假释,但算法结果与其实际情况严重不符,暴露出准确性风险。罗德里格斯用4年半的时间为受伤的老兵训练服务犬,坚持参加一个青年志愿项目11年,在过去的10年里没有一次违纪行为,并且已经转移到安全性最高的监狱参加大学课程,成为监狱改造的典范。最终假释委员会放弃了COMPAS的结果,准予其假释。(4)“利纳雷斯案”:算法辅助制定矫正方案的可信度受到质疑。在“利纳雷斯案”中,利纳雷斯完全遵守COMPAS提供的矫正方案进行矫正和治疗,但是假释委员会于2019年6月、2019年11月、2020年7月三次偏离COMPAS“低风险”的评估结果,拒绝利纳雷斯的假释申请。利纳雷斯德对于COMPAS矫正方案和评估结果的信赖利益无法保障,产生了可信度风险。(详见表3)
算法问题的表现形式和存在形态是多样的,且不同问题的解决所采取的法律路径选择各异。但解决这些问题共性的首要条件是要确保算法信息的公开透明,这也是本文要讨论的重点内容。例如,如果不知道种族或者性别是否构成影响算法结果的变量,就无从判断种族歧视或性别歧视是否确实存在,究竟是人为歧视的机器化还是尚未察觉和攻克的技术问题。如果不知道服刑期间矫正方案制定的依据和原理,就不可能论证其科学性,保证服刑人员的信赖利益。要想指出算法失误的存在,不断提高算法决策的准确性,就必须查明哪一种因素、哪一道程序导致了一个表现良好的人被错误评价。人们想要了解的不仅仅是输出的结果,更想知道结果是如何作出的,进而产生公开算法变量、数据、权重、代码、运行过程等信息的算法透明诉求。可见,算法透明对于各类算法问题的检视和解决、被决策人的权利保护具有基础性地位和实质性意义。
首先,提高算法的公开性与透明度有助于被告人及广大社会公众增加对人身危险性评估算法的工作原理,运行方式及相关政策权衡的一般了解,有助于保障被告人及社会公众的知情权。社会公众至少能够了解到会有一个算法程序参与到有关其生命、自由利益的决策中,并且了解这个决策的基本运行原理和依据,即使他们并不能看懂作出这个决策的具体程序编码。其次,算法公开与算法透明有助于促进对算法的理解以及外部研究人员的审查,通过公开算法代码、数据和决策树等信息,供外部研究人员核对或检验算法决策的真实性和是否存在算法妨害。例如,ProPublica正是通过COMPAS披露的不完全信息发现COMPAS在结果上对美国非裔公民产生歧视性,但由于评估工具开发者并未披露算法,其并不能解释该歧视如何发生,更无从对COMPAS作进一步的审查和校正。
(二)价值冲突的产生:商业秘密保护壁垒的形成
然而,算法透明诉求往往无法顺利得到回应,原因是算法开发者以算法属于商业秘密为由拒绝公示与披露信息,商业秘密的法律保护作为算法透明的限制依据促使“商业秘密壁垒”逐渐形成。例如在“卢米斯案”中,卢米斯质疑自动化人身危险性评估工具将性别作为一个风险因素且不能提供精确化量刑有违正当程序原则,请求算法开发者作出性别风险因素及个别化量刑相关的解释。但是COMPAS开发人员声称,关于系统如何加权和计算输入变量的细节是商业秘密,不能公开披露。威斯康星州最高法院的态度是,商业秘密壁垒确实阻止了卢米斯准确地获知性别如何影响风险评分的细节除了特殊情况之外,法院和卢米斯一样,对于商业秘密信息的访问是受限的。除人身危险性评估案件之外,在不少涉及DNA算法模型的案件中,法院都倾向于保护算法开发商的商业秘密,而驳回了被告方的算法开示请求。可见,商业秘密逐渐成为一种“法律黑箱”从而阻碍了算法透明,算法透明诉求与商业秘密保护之间产生了价值冲突。
在自动化人身危险性评估算法辅助刑事司法决策中,一方面,算法透明的诉求以及诉求能否得到支持,关乎被决策人的生命权、自由权等基本权利或核心利益,关乎算法实践在法治之下能否秉持平等、尊严与自由价值。同时,自动化决策算法作为公权力机关行使权利的工具,属于“透明政府”的管治对象,也应满足公开、接受监督的法律原则的要求,以期保障公民的知情权,为更有意义的民主参与奠定基础。另一方面,商业秘密维护的是算法开发者的智力成果价值。新兴科技公司将大量的资金和技术投入到算法的研发之中,追求企业和公共管理领域的竞争优势和核心能力,人财物力的汇聚需要专有权的保护以维系商业道德和竞争秩序。当这两种价值发生冲突时,如何在兼顾商业秘密保护的同时避免算法规训和算法暴政,最大限度地发挥自动化人身危险性评估工具辅助刑事司法的效能、维护司法公平、促进算法正义的实现,成为亟待解决的问题。为更好地探索场景化的算法治理制度设计,在了解算法透明与商业秘密的价值内核与内蕴权利的基础上进行利益平衡确有必要。
四、价值博弈:算法透明与商业秘密的利益平衡
制度设计是各方利益从冲突、博弈到平衡、协调的结果。要想构建合理有效的算法治理框架,首先必须充分考量冲突双方的价值内容并在此基础上进行利益衡量。
(一)被决策人算法透明诉求的价值
目前算法不透明性有两个层次。(1)技术不透明:算法本身具有技术门槛,即常说的“算法黑箱”。即使被决策人接触到算法内容,他们中的绝大多数并不具备翻译算法语言、梳理运行过程、解释运行结果的能力,甚至很多算法领域的专业人士都可能无法解释某项输出结果,形成“算法黑箱”。(2)程序不透明:技术开发者对算法的商业秘密保护给人身危险性评估算法带来了非公开性、非透明性壁垒,被决策人无法接触到算法内容,包括统计模型、变量和权重、数据集、源代码等,从而人为形成“程序黑箱”。然而,恰恰是这个诸多不透明程序生成的算法结果,辅助甚至替代国家权力,在刑事司法程序中对公民权利进行不同程度的决定、支配甚至剥夺。可以说,被决策人的权利维护和案件公正审判依赖于算法透明,算法透明诉求的价值集中体现为被决策人依法享有的权利,主要包括宪法权利与刑事诉讼权利。
1. 被决策人的宪法权利
算法辅助刑事司法决策的最终结果是法律发挥其评价功能和强制功能,对被决策人的人身或财产权利进行剥夺,本质上是国家权力借助算法系统,干预公民的人身或财产自由。国家对公民权利的干预种类、干预方式、干预手段都会对公民权利产生不同程度的影响,而算法作为一种科技发展带来的技术成果,实现了国家权力干预公民权利手段上的创新。因此,被决策人的算法透明诉求是对国家强制力的一种对抗,宪法所规定的基本原则和被决策人的基本权利能够为这种对抗与挑战提供支持。结合前文梳理的美国法律实践中人身危险性评估算法所暴露出的问题,正当程序与平等保护两项原则成为人身危险性评估算法面临的两项主要宪法关切。
正当程序原则“非经正当法律程序,不得剥夺任何人的生命、自由和财产”条款所蕴含的两项核心内容为:其一,刑事被告人应作为个人受到审判和惩罚,根据其自身的行为和特点进行审判;其二,刑事被告人有权审查和质疑用于确定有罪和惩罚的证据。对于第一项内容,自动化评估工具中使用群体数据训练的算法有可能无法提供个性化的评估。因为即使某一地区的群体数据符合A→B的条件,也不能直接推出满足A条件的某一个被决策人一定满足B结果,这是因为每一个特定的人都有属于自己的X变量,而X变量很可能是评估算法应当考虑却没有考虑的遗漏因素,X因素的存在可能阻断由A条件推出B条件的过程。每个人都是不同的独立个体,人身危险性评估只能提供基于群体数据的一般性结论,但量刑、假释、缓刑等司法决定的自由裁量以服务于个体化为原则。裁判依据是由“个案”而非“类案”决定的,因此,人身危险性评估算法可能与“人们有权被作为个人对待”的正当程序内容相违背。对于第二项内容,由于私人公司开发的算法受到商业秘密保护,被告、辩护律师,甚至判刑法官都无法审查人身危险性评估算法得出结论的方法,因此没有机会质疑私人公司开发的人身危险性评估算法可能存在的错误或问题,进而无法保证结论产生的准确性及有效性。
平等保护原则在1868年由第十四修正案引入美国宪法,一则它保护弱势种族或者民族、妇女、非婚生子女等免受不平等对待;二则它限制政府干预个人权利,课予其论证负担,要求其表明所作分类与正当目的间存在合理关联。人身危险性评估工具如果将不合目的的解释变量设置在算法程序中,就会使得评估结果违反平等保护原则。比如,性别、种族、家庭背景等因素在一般情况下与被告人的人身危险性大小不具关联性,但如果这些因素成为解释变量并被赋权,造成评估结果与真实结果的严重偏差,便会产生不平等的风险。美国前司法部部长埃里克(Eric Holder)曾谈道:“虽然这些措施是出于最好的意图,但我担心它们可能会在无意中破坏我们确保个性化和平等司法的努力。通过根据静态因素和不可改变的特征(如被告的教育水平、社会经济背景或邻里关系)作出判决,可能会加剧不必要、不公正的差异,而这种差异在我们的刑事司法系统和我们的社会中已经非常普遍。”斯塔尔(Starr)教授认为,人身危险性评估工具通过利用科学技术,将年龄、性别等变量以及就业、教育等社会因素纳入刑事判决的考量,但这些恰恰是长期以来被认为不宜被纳入判决的因素。在刑事判决中使用自动化人身危险性评估分数代表着“明确地接受了被科学语言净化的、否则应受到谴责的歧视”,因而违反了平等保护原则。
2. 被决策人的刑事诉讼权利
首先应当检证的问题是,自动化人身危险性评估工具输出结果的性质是什么?因为从理论上而言,不同性质的刑事诉讼元素在诉讼程序中发挥的作用不同,适用的刑事诉讼规则也存在分野。(1)是证据吗?证据是可以用于证明案件事实的材料。自动化人身危险性评估结果拟说明的是被评估人人身危险性的高低。但人身危险性,也即再犯可能性描述的是被告人未来再犯罪的风险,其具有预测性和未知性,而非已经发生的既定事实,因此其性质似乎与传统的证据存在区别。(2)如果是证据,是专家意见吗?如果没有自动化算法,放到以前科技并没有如此发达的情况下,该评估是由具有资质的医生依据对被告人的观测、检查和量表结果出具意见,以其科学技术或专门知识帮助确定案件事实,可能属于专家意见。但是自动化人身危险性评估工具是一个算法系统,不是“人”,因而谈不上“专家意见”。(3)是调查报告吗?《美国联邦刑事诉讼规则》规定,在一般情况下,缓刑官应当进行判决前调查并向法庭提交报告(PSI),报告内容必须包含有被告人的犯罪记录、财务状况、有助于确定对被告人的科刑与矫正处理的其他影响被告人的情况,等等。这些报告根据被告人的个人特点,根据量刑指南对被告适用的刑罚种类和量刑幅度进行计算。自动化人身危险性评估结果和判决前调查报告的性质非常类似,通过计算处理被告人的类似信息,根据一定的算法计算再犯罪风险、进行再犯预测并最终影响量刑。
然而,纵使人身危险性评估工具输出结果的性质存在上述不同情形的讨论,它们之间的共同点是被决策人在刑事诉讼程序中均享有对评估结果的知情权和异议权。(1)知情权。如果认为人身危险性评估结果是类似专家意见的证据,控辩双方均知晓证据内容是法庭调查与法庭辩论的运行基础。例如,《美国联邦证据规则》第705条规定了对于专家意见所依据的事实或者数据要求披露的权利。同时,广义的证据开示制度要求贯穿于侦查、审查起诉、审判三阶段,控方依然要开示对于被告人有利的证据。如果认为人身危险性评估结果是调查报告的一部分,美国国会于1974年修订的《联邦刑事诉讼程序规则》要求向被告人披露判决前调查报告。在1974年以前,联邦法院还普遍认为,审判法院对是否向被告披露陈述报告的内容保留自由裁量权,但修法之后明确提出披露要求,以保障被告人的知情权。(2)异议权。如果认为人身危险性评估结果是类似专家意见的证据,被告人依照刑事诉讼基本原理享有质证权或者当面对质权这种对于证据、证明内容和过程的质疑权利。例如,按照证据规则第705条的规定,交叉讯问中经过质证,探究对方专家意见所依据的事实或者数据弱点的负担,由对方当事人来承担。在经过交叉询问后,审判法院可能会删除专家证人的证言。如果认为人身危险性评估结果是调查报告的一部分,自1974年《联邦刑事诉讼程序规则》修正以来,联邦刑事被告人有权审查其提交报告的内容,并对所载信息提出质疑。这些异议可能针对报告的事实说法的真实性,并使得被告人有权得到法庭进一步的审查。在质疑材料的同时,被告人通常会根据自身情况进行陈述和申辩,将自己所坚持的案件事实情况呈现给法庭。
(二)算法开发者商业秘密保护的价值
商业秘密的法益保护同时体现于实体法和程序法规范中。在美国联邦实体规范层面,商业秘密实体法从1966年的《商业秘密法案》、1996年的《经济间谍法》发展到2016年的《保护商业秘密法》,在此过程中商业秘密的保护范围逐渐明确,保护力度加大,没收程序等配套程序逐渐完善,犯罪罚金额度也在不断提高。在程序规范层面,一些州立法设置有关商业秘密保护的证据规则,如加州证据规则立法中有关于商业秘密的保护令程序、闭庭程序、密封程序等规范。甚至近年来,比保护令、闭庭或密封程序影响更大的“商业秘密特免权”(Trade Secret Privilege)逐渐进入刑事审判的视野,前文提到“查布斯案”为商业秘密证据明确申请了拒绝披露的证据特权,该案的上诉法院很可能是美国历史上第一个在刑事案件中这样做的。实践中之所以存在商业秘密保护壁垒,是因为商业秘密制度背后的法益价值内容同样值得关注,既包括保护开发者的投资利益、促进算法产业创新,也包括算法产业创新对于司法活动产生的多方面积极影响。
商业秘密制度保护算法开发者的投资利益,对于促进算法产业创新、维护交易秩序不可或缺。20世纪50年代以来,商业秘密保护从国内法走向国际公约,从一种道义上的保护演变为一种法律上的规制,旨在保护有价值的商业信息免遭非法利用,使得商业秘密产权观念深入人心。同时,相比于其他知识产权客体具有的特殊性,商业秘密成为很多新兴产业公司的制度选择。一些技术、工艺、设计或公式也许无法满足严格的可专利性法定标准,但只要这些商业信息具备价值性、秘密性和保护性,研发者便可选择商业秘密保护的方式对其享有专有权。此外,商业秘密保护不仅没有正式的申请程序,而且只要合法主体采取合理的预防措施来保持信息的秘密,商业秘密就可以无限期地保持下去,并不会因为法律保护的期限届满而使知识产品进入公共领域。商业秘密的最低实质性要求和免于进行正式的申请程序所提供的灵活性使得它成为创新者、初创企业青睐的保护形式。算法、软件类开发公司就是这样一类研发群体,非应用类算法本质上是为解决某问题而建立的数学模型或公式,是排除专利保护的抽象思想,不满足专利保护的门槛。只有商业秘密保护制度充分落实,研发主体才能打消其智慧成果被非法窃取、泄露甚至直接公开于众的顾虑,更加从容地投入算法和软件的创新研发工作中去,进而保障研发主体的知识利益和投资利益,推进商品交易和经济繁荣。
算法产业创新惠及司法领域,成为促进司法智能化、高效化发展的关键技术领域之一。效率是刑事诉讼重要的价值标准之一。一个低效率的制度设计或程序运行会造成人力资源和制度资源的浪费。一个迟迟不能得出结论的法律制度,由于延迟了对犯罪人的限制和惩罚,将侵蚀保护社会的能力。因此,如何提高司法效率是世界各国法治领域建设和变革的重大课题。随着算法产业的规模扩大和领域延展,算法技术和算法产品也逐渐渗透进入法律领域。我国以智慧法院、智慧检务、智慧司法行政为核心的智慧司法建设依靠语音识别、图像识别、深度学习、知识推理等算法技术,也逐渐步入了全新的发展阶段。在美国得到广泛应用的混合DNA分析算法、生物特征识别算法、人身危险性评估算法有助于快速识别主体身份、侦破疑难案件、评估主体再犯罪风险。以美国刑事诉讼中的审前调查报告为例,在算法技术产生之前,该报告一般由缓刑机构的工作人员人工收集被告人信息、分析信息内容,最终出具一份关于是否适用缓刑、监禁形式和采取其他刑法措施的建议。然而,施马兰格教授曾谈道:“并不是每个人都喜欢书写报告,缓刑机构对此项工作的经费有限。”在算法技术介入并与计算机网络数据库进行无缝衔接之后,大多数人工工作会被算法系统取代,该项工作数据采集和分析的难度会明显降低,消耗的经费和时间资源也将大幅减少。
(三)利益权衡与立场选择
算法透明与商业秘密两个诉求背后均体现了法律所保护的正向价值,两者本质上是不同性质、不同种类的利益,即“异质利益”之间的冲突。英国哲学家柏林认为价值与价值之间,尤其是正向的异质利益之间具有不可相容性和不可公度性,即善的利益之间不具可比性,因而如何进行价值选择是一个无解的难题。然而该观点也在不断接受挑战,“法益衡量并非单纯的法感,不是一种无法作合理掌握的过程,在某种程度上是遵守若干可具体指称的原则的”;“异质利益在抽象(哲学)层面是难以衡量的,但在现实(法律)层面却是可以衡量的,只要建立在妥当的社会共识之上,在正当的诉讼结构中对处于不同利益层次结构中的利益进行妥当衡量,是可以获得为社会所接受的解决方案的”。具体到算法透明与商业秘密之间的利益衡量,独立开发与反向工程、行政机构的监管、政府介入权等策略被提出以突破商业秘密保护壁垒,认为“公共政策不允许凌驾于合法的商业秘密权利之上,同时,也不能屈服于商业秘密壁垒,只能在公共利益和个体权益之间探索微妙的平衡”。比例原则指导下的利益平衡方案认为,算法透明应当“适当”,商业秘密保护应当“适度”,从而论证两种利益并不是位阶压制的关系,而是衡平共存的关系。
算法治理规则的构建必须对这两种异质利益进行充分的权衡,否则治理规则将存在偏废,最终不利于人权保障和算法技术的长远发展。如果公开算法的门槛过低,有违商业秘密法律制度的基本要旨,不仅会给决定公开的部门带来很多讼累,更可能扼杀此领域科技企业的研发积极性,使算法技术发展倒退。然而,如果过度保护商业秘密,过于依赖、相信算法而无视算法逐渐暴露出的问题,形成“算法霸权”,人们对算法的信任终将丧失殆尽,逐渐抛弃对其的使用。
至于利益的平衡方法,可操作性较强的是参考阿列克西的竞争法则:原则间权衡的结果首先是确定一个原则优先于另一个原则的条件,其次是这些优先条件在事实上构成一项规则,且该规则赋予优先原则以具体的法效果。具体到算法透明与商业秘密的权衡,如果在某一场景下,认为算法透明的原则优先,就需要确定算法透明原则优先于商业秘密保护原则的条件,那么由该条件和该条件引起的法律效果就构成了算法透明与商业秘密之间利益平衡的具体规则。如果认为商业秘密保护的原则优先,思路亦然。本文认为,在算法辅助刑事司法决策的场景下,以被告人基本宪法权利和刑事诉讼权利为支撑的算法透明原则更具法律价值的根源性和优先性,实体和程序上的商业秘密保护以避免扩大司法非公正的风险为前提,牺牲司法公正的商业秘密保护无异于舍本逐末。商业秘密作为知识产权的客体,也即无形财产的一种,财产法益通常情况下在价值排序中应劣后于以生命、自由、公平审判等为内容的固有人权。同时,相比于专利权、著作权,商业秘密本身非公开、无期限的特征已经使其获得了更专有、更长期的保护,认识商业秘密保护的价值固然重要,但也不必矫枉过正。然而,持算法透明价值更具优先性的立场的同时,需要积极考量优先的条件(规则),这样才能对于两种异质正向价值尽可能予以兼顾。因此,构建兼顾算法透明和商业秘密保护的算法治理规则存在必要。
五、中国方案:构建符合技术正当程序的算法治理框架
目前,我国人身危险性评估算法的应用程度虽不及西方国家,但随着智慧法治建设的步伐不断向前,人身危险性评估算法的研究、应用逐渐得到理论和实践上的重视。在了解我国评估算法应用现状的基础上,我国法律实践也应合理平衡算法透明与商业秘密利益,构建符合技术正当程序的算法治理体系。
(一)我国自动化人身危险性评估工具应用情况
2016年,我国开始对“智慧法院”“智慧检务”建设作出规划性、战略性部署,旨在提高案件受理、审判、监督等各环节信息化水平,推动执法司法信息公开,促进司法公正;2018年,司法部明确了司法行政系统开展信息化建设工作的思路和原则,推进监狱、戒毒、社区矫正、安置帮教、司法鉴定等司法业务全流程、全节点的智能化,提高司法工作的准确性、精确性和效能。近年来,在新一代人工智能技术变革的推动下,“大平台共享、大系统共治、大数据慧治”的司法信息化新格局逐渐形成。
自动化人身危险性评估算法系统在我国智慧法治体系中主要应用于社区矫正。2019年3月,司法部印发《司法部办公厅关于加快推进全国“智慧矫正”建设的实施意见》,决定运用互联网、云计算、物联网、大数据、人工智能和区块链等现代信息技术对传统社区矫正工作进行全方位改造,推动社区矫正工作从人工管理到网上管理,从数字管理到智能化管理,全面提升社区矫正工作现代化水平。2020年9月,司法部印发司法行政行业标准《智慧矫正总体技术规范》(SF/T 0081—2020),明确智慧矫正总体架构包括基础设施层、数据资源层、服务支撑层和业务应用层,并对各层的技术规范提出了具体要求。其中业务应用层的心理数据分析对人身危险性评估进行了功能指导与框架构建:“应能自动调用社区矫正对象的基本信息、犯罪信息、教育经历、工作背景、经济状况、家庭和婚姻状况、交友状况、人格等及心理测评数据进行智能分析与评估,运用大数据分析模型,支持专业心理评估、社会危险性程度评估、再犯罪风险评估、监管风险动态评估和社会适应性评估等,多维度对社区矫正对象进行肖像刻画和专业心理分析,自动生成矫正效果评估报告和个性化矫正方案,将大数据运用与实体心理辅导相结合,配备心理专业团队进行实体心理辅导,跟踪辅导效果,及时对异常情况进行预警预判。”
我国目前使用较为广泛的自动化人身危险性评估系统主要有两类:一类是由科技公司开发的评估系统,如由厦门市爱恩心理咨询有限公司开发的“打开心墙”社区矫正风险评估与教育管理系统,该系统于2013年开发,经过5年时间的数据收集、验证、比对、完善,已在包括福建厦门、山西太原、山东费县、天津河西在内的全国60余个省、市、区县社区矫正机构使用。另一类是将人身危险性评估功能嵌入到省市多功能社区矫正中心中,如江苏省宜兴市社区矫正中心“通过采集社矫对象的基本情况、教育矫治、损害修复、管理控制四个维度50多项因子进行运算,得出综合积分后按红、橙、黄、蓝四个等级分类预警,预警等级与管理等级相结合,直接影响管理措施”。湖南省社区矫正系统“充分运用平台大数据优势,研发心理健康、再犯罪风险、动态监控风险和矫正质量效果等一系列社区矫正评估系统,结合社区矫正对象个性特点和矫正执行数据,多维度对社区矫正对象进行‘肖像刻画’,平台自动生成各类评估报告和个性化矫正方案,为精准施矫提供全面的数据支撑”。
除了社区矫正之外,人身危险性评估工具在我国降低羁押率、选取强制措施、附条件不起诉等司法决策方面有着更广阔的应用前景。特别是与当前“少捕慎诉慎押”的刑事政策高度契合。2021年4月,中央全面依法治国委员会将少捕慎诉慎押刑事司法政策列入年度工作要点,少捕慎诉慎押从刑事司法理念上升到刑事司法政策;2021年6月,中共中央印发的《关于加强新时代检察机关法律监督工作的意见》,明确将“严格依法适用逮捕羁押措施,促进社会和谐稳定”作为检察机关的一项重要任务。在这一司法政策中,逮捕社会危险性以及羁押必要性审查,都有赖于对犯罪嫌疑人、被告人人身危险性的科学、精准评估。司法实践及理论界也开始探索基于机器算法的人身危险性评估系统建设。例如,最高人民检察院于2020年11月下发通知,在北京、河北等11个省(市)启动“降低羁押率的有效路径与社会危险性量化评估”试点工作。试点要求各地以社会危险性量化评估、羁押替代性措施适用等一系列制度措施为抓手,探索建立符合非羁押诉讼改革方向,具有较强可操作性、实践运行切实有效的羁押必要性审查制度体系,推动有效降低审前羁押率。再如,浙江省绍兴市人民检察院自主研发“羁押必要性审查智慧系统”,系统通过“相对固定要素”和“相对可变要素”的数据分析,积极统一社会危险性评估标准,推动羁押必要性审查标准化审查流程的构建和办案能力的提升。据统计,2019年1月至5月,对比2018年同期,浙江省绍兴市检察机关提出释放和变更强制措施建议数由73件提高到185件,增长153%;建议被采纳数由64件提高到158件,增长147%。
在自动化人身危险性评估工具越来越广阔的应用趋势下,如何更有效地预防可能暴露的算法问题、更充分协调算法透明与商业秘密之间存在的利益冲突,成为我国实务和理论界均需思考的问题。通过吸收正当程序原则的基本要旨,借鉴自动化行政决策中已经被提出的技术正当程序框架要求,结合实践情况,我国刑事司法人身危险性评估领域可以完成理论迁移。通过构建符合技术正当程序的算法治理规则,严格确定好刑事司法场景下算法透明优先于商业秘密保护的条件,在切实保障刑事司法被决策人权利的同时兼顾算法的商业秘密保护,从而让技术革新更好更充分地惠及刑事司法,提高刑事司法效能、维护司法公正。
(二)构建符合技术正当程序的算法治理框架
技术正当程序发展于正当程序的宪法原则,是在算法应用普及的当今社会对正当程序原则“非经正当程序,人的生命、自由、财产不受剥夺”的含义延展。美国马里兰大学希特伦(Citron)教授于2008年提出该原则,旨在解决自动化决策系统带来的对公民自由、财产等权利的剥夺风险,防止将存有偏见或错误的数据/程序清洗为系统输出分数,回答了自动化算法作出或辅助作出的决策如何能够称为正当的问题。当自动化算法和机器学习等技术不可阻止地参与到社会决策中,该技术决策应当受到正当程序的检验。技术正当程序是一个总括性的要求,具体对于刑事司法人身危险性评估算法而言,可以从开发者、使用者和被决策人三个层面构建符合技术正当程序的算法规制框架。其中:开发者是指人身危险性评估算法系统或软件的技术研发主体;使用者是指使用评估系统辅助其司法决策的机关;被决策人是指人身危险性评估的对象,也即算法辅助司法决策的相对人。
1. 开发者层面:从两个维度推动算法透明
(1)技术透明——构建可解释的算法模型
本文提出的可解释的算法模型(Interpretable Model),是指算法模型设计之初即具可解释性,能够以简单、清晰的方式对算法决策过程的根据和原因进行解释的模型,目标是提升被决策主体对决策结果的理解和信任。可解释的算法模型与算法解释(Explanation)属于不同的概念:前者是指一开始就建立可以解释的模型,强调模型自身可解释的固有属性,主要解决“技术黑箱”问题;后者则是指事后对算法的结果进行解释。2019年3月,欧盟发布的《理解算法决策:机遇与挑战》报告将“可解释性”视为决策系统的关键要素。2019年4月,欧盟发布《可信赖的人工智能伦理指导原则》,可解释即为四项伦理准则之一。2019年6月,我国首个官方发布的人工智能治理框架和行动指南《新一代人工智能治理原则——发展负责任的人工智能》提出:人工智能系统应不断提升透明性、可解释性、可靠性、可控性,逐步实现可审核、可监督、可追溯、可信赖。
在技术开发上,尽量选择使用并优化事前解释模型,避免使用黑盒算法。事前解释根据解释的实现途径又可分为两种:第一种是直接采用传统机器学习中的自解释模型,如线性模型、决策树、广义加性模型、最优规则模型、朴素贝叶斯模型等,这些模型结构简单,自身就具有可解释性,主要体现在能够给出要素对决策的重要性度量;第二种是通过引入注意力机制、深化统计模型、借助物理模型等方法实现模型的内置可解释性。在一般情况下,构建可解释的算法模型虽然相对简单,但不会影响输出结果的准确性。很多人存在着这样的盲信:越复杂的算法性能越强,得出的结论就更加准确。将算法的复杂性逐渐增加推至极限,就形成了神秘的算法黑盒。在这种盲信的影响之下,由于可解释的算法模型每一步都足够透明,其复杂程度相对较低,引起了人们对可解释的算法模型产生结果的准确度的质疑。然而,有研究曾将复杂的COMPAS模型与简单的最优规则列表模型进行比较,发现两者的准确度是一样的。同时该研究认为,COMPAS开发者将算法复杂程度提高是为了能够使算法模型得到商业秘密保护。
在解释内容上,需要达到三个层次的可解释性:第一,解释系统影响使用者背后的目的,以便衡量算法是否实现了其设计目标。例如,COMPAS对每一个被决策人输出再犯风险高或低的结果,该结果会影响决定缓刑、假释法官对于裁判观点的自由意志的形成。系统对法官产生该种影响的目的是将再犯风险高或低的被决策人进行合理区分,进而决定采取不同的刑事处遇,以防止交叉感染,节约司法资源。否则,系统输出的结果对于使用者产生的影响如果不符合目的甚至违法,不能与系统开发时的解释目标相连接,会导致算法系统的无意义。第二,解释算法使用的数据来源及数据拟合方式。该层级要求算法使用的源数据应当拥有清晰、可信的来源,遵守法律规范中基本的数据行为规则,并且能够解释采用何种方法和计算规则拟合出模型。例如,解释COMPAS系统如何进行数据库的准备,如何通过训练集、验证集、测试集等数据集训练算法模型,并检视数据的合规性及有效性。第三,解释模型的输入如何引起模型的输出。在拟合模型之后,该层级的解释主要是对拟合出的模型的变量及其权重情况进行解释,讨论结果的形成过程。例如,针对某一被决策人的评估,解释COMPAS如何根据犯罪历史、犯罪年龄、家庭及收入、性格及交友等输入因素,经过赋权和计算,输出人身危险性高低的结果。当算法开发者能够向使用者、被决策人甚至市场上的其他竞争行业解释这些问题时,算法会变成更负责任、更可观察、更有效的社会技术系统。
(2)程序透明——构建算法信息分级公开制度
算法的公开性与透明度是法律和技术专家在算法治理领域均强调的核心主题之一,指采用一定的方法及程序对人身危险性评估算法的相关信息(如算法的开发方式、设计中所作的假设、因素如何加权以及评估和更新频率等)进行公开披露,旨在破除或缓解算法的“程序不透明”,将算法曝于社会公众或研究部门的监督之下。虽然算法公开与算法透明实际产生的作用会受到神经网络、深度学习等技术黑箱以及社会公众有限的算法知识水平影响,且透明度本身并不一定会直接减少产生偏见的可能性,但公开性与透明度作为技术正当程序的首要原则在人身危险性评估算法治理中仍然具有重要价值和基础性意义。然而,基于商业秘密保护的考虑,不应强制要求企业主动公布全部信息,应当建立算法信息的分级披露制度,对于不同层次的算法信息采取不同的算法披露措施。按照算法信息的机密程度由低到高,自动化人身危险性评估系统的算法信息可以分为外部信息、数据信息和核心信息三个层次。(见图1)
外部信息包括算法来源及应用情况(Provenance and Practice),外部信息无涉商业秘密,算法开发者应当及时、主动披露。算法来源是指算法的出处、所属、历史等信息,提供创建算法的人和目前使用该算法的人之间的联系。通过了解是谁研发了算法、谁购买了算法、何时购买、算法产品的更新及版本情况,可以总结出该算法基本的设计要求,而算法设计的初衷将对系统的优化方式以及具体问题的解决途径产生显著影响。每一次算法所有权的变动都可能增大使用该算法的司法部门以及社会公众了解该算法如何工作的难度,或者这些变动可能会影响算法设计的质量。虽然算法来源在今天来看似乎不是一个紧迫的问题,但在几十年后随着变化的增加,这些算法来源信息可能会变得越来越重要。算法的应用情况是指该算法是如何被使用和实施的有关信息,具体关注对该系统的使用培训和熟悉程度。虽然被告人与辩护人能够得到同样的人身危险性评估结果和问卷报告,但相比于持续性使用人身危险性评估算法的司法部门,被告人没有使用算法的归纳经验,这造成了信息不对称,需要司法部门建立使用算法的归纳经验与特定问题之间的联系,并进行披露。
数据信息包括人身危险性评估算法所依据并作出决策的因素及权重、训练数据 (training data)等。数据是记录某种状态的客观存在,权重是经过拟合计算出的结果,由于并未公布权重的计算方法和过程,因此公开数据信息同样不涉及侵犯商业秘密,但其可能会涉及个人隐私,因此数据信息应当由算法开发者在隐去数据的身份信息后主动公开,以便社会公众可以对其进行初步分析研究,利于算法监督。数据信息主要包括两方面内容。一方面是算法考虑的评估因素及赋权情况,这因不同的人身危险性评估算法而异。例如,COMPAS考虑了5个主要领域的因素:犯罪参与、人际关系/生活方式、个性/态度、家庭和社会排斥;PSA只考虑与被告的年龄、目前的指控以及与犯罪历史有关的因素;LSI-R则从犯罪历史到人格模式等10余类较为广泛的静态、动态风险因素中提取信息。另一方面则是该算法的训练数据。算法的本质是一个统计模型,即采用一定的统计方法从训练数据中计算并调整参数,再用已经确定了参数的统计模型进行预测,而此参数即为前述评估因素的赋权情况。因此,数据信息不仅要披露已经完成的算法模型,更要提供得出该算法模型的训练数据供第三方或者研究人员对其全面性、科学性、公平性、时间性、有效性进行检查核验。
核心信息则是指人身危险性评估算法的程序编码(Code)。程序编码是任何一种算法最具价值且最为重要的信息,开发者之间出于竞争利益的考虑几乎从不共享编码信息,采取商业秘密法律制度进行严格保护。公开程序编码,会使该编码的秘密性丧失,发现并掌握该编码的竞争者会完成编码复制和使用,使该编码再无可能受到商业秘密保护,原始开发者可能受到较大损失。因此对程序编码信息的审查应当慎重,可以采取“审计—公开审计结果”的转化思路,并设置一定前置程序。当被决策人提出获取算法程序编码信息的要求时,由使用算法的机关(如法院、监狱、司法行政机关等)裁定是否在此个案中对算法程序编码信息进行审查。如果使用算法的机关认为算法已经经过前期充分的准确度和效度评估,无需在个案中审计,则可以驳回被决策人的请求,但应当向被决策人对算法评估结果进行充分解释,满足前文所述的三项可解释内容。如果被决策人对此仍然不满意,可以向上级部门申请复议。如果使用算法的机关也同样认为算法结果存在问题或不能给出充分解释,则可以责令算法开发者提供程序编码,交由相关专家部门非公开审查,审查后应及时公布审查结果如果发现算法存在错误,应及时纠正。
2. 使用者层面:比例原则、信息公开与权利归属
(1)在比例原则指导下谨慎把握评估算法的适用程度
不可否认,自动化人身危险性评估系统在提高司法效率、减轻评估工作人员的工作任务量方面发挥着重要作用。然而从美国的经验来看,人身危险性评估算法在应用过程中可能会逐渐暴露非准确、非透明、歧视性等风险,并且呈现出由社区监管决策、假释决策到量刑决策的作用力扩张。检视我国司法实践,应当充分结合我国国情,在比例原则指导下谨慎把握人身危险性评估算法的适用程度。在适用程度上,应当明确人身危险性评估算法的辅助性地位,算法绝不应当成为司法决策的主导。在司法部发布的《智慧矫正 总体技术规范》中涉及大数据算法、人工智能、区块链等技术在业务应用层的作用都表述为“分析”,如“定位数据分析”“心理数据分析”“教育帮扶分析”“智能语音分析”“智能视频分析”等。至于分析后的决策,技术规范中增加了“辅助”二字,强调了大数据算法和人工智能的辅助性作用:“辅助决策应融合人工智能和大数据等技术,在社区矫正业务开展过程中进行风险评估、需求分析、行为预测、矫情研判、质效评价和预警预测,构建部级、省级、市级、社区矫正中心的四级分析研判体系,实现智能辅助决策。”可见,高新技术不是对人工决策进行替代或挤占,而是与司法实践进行融合,发挥辅助作用。
(2)依托政府信息公开制度,促进算法透明和算法监管
在前文所述的多层次信息披露体系中,算法信息可以划分为外部信息、数据信息以及核心信息三个层次。当司法机关决定采用某一自动化人身危险性评估算法系统时应当主动、及时地对该系统的外部信息进行公示,并在保护隐私的前提下披露数据信息,以便更好进行构建算法过程的监督和审查。同时,应当定期组织专家组对算法核心信息,也即算法源代码进行审查,确保算法的有效性并及时出具针对算法的鉴定报告。算法透明的信息公开体系,应当成为政府信息公开的重要组成部分。《中华人民共和国政府信息公开条例》第15条规定,政府信息涉及商业秘密的,原则上不公开,但是不公开可能会对公共利益造成重大影响的,予以公开。可见,我国关于政府信息公开的立法采取了对商业秘密进行有条件突破的立场。为兼顾算法源代码开发者的商业秘密利益,对于算法源代码的审查原则上由专家组进行非公开范围的有效性、准确性审查和监管,由于公共利益需要确需公开的,可以进行公开。
然而,我国目前的实践现状是算法信息公开不足、算法监管审查缺失。以打开心墙社区矫正系统为例,政府官方渠道发布的信息多集中在对该系统基本功能的新闻报道以及智慧司法相关的政策报道,而具体、充分的算法系统信息公开不足。只有厦门市集美区司法局在中国政府采购网《福建省厦门市集美区心理矫正 社会服务项目》进行了相对详细的外部信息披露:比如其明确了“系统研发意义和背景”“系统购买和承接主体”“系统的十项主要内容”等。然而,虽然外部信息较为完备,但其并没有对数据信息进行披露。比如,打开心墙社区矫正系统十项主要内容中的第一项内容是规范审前调查:根据设定的25个量化指标自动得出被调查人是否适合社区矫正的标准化建议,供法院裁定参考。那么,25个量化指标分别是什么?每个指标在人身危险性评估算法中占有怎样的比重?这些指标中是否有不适合作为评价指标的内容?且对于算法核心信息——算法源代码的审查报告或专家审查意见也不得而知。虽然《福建省厦门市集美区心理矫正 社会服务项目》一文中提到打开心墙系统经过专家论证,但又令人疑问重重:哪些领域的专家进行了怎样的论证?论证结果是什么?之后是否还会有定期的论证和监督跟进?算法信息的披露不足和算法监管的缺失会导致社会公众对由人身危险性评估算法辅助的司法行政决策产生质疑,使司法行政的公信力受到减损,更可能使得公民的相关权利有遭受侵害之虞。因此算法透明与算法监管是一个问题的两个方面,它们是目前我国实现算法技术正当程序的基础,应当得到充分重视,行政司法实践也应当做出有益尝试和积极改变。
(3)完善权利归属约定,逐渐消除商业秘密壁垒
对于政府部门委托第三方科技公司开发的人身危险性评估算法系统,为了预防私主体以商业秘密壁垒造成的算法妨害,在自动化人身危险性评估系统开发之时妥善约定计算机软件的著作权或算法的商业秘密权归属是一个治本之策。也即,将系统著作权或算法商业秘密权约定归政府部门所有,政府部门掌握自动化人身危险性评估系统知识产权的主动权,为算法透明和算法审查创造良好条件。自动化人身危险性评估系统的开发主体可能由政府部门、高校研究机构、科技公司及其组合构成。政府部门一方面是算法系统的最终使用者,扮演着委托开发人的角色,另一方面政府部门掌握着当地服刑人员的历史信息和数据,只有用充分利用这些信息和数据对算法进行训练、检测和调试后,人身危险性评估算法才能具备较高的效度。而高校研究机构以及科技公司更多的是提供技术咨询、技术服务或进行技术开发,使政府部门对于算法目的构想和功能设计能够实现。在知识产权法领域,依委托法律关系产生的智力成果的知识产权归属首先考察双方是否有相关约定,没有约定的归受托人享有。因此,在日后相关算法系统的开发中政府部门应当注重对权利归属的约定,争取到软件的著作权或算法的商业秘密权。目前我国各地广泛使用的“打开心墙”风险评估系统的软件著作权依然归属于公司所有,并完成了著作权登记。在司法部门之后的签约谈判中,可以对知识产权归属进行重点讨论,使得政府部门成为算法系统的权利人,以便从源头消除商业秘密壁垒。商业秘密壁垒的消除并非一蹴而就,这之间是不断谈判和利益博弈的过程,但可以成为未来关注和努力的方向。
3. 被决策人层面:系统设置算法决策后救济途径
习近平总书记谈到,所谓公正司法,就是受到侵害的权利一定会得到保护和救济,违法犯罪活动一定要受到制裁和惩罚。算法决策同人类决策一样,不可避免地会产生各类谬误,出现谬误就会产生受到侵害的权利,因此应当充分保障被决策人经过算法决策后寻求救济的途径。有学者认为,算法决策中的救济途径包括允许质疑、事后听证、专业审计、及时纠错等,破除对自动化决策结果一定为准确和非偏倚的迷信。或者可以赋予当事人在必要时采用人工干预或者替代算法重新进行决策的权利。还有学者提出,可以借鉴欧盟GDPR第80条第1款、第2款所规定的集体维权方法,第三方机构可以依法根据数据主体的委托或者无需委托向数据监管机构提出申诉,解决大规模算法妨害问题的同时,尽可能减轻被决策人的维权成本,提高维权效率。我国《个人信息保护法》第24条也首次规定了算法解释权和人工决策替代权,“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定”。
在我国司法实践中,人身危险性评估算法辅助决策可能发生在刑事司法的各个阶段,对于算法决策结果的救济可以与刑事诉讼制度进行理性融合。例如,人身危险性评估结果可能出现在检察官提出的量刑意见书中,即人身危险性大小作为在刑度基础上进行精确量刑的考虑因素,可能作为检察官量刑建议所依据的证据。如果被告人对评估结果有异议,可以参考刑事诉讼的阅卷、质证、辩论、专家辅助人等程序以及证据排除程序,依法行使算法知情权和异议权。如果现存刑事诉讼程序未能很好地将救济途径容纳,则增设救济渠道确有必要,以保障被决策人的知情权、异议权和辩论权。例如,在入矫前矫正对象会就再犯罪方面被评价高风险、中风险或低风险三个等级以进一步确定矫治方案。当某一矫正对象被评价为高风险且社区矫正相关人员采纳了风险评估结果后,对该矫正对象采取相对严格的矫正方案,该矫正对象很可能对该评估结果不理解并希望提出异议。此时,矫正对象有权要求作出司法决策的工作人员对算法系统辅助他的决策工作过程进行释明,如同法官写判决时要写明法律适用过程一样。逻辑通顺、内容详实、价值协调的司法论证是裁判结果可接受的重要前提和有力保证,而这对算法系统恰恰是道“超纲题”。算法生成及运用过程中的“机器语言”无法被一般公众理解,其辅助作用只在于强化法官的内心确信或者谨慎作出相反决定。而无论是否采纳算法系统的建议,都不能省略以决策主体的主观能动性去充实论证的过程。此外,对被决策人有重大影响的算法辅助的司法决策作出以后,应当给予被决策人一段时间的申诉期,在申诉期内可以对司法行政决策进行申诉并得到相关解释,对该解释仍然不服的,可以进一步要求用人工替代算法进行评估决策。
六、结 语
应当承认,大数据算法、人工智能等新兴技术开启了一次重大的时代转型,它变革商业、变革公共卫生、变革思维方式,也变革着司法实践。以前,人类是所有重要问题的决策者;而今,算法与人类共同扮演这一角色。算法具有两面性,如果运用得当,它可以为社会、组织和个人带来最佳的预期;如果运用不当,它可以成为掩盖和固化社会问题的顽疾。人身危险性评估系统给我们提供了认识这一问题的一个样本。在刑事司法场景中,算法透明与商业秘密保护之间的价值博弈和利益冲突已经逐渐呈现在国内外的法律实践中。算法透明关乎公民的正当程序、平等保护等宪法权利,以及知情权与异议权等程序权利;而商业秘密则又关涉算法开发者的智力成果及经济利益保护,以及科技创新产业的发展。因而通过设置前提、规则完成价值判断和立场选择已经成为必要。开发者层面应积极推动两个维度的算法透明,使用者层面履行比例原则、信息公开与权利归属的义务群,被决策人层面保障其辩护权利以及救济渠道,构成了算法决策技术正当程序的三层框架规则。在智慧法治发展迅猛的当今社会,汲取域外实践的经验并进行反思,前瞻性地预判和规制司法实践中算法技术可能带来的问题,对维护司法权威和社会公正具有相当重要的意义。
往期目录
●上政学报 | 姜 敏:系统论视角下中国刑法话语体系的现代化路径
●上政学报 | 李友根:公共承运人理论与互联网平台规制的正当性——美国公共承运人判例变迁的考察报告
●上政学报 | 齐爱民 倪 达:元宇宙虚拟法庭的提出及其法律机制
●上政学报 | [美]索洛姆·维尔琼著,林少伟译:数据治理的关系理论
●上政学报 | 胡玉鸿:党的二十大报告中民生法治建设的“公平”话语解读
●上政学报 | 杨立新:《民法典》构建的我国侵权责任法自主立法体系
●上政学报 | 陈兴良:区分制与单一制:共犯教义学的学术站位
●上政学报 | 舒国滢:菲利普·赫克的法律漏洞填补论与法律(诫命)更正论
●上政学报 | 蒋大兴:论出资义务加速到期的商业逻辑:股东/董事作为履行者与监督者责任之差异
●上政学报 | 刘俊海:论股权转让时的股权变动规则:契约自由、公司确认与登记公示的三重维度
●上政学报 | 高铭暄 傅跃建:新时代“枫桥经验”与国家治理现代化:内在逻辑与实现进路
●上政学报 | 常鹏翱:论规划对产权的影响——以城市房地产为分析对象
●上政学报 | 谢 杰:期货市场内幕交易犯罪的机理解构与刑法规制
●上政学报 | 张宇晖:算法决策的结构化问责机制:欧盟经验与中国借鉴
●上政学报 | 李建伟:股东双重派生诉讼制度为何重要——由10份典型裁判说开去
●上政学报 | 周永坤:法学是科学吗?——德国法学界的史诗性论辩
●上政学报 | 杨立新:侵害个人信息权益损害赔偿的规则与适用——《个人信息保护法》第69条的关键词释评
●上政学报 | 孙 远:论庭前会议环节对控方证据的实质审查——以新《刑诉法解释》第232条为中心
●喜报 | 我校学报二次文献转载再创新高
●喜报 | 陈瑞华教授在《上海政法学院学报》发表的文章被《新华文摘》等全文转载
●喜报 | 熊秋红教授在《上海政法学院学报》发表的文章被《社会科学文摘》全文转载
●喜报 | 熊秋红教授在《上海政法学院学报》发表的文章被《中国社会科学文摘》等全文转载
●资讯|中国知网发布法学期刊影响力指数排名,《上海政法学院学报》位居33
●《上海政法学院学报》2023年第3期目录与摘要
●《上海政法学院学报》2023年第2期目录与摘要
●《上海政法学院学报》2022年第6期目录与摘要
●《上海政法学院学报》2021-2022年栏目专题论文汇编
●重磅|国内第一本《数字法治评论》辑刊创刊首发!我校首届“数字法治论坛”举办!
《上海政法学院学报》创刊于1986年,原名《法治论丛》(2003年改名为《上海政法学院学报》),至今已走过37年的发展历程。《上海政法学院学报》是我国最早以“法治”命名的法学专业学术期刊之一。
我们立足一流期刊建设目标,坚持 “高质量”“特色化”“专题化”办刊思路,在法学期刊建设上努力探索,逐步成长,影响因子稳步提升。据中国知网年报,《上海政法学院学报》(法治论丛)“复合影响因子”从2021年的2.428上升到2022年的3.192,“综合影响因子”从2021年的1.048上升到2022年的1.500,CI指数排名也从2021年的第41位提升到2022年的33位。此外,据中南财经政法大学2022年信息检索报告统计,《上海政法学院学报》2021年刊文共有31篇次(2020年14篇次)被《新华文摘》《中国社会科学文摘》《高等学校文科学术文摘》和“人大复印资料”等二次文献全文转载或论点摘编,在全国法律类院校学报排名第7位(2020年排第14位)。
我们以“问题意识”为导向,以做好选题策划为根本,在持续推进“党内法规”“上合组织法治”特色栏目建设的基础上,继续追踪法治前沿,实现“个人信息保护”“数字经济法治”“国家安全法治”等专栏的可持续发展;紧紧围绕法治中国建设中的重大战略问题,精心策划,开辟 “学习贯彻十九届六中全会精神专题”“新《刑事诉讼法解释》”“数字化时代的刑事诉讼改革”“产权保护专论”等新栏目新专题。此外,还开设“初创学者佳作”专栏,为有潜质起步的青年学者搭建平台。
我们以开放姿态拥抱新技术。全面升级网站建设,建立投审稿系统,实现全流程数字化出版;提升微信公众号运营策略,同步推出作者音频解读;积极开展网络首发,同步上传作者音频视频,增强学术出版。
我们虽然取得了一些进步,但同全国许多优质兄弟期刊相比还存在着很大差距和不足。我们诚挚地欢迎广大海内外科研工作者关注和支持上政学报并惠赐大作,也欢迎各界朋友积极建言献策、批评指正,以期共同办好《上海政法学院学报》(法治论丛)。来稿请通过《上海政法学院学报》编辑部网站(http://www.shupl.edu.cn/xbbjb/)投审稿系统进行投稿。本刊对来稿严格遵守三审(二审外审)定稿制度,以确保稿件选用公开公平公正。
编 辑:汤仙月
审 核:康敬奎
以法为基,寻社会治理之策
○
以文为器,求兴国安邦之道
投稿邮箱:xuebao@shupl.edu.cn
微信公众号:law-review1986
网址:http://www.shupl.edu.cn/html/xbbjb
电话:021-39227617 39227619
更多内容请点击下方“阅读原文”进入学报官网查看