查看原文
其他

朱浩川 李元国|人工智能如何介入司法裁判——从本体出发到规范建构

朱浩川 李元国 上海市法学会 东方法学
2024-10-10

人工智能介入司法裁判存在原点、原则和规则。原点要求坚持人工智能的辅助地位。人工智能独立裁判很难实现息讼服判的社会和谐效果,法学基本理论为人工智能辅助司法提供了基础。原则要求明确人工智能辅助裁判的限度。人工智能辅助程序性工作可以帮助法官提高工作效率和准确性,而辅助实质性工作会消灭司法偶然性、压制法官的主观能动性和造成司法工作停摆,应当采取谨慎态度。规则要求规范人工智能辅助裁判的活动。在司法实践中应当保障当事人的诉讼权利、加强裁判文书的说理性和构建辅助裁判的法律规制。

一、问题的提出

随着人工智能的高速发展,其潜在的法律风险和社会问题引发了社会各界的担忧。目前,全球各主要经济体均在进行实践探索,尝试构建人工智能治理规则体系、话语体系。2023年6月,欧洲议会表决通过了《人工智能法案(草案)》,该法案明确了统一的监管框架,遵循风险等级分类的方法,为不同风险程度的人工智能系统施加不同的要求和义务;同年7月,中国国家网信办等部门联合发布《生成式人工智能服务管理暂行办法》,旨在“发展和安全并重、促进创新和依法治理相结合”“对生成式人工智能服务实行包容审慎和分类分级监管”;即使是对人工智能采用分散监管方法的美国,也频频召集AI头部公司,要求这些公司在人工智能开发方面满足安全、可靠和值得信赖的要求。

世界各国对AI技术的积极应对并非空穴来风,截至目前,人工智能技术在娱乐、商业、科学等诸多领域的影响力不断扩大。该技术还被用于司法裁判领域,据报道,哥伦比亚一名法官称自己在裁判借助了ChatGPT的回答,印度也有法官根据ChatGPT-4提供的法律专业知识拒绝了被告的保释申请。不仅如此,国外大多数律师和法学院学生在研习法律时都会接触ChatGPT,例如用于起草法律摘要、识文断句以及生成文稿和图像。不难发现,ChatGPT已经具有助力司法审判的可能,它在类案检索与裁判预测等方面也能够对司法审判产生积极的作用。
在人工智能司法高歌猛进的同时,我们还应当注意到人工智能带来的负面影响。GPT总能就用户提出的问题或请求给出“信誓旦旦”的答复,但它的回答并非完全真实,美国纽约联邦法官曾对两名律师进行了处罚,原因是这两名律师提交的一份法律简报中引用了由ChatGPT生成的六个虚构案例。无独有偶,2023年2月,一则“杭州市政府将取消机动车尾号限行政策”的消息在网上疯传,但该消息实则是某居民用ChatGPT拟写的。
如何在司法裁判活动中正确地运用人工智能技术是当下亟须关注的重要议题,本文尝试以人工智能裁判的基点、原则和规则回应。第一,笔者尝试从人工智能本体入手,讨论人工智能为何不能独立裁判,以及我国人工智能司法辅助裁判在司法实践中的初步探索;第二,笔者将基于以上结论讨论人工智能在哪些方面或在多大程度上辅助司法裁判,即讨论人工智能辅助裁判的限度问题;第三,人工智能辅助裁判不是法官依据人工智能生成的结果作出判决,在建构司法辅助裁判系统时应当警惕法官对人工智能的过度依赖,笔者拟从规则角度讨论如何规范人工智能辅助裁判的活动。

二、原点:坚持人工智能的辅助地位

人工智能研究的目的,是在人造机器上通过模拟人类的智能行为,最终实现机器智能。但是学者们在回答“何为智能”时抱有不同的观点,目前主流学界的工作是为智能机器规划好不同的问题求解路径,例如配合柯洁训练的阿尔法不能被直接用于象棋对弈。而如果研究者们致力于研究人脑的结构或填满智能机器的“心智黑箱”,就必须解释人脑的生理机能,而这种研究工作并不具备某种横跨心灵和机器的普适性。

(一)独立裁判的两重否定

人工智能介入司法裁判包括独立裁判和辅助裁判两种,前述哥伦比亚和印度法官在面对复杂案件时不知所措,仅凭借人工智能的结论径直给出裁判的活动就属于独立裁判,此时人工智能在司法裁判中占据主导地位。后者辅助裁判则将人工智能放到法官辅助者的地位上去。其具体包括美国辅助量刑的COMPAS、PSA等辅助量刑系统,也包括我国在建设中的智慧法院平台。

独立裁判和辅助裁判各有利弊,独立裁判能够帮助法院快速清理积弊案件,但裁判结果的可接受性还需民众考证。辅助裁判也能提高司法效率,但法官仍需审查人工智能生成的结果。此外,辅助裁判还有可能促成法官对人工智能的依赖,法官退居幕后成为“橡皮图章”。不可否认的是,人工智能比人类有着更高明的计算能力和数据分析能力,能较好地对案件进行数据统合分析,给出比人类更准确的答案。这也就意味着人工智能的判决比人类法官的判决更贴近“完美的答案”。而且民众对人工智能裁判也并非全然地不可接受,其一,人工智能可以在算法上“中立地”接受诉讼两造提交的案卷材料,在数据生成中可以避免外力的干扰,很好地回应民众对裁判不公正的质疑;其二,如果人工智能生成的结果偏离既有的法律实践,案件当事人作为利害关系人可以直接发现裁判中存在的问题,请求人类法官救济。

但这是否意味着我国人工智能裁判的发展应当以独立裁判作为方向?笔者认为,设想独立裁判不仅在理论上不可行,在智能体构造的技术上和现实生活的司法实践中也不可取。其大致包含以下两点原因:第一,建造能像法官一样断案的人工智能体得不到理论支持。目前人工智能的发展有传统型和学习型两个主要的发展途径,传统型AI采用自上而下的设计理论,从外部观察人类智能,然后模拟智能结构,把人类的实践智慧、意识能力、情感认识等统一到人工智能体的设计中去,协调机器在行动过程中所面临的问题。这种设计思路试图为人工智能体构造人类心智模型,但受限于所有形式系统存在的缺陷。哥德尔不完备定理解释了这个缺陷,由于哥德尔的证明十分繁琐,笔者仅提取精要的证明部分,即哥德尔采用哥德尔数把形式系统的个别步骤法则以及不同公理的使用编码成算术运算,推出了形式系统内不可判定的数学命题~∃x[∏proves Pk(k)]=Pk(k)。简单地说,任何一个机器(无论多么复杂)都对应一个形式系统,在任何强到足以产生简单算术的自洽性形式系统中都存在无法被系统证明的定理,但人类却可以发现该定理是真的。因此,任何机器都不可能是一个完备的人类心智模型,人类心智与机器在本质上是不同的。从这个意义上说,人工智能不可能成功。

近年来,学习型AI通过深度学习模型取得了进步,该途径旨在对人工智能体进行海量数据的训练,自下而上地建立智能系统。但学习型AI同样会遭受不完备定理的批评。更重要的是,学习型AI无法通过训练得到“真”的东西,这可以被还原为休谟问题,即“是”不能推导出“应当”。对人类而言,知识来源于人类的种种感官,对人工智能体而言,我们输入的自然语言就是它的知识来源。尽管人工智能体会在数据分析的过程中发现“诚信”“平等”“正义”等诸多字眼,甚至在写作中运用这些词语。但它同样会模糊计算对象的个性化特征,在计算之初就将黑人被告人的定罪率赋予更高的概率,或者是为收入较低者贴上“极易犯罪”的标签。这种情形表现为认识的穿透性:当有任何新的数据流入足以覆盖先前的数据结果,人工智能将毫不犹豫地舍弃先前的数据结果,而不再关注数据背后蕴含的价值意义。

第二,司法活动包罗万象,不仅包括可以被数字化的案件事实,还包括不能被符号表达的其他因素。司法活动的根本目的是定分止争,即判断是与非、曲与直、对与错,来解决纠纷和冲突,其核心目的不在于“定分”而在于“止争”。因此,司法活动不仅要求法官适用法律规范依法裁判,还要考量裁判结果对当事人和社会关系的影响,实现情、理、法的统一,将社会主义核心价值观融入审判实践活动中。但人工智能并不具备情感能力,它对当事人喜怒哀乐的回应也仅仅是程序判断后的指令输出,既不能与人类情感共鸣,也不能对案件事实“感同身受”,疏导当事人的情绪,妥善解决矛盾。这表明人工智能法官的作用仅仅在于制作一份“精美”的法律文书,它很难真正化解双方的矛盾,实现息讼服判的社会和谐效果。

此外,诉讼两造的利益冲突使得他们在诉讼活动中持有两种不同乃至截然相反的立场,法官的判决又往往表现为一方胜诉一方败诉。因此在司法实践中,当事人和代理人意图通过使用诉讼技巧增加胜诉概率的现象并不少见。还有当事人或不能准确地回答法官的提问,或扩展性回答法官的提问。法官对这些情形的处理,都有赖于自身的审判经验与职业素养。而人工智能在面对这些情形时将显地左支右绌,它既不能在案件材料中发现真相(可能在接受证明同一对象却内容相反的证据时报错),也不能很好地抽丝剥茧出当事人陈述或证人证言中的核心内容(尤其是当事人或证人不能很好地回答法官问题或表达自我意思的时候),而是一股脑地交给算法处理了。自然地,人工智能判别的方式也大同小异,忽略个案件的特殊性。可以想见,当事人只需要研习人工智能在判别过程中的缺陷,加以训练适当的诱导性回答,就会促使人工智能法官生成自己想要的结果。


(二) 辅助司法的实践探索

人类公平正义的最后一道防线应该交给有情感的人类来守护,而不应交给一个冰冷的机器,带有温度的司法职业者在场会给当事人有着不一样的感受。回望新民主主义革命时期的司法活动,司法为民,维护和照顾各个阶级,注重对弱者的权利保护,注重法律效果和社会效果的统一,注重判词的说服力。这不仅是革命法制发展历程与经验的凝结,也为新中国司法制度的起步安放了一块基石,更为中国当代的司法活动提供了历史经验。这就是说,当今中国的司法实践活动不仅要避免法官成为虚幻的“影像”或无法触及的非实体而造成新的脱离人民群众,也需要法官针对案情、民情、舆情等考虑法律效果和社会效果,采取适当的方式与群众沟通。这些都需要司法职业者的智慧,而不是依赖于极致的技术。但这并不意味着人工智能无法介入司法裁判,实际上,人工智能对法律行业的影响广泛且深远。

近年来,我国智慧法院建设为司法改革提供技术支撑,特别在提升审判效率、促进司法公开、加强审判监管、落实司法责任制等方面成效显著。“智慧”是智慧法院的核心,表明了智慧法院具有鲜明的科技背景和先进人工智能技术的支撑驱动作用。从智慧法院的发展历程和发展目标看,我国早在2016年就已经将智慧法院建设纳入国家信息化发展战略规划中。翌年,为进一步提高全国各级法院对智慧法院的认识和理解,最高人民法院发布了《最高人民法院关于加快建设智慧法院的意见》,明确了智慧法院的意义、目标和要求,为智慧法院的各项建设给出了指导性的意见。此后,智慧法院的建设以“三全三化”为目标:即“全业务网上办理”的“网络化”;“全流程依法公开”的“阳光化”;“全方位智能服务”的“智能化”。

智慧法院信息系统主要包括智慧服务、智慧审判、智慧执行、智慧管理和司法公开五个应用类型(图1)。这些应用承载着各级人民法院服务人民群众、审判执行和司法管理的主要业务,相互之间具有密切的信息交互和协同联动关系,体现了现代信息科技与司法工作规律的深度融合。以诉讼服务为例,全国约有98%的法院都建设了信息化程度较高的诉讼服务大厅、诉讼服务网和电子法院系统。还有不少法院的诉讼服务网整合律师服务、申诉信访、网上调解、人民陪审员管理等功能,提供全流程一站式服务。此外,我国还在积极探索互联网审判新模式。杭州互联网法院在设立后的6年内共收到立案申请205487件,有近三分之二的案件用互联网方式化解在诉前,即依靠大数据,互联网法院与行政执法、人民调解、公证机关建立起一个无缝数据对接、以法院为终端、漏斗型的在线矛盾纠纷多元化解体系。互联网法院的诉讼不受时空限制,平均开庭时间仅32分钟,在线庭审率98.2%、电子送达成功率92.9%,一审息讼服判率达到95.63%。

图1  我国智慧法院体系的应用系统

人工智能在智慧审判中也扮演了重要角色。网上办案基于诉讼材料的无纸化展开,电子卷宗的生成效果至关重要。在电子材料清晰可辨的情况下,编目准确率和文字识别准确率均达90%以上。为了照顾可能来自全国各地的当事人,庭审的语音识别系统支持多人多方言实时转文字,普通话识别率不低于96%,方言口音不低于90%。此外,为实现类案类判的效果,法院开发的法信类案智能推送服务具备全案由类案推送能力,常见案由类案推送准确率超过90%。

笔者认为,人工智能在司法活动中取得的成就不仅归功于人工智能系统的强大检索功能和完备司法资源数据库,还有赖于法学基本理论为人工智能介入司法活动提供坚实的基础。其二者相互促进,共同构成了人工智能在司法活动中的现实图景。司法活动以公正为目标,司法活动的公正就是形式正义和实质正义的统一。一方面,司法形式正义是司法权威的基石,要求司法活动的每一个环节都体现合理性。人工智能助力形式正义面向效率、公开和规范化三重面向,人工智能之所以能提供助力,主要归功于它在自动收集、整理、分析和归纳大量的司法数据时的优势,可以大大节省司法人员在司法程序性活动中的重复性、机械性投入;另一方面,司法实质正义是在审判活动中考察司法人员的实践智慧、权宜考量和共情能力,人工智能可以为案件的裁判活动提供类案作为参考。司法工作人员在人工智能模型中植入言语理解模型、机器学习技术和裁判文书集后,可以通过分析案件的情节、证据、争议焦点、法律适用等关键信息,形成案件知识库,然后根据目标案件的关键要素,与系统内的历史案件进行匹配,自动推送类似案例。

三、原则:明确人工智能辅助裁判的限度

目前学界的多数观点并不否认人工智能在司法裁判中的辅助地位,但学者们对“辅助”有着迥然相异的理解和对人工智能辅助地位的规划。学界这种对辅助的讨论分散在司法裁判的程序性工作和实质性工作面向。


(一)辅助程序性工作利大于弊

人工智能裁判的程序性工作主要是帮助法官提高程序性事务的工作效率和准确性。例如苏州中院研发的“数字法官助理”,通过导入后期庭审笔录,可以按照预设的辅助裁判推定逻辑生成法律文书。南谯区法院研发的刑事审判裁判文书智能生成系统,让法官在文书自动生成后进行确认和相应修改即可完成裁判文书的制作工作。概括地说,这些工作包括信息回填、智能编目、法条推送、文书纠错等,属于司法程序中重复性高、适用规则明确、裁量空间狭小的程序性事项,较少涉及对案件实质内容的界定。

从工作结果看,法院利用人工智能或传统数字技术识别同一对象均有着相同结论,这种变化表现得与书记员告别手写记录没有区别,乃至让人觉得实践层面与司法当局主导的“话语热”存在落差。但这并不能得出以下结论,即“智慧法院建设与传统法院信息化所依赖的技术手段和方法并无实质区别,在作用、功能上亦未有根本性提升。”从人工智能本体观察,“人工智能与法院多年来使用的数字技术没有任何共同之处。”其二者唯一能肯定的联系在于传统冯诺依曼架构为人工智能的实现提供了基础平台。

计算机在棋类游戏上的突破可以比喻当代人工智能和传统技术的不同。1997年,卡斯帕罗夫就已经向“深蓝”拱手称臣;到现今,“阿尔法”在棋坛分别击败李世石和柯洁。从表面上看,计算机在棋类游戏中再一次击败了人类,实际上,围棋作为计算机的“阿喀琉斯之踵”保持了近三十年。深蓝采用博弈树搜索模型(UCT),通过模拟所有可能走法和对手应对的算法,然后利用评估函数对每个局面进行评分,以决定下一步棋子的移动。但围棋具有几乎无穷的状态动作搜索空间,例如对局中期的每一步大约有200种不同的策略,一个位置对应的三种状态(黑子占据、白子占据和空位)在规则约束下有着近万种状态(19线棋盘)。甚至棋子的数量优势不能确保胜利,研发人员必须将搜索树算法和深度强化学习结合才能取得突破性进展。

因此,法学家的落差感并非源自没有本质变化的科技(恰恰相反科学技术有了长足的进步),而可能是他们忽视了“技术”和“技术产生结果”之间的界限。这种忽视本质上可能是法学家们对两种人工智能技术发展途径的混淆,用“联结主义”的果,批评了“符号主义”的因。还有可能是因为法学家们相较于既有技术的迭代和扩展,对科学和工程学领域内的范式革命更感兴趣。但人工智能从对图片人物或环境的大概认识到精准识别,从仅能识别文档上的文字到识别手写的草书,甚至可以在当事人讲方言的时候同步输出文字,这些工作仅仅依靠传统技术是很难不到的。笔者坚持认为,只有从人工智能本体切入辅助程序性工作的讨论才是有意义的。结合当今司法实践,法理学者需要从理论视角证明学习型AI可以像传统型AI一样介入程序性工作。长期以来的司法实践为传统型AI的介入提供了合理性基础,证明可以被简化为“传统型和学习型的本质区别不会对程序性工作造成不利影响”。

事实上,不利影响产生的可能性微乎其微。一种现实的担忧在于学习型AI的神经网络结构在反馈链的影响下逐渐变得复杂和不可知,加之自我学习引发的算法黑箱掩盖了数据权力的弊端,可能会侵害当事人的权利。但这种担忧在司法活动中并不适用,因为司法活动相比公共空间具有封闭性。人工智能从事的信息回填、智能编目、法条推送、文书纠错等事务性辅助工作,通常是在法院的内部的局域网上进行的。局域网和互联网之间的防火墙可以阻断信息的内外流动,这就阻断了公共群体对案件信息的不正当获取。

另一种担忧是算法权力的侵蚀,人工智能对当事人精准分析,依据“自己的好恶”恣意对待当事人提交的证据。然而人工智能并不具备自我意识和自我认知能力,与其担心人工智能恣意的“好恶”,毋宁说是在担忧因“算法黑箱”而产生了公平正义危机。但专业技术人员却没有表达对算法黑箱的担忧,因为黑箱既不是算计,也不是黑幕,只是人类因基本原理所限导致的验证性和解释性不足而使用的错误比喻。已经有学者指出,“算法黑箱”等热词在专业书籍中基本很少出现,学界目前担忧算法的根本原因是学者们对算法的认识有偏差。

笔者认为,提倡人工智能辅助司法裁判的程序性工作有利于人工智能司法的发展。一方面,人工智能介入司法裁判的程序性工作,可以运用机器学习、自然语言处理等技术手段,自动化处理大量重复性、程序性的法律事务,释放司法人员的生产力,让他们有更多时间和精力去处理更复杂、更具价值的法律事务。还可以促进法律和科技的深度融合,推动法律行业的数字化转型,提高司法工作效率和公正性。此外,人工智能在介入后仍由法官主导和监督司法裁判的程序性工作,其安全性和准确性还是由人类法官守护。

另一方面,科学技术的快速发展,为裁判服务的迭代升级提供了无限可能。辅助工作的展开以人工智能的发展为基础,程序性工作的具体内容可以成为人工智能深度学习的直接材料。目前的辅助工作还有前沿技术的贴合应用有待加强、专业性有效性有待提升、各自为政有待进一步整合等问题。这些问题又指向提高自然语言处理手段,开发针对司法场景、特殊需求的司法人工智能体,精细人工智能的法律语言表达,统一地方法院的在线诉讼服务中心和线上平台建设标准,集中存储数据,顺畅对接最高人民法院统建平台,地方数据及时汇总到全国统一平台等等。


(二)辅助实质性工作仍需谨慎

人工智能对司法裁判的实质性工作也有涉足,其代表为上海司法机关合作研发的“206”系统。“206”系统具有一系列创新功能,如人工智能从侦查、辅助起诉到辅助审判各个环节全线贯通,帮助法官突破“信息壁垒”全面检视案件证据,或提示法官存在证据瑕疵;自动抓取案例中的证据,审查证据的印证关系和不同事项见的逻辑符合性、判断证据链是否完整;判定犯罪人的人身危险性并进行评级,为法官设置预防刑提供标准。

学界对人工智能辅助裁判的讨论大多集中在司法的实质性工作层面,域外也同样如此。这些讨论大多预设了“人工智能能否代替法官裁判”的问题,然后把问题简化为“类案类判技术”或“量刑技术”是否可行,并回答问题。在这些讨论中,中外学者展示了相同的论证兴趣,他们都倾向从理论层面展开讨论“人工智能不能代替法官裁判”。

一种回答从技术实现的角度分析,该观点认为人工智能无法精准推送类案,或类案推送范围过窄、层级不明的原因在于技术无根本性突破且数据不全面。笔者认为这种问题是暂时性的,其一,从目前的发展趋势来看,我国对人工智能技术的研究已经走在前列,知识图谱技术领域的知名学者人数可观,是仅次于美国的第二大国家。而互联网更是打破了知识壁垒,缩短了因科学家人数不足造成的科技短板,科研人员可以通过Web of Science、arXiv等网络平台了解和学习有关人工智能的最新消息。

其二,数据不全面的问题也并非不能解决,我国于2013年才开始建立裁判文书统一集中上网渠道,2019年才逐步规范案由,这相比动辄以近30年或50年裁判文书作为人工智能学习材料的美国有着很大的劣势。对我国智能司法的技术人员来说,只需要花费时间为过往的个案“贴标签”,重新涉及文书格式,减少多余词句产生的“噪声”影响就可以在一定程度上满足数据库材料丰富且精确的需求。因此,做到类案精准推送在技术上并不会成为一个持久的难题。

另一种回答从技术本体的角度讨论,该观点认为,人工智能并非复现法律推理,而是寻找判决中各个参数间的相关性。这意味着人工智能无法运用“理智”挖掘案件背后的法律价值,也就不能在疑难案件中很好地权衡。这种评判未免过于苛刻,好像人类法官在处理疑难案件就必然具备足够能力似的。事实上,在涉及法理学传统“标准/规则”区分的标准类案件中,人类法官也会陷入很多“情与理”之间的两难境地,也会有歧视、也会有偏见、甚至比人工智能更加不透明,现实中冤假错案也不罕见,两审判决不一更是常态。因此,这种批评设置了“完美答案”的参照系,并不是基于我国人类法官平均专业能力水平所能达到裁判标准展开的讨论。

深入考虑人工智能的学习过程和人类的学习过程,我们将发现两者的共同性。教育家洛克和卢梭重视“经验”在认识过程中的作用,将其视作知识的来源,这种观念仍影响着现代的认识论或教育哲学。例如教给孩子们“火”的特征,让他们把手放在火焰上感受到温暖,于是他们就在“火”和“热”之间建立了联系。这种观念可以被科学解释,人们学习知识的本质就是强化已有的神经突触或建立新的神经突触。就像从事法学教育的老师,在讲述法学知识的时候会附注大量案例,而不是仅进行概念的介绍。通过司法案例辅助理解某个知识点,甚至通过某案的共同点对比他案并得出结论。由此观之,人类的学习过程和人工智能的深度学习没有本质的区别,两者都是寻找“要素”间的联系,甚至人工智能建立的联系比人类更准确。

但笔者并不认为人工智能可以代替法官裁判,而是警惕人工智能介入司法的实质性工作。与上 述反对意见不同的是,笔者并不是基于人工智能的“能力”考量,毋宁是从代替法官将造成的“后果”警惕人工智能的介入。笔者认为主要有以下几点原因:

第一,人工智能会以取“平均值”的方式消灭偶然性。人类对司法的理解并非始终如一,如现代 刑法用自由刑代替耻辱刑,废除酷刑等等。这种变化源自现代社会对人的本质的理解,是“人对物”依赖关系对“人对人”依赖关系的扬弃。这种扬弃首先表现为现代化的思维方式的出现,它明显偏离 了当时司法观念的平均值;其次,在思维方式交换的过程中,现代型因其内在的合理性获得了新的社 会共识。很明显,特殊的现代型能否在变化之初被传统型相容是能否实现现代化的关键。但可以注 意到,人工智能的深度学习过程是将过去的案件材料“喂给”模型,给机器加以“记忆”之前某个时间 段的司法活动。如果系统发现一个案例偏离案例库中的其他案例,该案例就会被系统判定为“偏 离”,其数据也就归于无效了。简言之,人工智能司法是一种面向过去的司法方式,它既不能预测未 来司法的发展倾向,还会抹杀促使司法进步的可能性。

第二,大规模运用人工智能会固化司法活动中的技术分工,将大大压制法官在裁判活动中的主观能动性。法律属于人类社会独有,司法活动同样承载人类人文价值,而所有的深度学习模型都不能成为人文价值的最终承载者。如果不对人工智能技术加以限制,允许其肆意挥霍司法资源的红利,人类社会将不会产生新的历史发展可能性,也将抹杀法官的主观能动性。惠州于某案的判决书之所以被社会各界赞誉,并不是因为法官支持许霆案的先例,而是法官基于对“正义”的理解作出“违背先例”的轻罪判决。而如果我们重新将于得水案交给人工智能处理,法官只会在众多“类案”中选择一个“类判”。他既没有“创新”的动力,因为人工智能已经为法官规划了数个裁判结果;也会惧怕因违背先例而造成的“特殊”影响,继而在仕途等方面造成潜在的不利后果。长此以往,司法活动将由法官主导潜移默化成人工智能实质主导。

第三,人工智能的广泛运用将从根本上消灭产生自己的司法土壤,最终造成司法活动的停摆。如果放任人工智能介入司法的实质性工作,确实能在介入之初减轻法官的压力,法官可以从事更为方便的审核工作。但人工智能并不知道为什么这样决断,它仅仅是对着“旧案”照葫芦画瓢,法官也几乎不会修改或推翻人工智能生成的结果,因为技术可以保证这种准确。长此以往,人工智能将失去案件材料的土壤,而它将自己产生的数据“喂”给自己将造成整个模型的崩坏。此外,当社会有所变化,法律关系也会发生相应的变化(这种情形在民法等“开放结构”法中尤为常见),人工智能无法及时应对,法官也因为长时间没有亲临司法审判活动或欠缺前辈的教导失去了锻炼的机会,司法活动可能就陷入停摆。

四、规则:规范人工智能辅助裁判的活动

技术不仅是技术,同时也负载着特定的价值追求或意识形态,对司法人工智能的过度推崇和迷恋会产生以技术主义逻辑压倒人类逻辑的导向。笔者尝试规范人工智能辅助裁判的活动,消解司法活动对人工智能的过度依赖。


(一)保障当事人的诉讼权利

当事人与司法裁判的结果息息相关,保障当事人的诉讼权利是当事人通过人民法院行使诉权的重要体现,也是诉权理论的重要组成部分。这对于维护当事人权益、促进司法公正、提高审判效率和强化对法官的监督等方面都具有重要意义。

1.保障当事人的知情权和参与权




司法人员要使用人工智能技术,应当告知当事人,因为他们拥有是否使用司法人工智能的决定权,有权获知司法人工智能的研发、应用、评估是否有助于权利创制、权利保护、权利发展等,以促成人工智能与司法裁判的有效衔接。

笔者建议,各级法院可以制定有关本院关于司法人工智能建设和应用的司法手册,并公开人工智能的算法、数据和决策流程等信息。在开庭前,法官应当告知诉讼当事人的权利和义务,随同《诉讼权利义务告知书》发放给诉讼两造。在使用人工智能程序前,法院应当向当事人说明人工智能的应用情况和目的,并为当事人参与相关程序提供依据。在应用和决策过程中,法官应当向当事人说明人工智能的应用情况和结果,并听取当事人的意见和建议。如果当事人对人工智能的应用存在疑虑或不满,可以向法院提出反馈意见。对于那些不熟悉法律程序和人工智能技术的当事人,法院可以为其提供法律援助和法律咨询,帮助当事人理解相关法律程序和人工智能技术的应用,并为其提供必要的支持和建议。同时,法院还应当对人工智能的应用进行监督和评价,确保其合法性和公正性。

2.确保当事人的诉讼权利不受影响




人工智能的应用不能剥夺或限制当事人的诉讼权利,法官应当确保当事人的各项诉讼权利得到充分行使,它不仅有助于维护司法公正和当事人权益,还能提高司法公信力和促进法治建设。

其一,人工智能的应用必须遵循法律程序和原则,不得剥夺或限制当事人的各项诉讼权利。法院应当确保人工智能的应用不会影响当事人的合法权益,并采取必要的措施确保其诉讼权利不受影响。其二,法官应当明确人工智能的定位和作用。人工智能只是一种辅助工具,不能替代法官的审判权和决策权。法院应当明确人工智能的定位和作用,避免出现程序和结果的错误。同时,应当确保法官仍然掌控审判的核心环节,并根据法律规定和当事人的主张做出最终的裁决。其三,在保障当事人的知情权和参与权的基础上,法院应当加强对人工智能应用的监督和管理,明确准确性、不确定性、攻击性、毒害性等评价指标,定期对人工智能的应用进行评估和审查。及时发现和纠正存在的

问题,保障当事人的合法权益不受影响。其四,法院可以通过加强对当事人的法律教育和宣传,提高当事人的法律意识和维权能力,使其更好地了解自己的诉讼权利和救济途径。同时,也可以增强当事人的信任感和配合度,促进司法活动的顺利进行。

3.建立有效的救助机制




有法谚云“无救济则无权利”。法律不但赋予公民、法人或者其他组织的诉讼权利,同时也赋予在法定权利受到侵害或发生争议时拥有平等而充分地获得公力救济的权利。当人工智能介入司法活动时,建立有效的救助机制可以再次保障当事人的诉讼权利,促进司法的公开和透明。
在司法实践中,法院可以在事前建立人工智能应用的风险评估机制。人工智能的进一步发展可能会带来极端风险的能力,表现对网络的攻击性和强大的操纵能力。开发技术人员必须能够识别危险能力(通过“危险能力评估”)和模型应用其能力进行危害的倾向(通过“对齐评估”)。这些评估应当涵盖技术风险、法律风险、道德风险等方面。如果发现存在潜在的风险,应当在人工智能体内部嵌入评估模型或在外部采取必要的措施加以防范和化解。此外,法院可以加强当事人的法律教育和宣传,提高当事人的法律意识和维权能力,使其更好地了解自己的诉讼权利和救济途径。

法院应当建立人工智能应用的事中救济机制,当人工智能的算法存在算法错误、算法歧视、算法违法的情形时会直接导致裁判结果无效。当事人作为利害关系人,更为关注算法本身与此前判决的问题。当事人如果认为人工智能存在算法问题,或在应用中存在错误或不当情况可以向法院申请在辩论环节对算法的合法性与合理性进行辩论。如果诉讼活动已经完成但未经审判,当事人可以向法院提出申诉,法院应当及时对当事人的申诉进行及时、公正、合理的处理。例如,可以组织第三方评估公司或专家对算法进行评审,并邀请当事人参与等。在诉讼的全过程中,法院也应当经常自我审查,确保人工智能运用合理合法。

法院还应当建立人工智能应用的事后监督机制和赔偿机制。在监督活动中,法院需要根据利益和比例原则严格把控。即充分考虑人工智能在特定司法领域应用所带来的利益和可能造成的危害之间的权衡,不断地参考目的和手段之间的关系,评估、审查各种手段的合理性与合法性,选择可以实现目的的最佳手段,实现目的和手段的统一。对已经采用的不合理或不合法的算法,应当及时替换,对于诉讼程序已经完结的案件,应当考察算法的不合理是否会影响案件裁判的公正,对于确实影响的案件应当重审。造成损失的,应当建立相应的赔偿机制。由法院明确赔偿的范围和标准,并确定相应的赔偿程序和责任主体。


(二)加强裁判文书的说理性

人工智能技术的发展固然给司法带来翻天覆地的变化,然而依照目前司法裁判技术的发展趋势,人工智能裁判依然缺乏正当性,加强裁判文书说理的意义仍然非常重要。一方面,人工智能的“思维方式”有悖裁判程序的要求,必须作为法官思考的辅助工具发挥价值。人工智能辅助实质性工作的本质在于“类案类判”原则,该原则为人工智能介入实质性工作提供了理论支撑,人类法官没有充足的理由也不能随意背离这一原则。尽管人工智能的学习活动和人类学习过程在本质上相似甚至同一,但它仅能保证结果的正确率,在数据分析的过程中并不能把握类案的要点。它既不会比较数据库内的已决案件和待决案件是否具有法律关系的同一性,也无法提取和对比重要事实。

另一方面,虽然人工智能可以辅助甚至代替法官完成部分裁判文书的撰写工作,提高效率和准确性,但法官说理仍被广泛认为具备一系列实益。其既是对法官法律素养的考验,是其职责所在,也是让司法裁判主体性回归其主体的体现。人工智能说理仍存在部分问题,开发人员很难在系统设计之初为不同的法律专业词汇设置对应的词汇权重,而使用相同的词项权重公式势必会造成检索和计算上的误差。裁判文书格式虽然统一,但叙事结构也存在偏差,难以分离裁判文书的事实部分会引入大量噪声,影响推送的准确性。这些在类案检索与类案类判中存在的问题,都需要人类法官最终把控和决断。丰富裁判文书的说理部分,既能从人类法官角度修正这些误差;也有利于说服诉讼两造,实现社会和谐的效果。

加强裁判文书的说理性依靠人类法官和人工智能合力。“法律者的武器是论证,作为法律者,他必须设法使其他人信服。”说理内容是否能让人信服取决于法官说理水平的高低。第一,应当树立法官的说理意识。让法官充分了解裁判文书的重要性,掌握法律、法规以及司法解释等专业知识,鼓励法官说理,要求法官在裁判文书中充分展示对案件事实和证据的认定过程以及法律适用的理由。第二,提高法官的价值权衡能力。说理的过程是将裁判结论正当化的过程,是融贯或发展法教义学体系的面向,其核心是解释法律规范,他需要价值判断的介入。可以肯定的是,司法实践中并不存在“价值判断公式”,法官能够在个案中正确地权衡价值的优先性依赖于社会实践。因此法官并不能仅限于充当“屏幕后的书虫”,而是需要亲临司法一线丰富其阅历。第三,建立说理评估机制,对法官在裁判文书中进行说理的质量和效果进行评估,制定评估标准和指标,如说理的充分性、逻辑性、清晰度等,对不达标的裁判文书要求整改和提升等。

人工智能可以提高说理的效率。法院可以发挥自身在案例资源、审判经验的优势,收集并整理大量案例,明确指导性案例、指导案例、典型案例等在深度学习中的效力,建立案例数据库,使法官可以通过搜索关键词或案件类型的方式获取类似案例的说理方式和理由。在释明说理的过程中,法官可以利用人工智能辅助系统的自然语言处理技术自动分析案件事实、证据和法律条款,为法官提供说理的素材和思路,并提供与本案类似的指导性案例、指导案例或参考性案例的裁判文书,供法官在写作中参考,提高法官的说理效率。

裁判文书说理和人工智能学习可以相互促进。目前,我国司法判决的依据不像德国、美国等可以引用法学学术著作,但法教义学仍然可以为司法说理提供方法和智力支持,而法官对于判决的说理反过来也可以丰富甚至更新和修正法教义学的内容。在这个意义上,司法裁判的制作是法教义学得以形成的重要土壤,也为人工智能学习提供了丰富的素材。同时,案件材料的积累使得各个案件之间进行价值比较成为可能,法官在处理类似案件时所需行使价值判断的空间相应缩小,进一步减少了因行使自由裁量权产生错误判决的可能性。

加强裁判文书的说理性还需公众参与和监督。裁判文书是人民法院司法公正的主要载体和窗口,裁判说理是裁判文书的重要组成部分,是展现法官内心思考和平衡技艺的外在表现,同时也是法官与当事人、被害人乃至民众法律普及、沟通并努力形成共识的纽带。通过展示裁判说理,可以有效培育和提升民众的法治意识。公众监督则可以促进司法公正公开,强化刑事法官的事理、法理、文理、情理的领悟能力、分析能力和逻辑能力。法院应当全面推进司法公开,除涉及国家秘密、商业秘密和个人隐私等情形外,裁判文书应当依法公开,增强透明度,接受社会监督。社会公众有权对法院的审判活动和裁判文书进行监督,发现问题及时提出批评和建议。同时,法院应当主动接受公众监督,及时回应公众关切。


(三)建构辅助裁判的法律规制

人工智能的技术存在“潜在性、模糊性和难以量化”的风险,当前所有国家的法律规范体系欠缺对人工智能技术的有效规范,呈现出留白的状态。即便是已经着手通过法案的欧盟,其内部仍然无法对基层模型的监管保持一致;而我国公布的暂行办法或最高人民法院的《关于规范和加强人工智能司法应用的意见》是在基本原则层面讨论对人工智能技术的指导与监管。而人工智能介入司法活动带来的法律问题绝非可以通过“指导与监管”解决的。我国需要出台更为具体的法律规范,确切地说,是规制在司法活动中运用人工智能技术的法律规范。也只有具备了法律依据,才能有效地防止当事人诉讼权利被侵害、裁判活动僵硬、人工智能技术奴役司法等风险。

首先,明确人工智能在司法活动中的定位与使用范围。其一,必须明确人工智能在司法实践中的辅助工具性意义,法官对判决结果负责。无论技术发展到何种地步,人工智能在任何时候都不能代替法官裁判,其生成的结果仅可作为审判参考。其二,分别规范人工智能在程序性工作和实质性工作中的使用范围和使用方式。对文字识别、语音识别、证据录入等程序性工作,应当要求法官审核辅助结果,及时修改识别错误或录入错误的内容,并将错误作为训练素材反馈给技术人员供给模型训练。对证据分析、案件预测等辅助实质性工作,应根据其对司法活动的影响设置评估模型,避免滥用或误用。其三,建立特殊领域人工智能司法负面清单与核心禁区,如鉴于人工智能在“智识”上的欠缺,对于涉及价值考量的疑难案件,不应由人工智能辅助裁判,否则这些价值无法凸显,被司法活动忽略或“平均化”。对确实需要使用的人工智能司法系统(如简易辅助量刑工具等),应当经过实质审查和授权才能使用,系统的开发和运营者也需要接受程序设计的资质准入调查。

其次,强化司法独立和公正。人工智能辅助裁判和人工智能独立裁判的根分野在于法官是否主导诉讼过程。在制定法律规范时,需要强化司法独立和公正的原则。要求法官应该始终保持独立性和公正性,避免受到人工智能的干扰和影响。一方面,确保人工智能的使用透明公开。要明确透明度和公开性要求,整合已有的数据平台,打破“数据孤岛”,建立信息共享与公开平台,同时提供相应的查询和反馈渠道。还应当强化信息披露义务,要求在不透露商业秘密的前提下最大限度地主动向公众公开系统的技术原理、决策过程、数据来源等信息,并引导和支持媒体、专家和社会公众监督。此外,为避免人工智能的“反向掌控”,法院还应建立独立的审查机制和反馈修正机制,确保人工智能司法系统的正确应用和发展符合社会公共利益和道德标准。另一方面,促进法律职业的转型和发展。随着人工智能技术的应用,传统的人力工作可能会被自动化取代。为了适应这种变化,需要对法官、律师等进行专业培训和教育,提高他们对人工智能技术的认识水平和应用能力。同时,司法领域也需要培养更多具备人工智能技术的专业人才,为自身发展提供支持。此外,还需要建立相应的监督机制,监督和制约法官使用人工智能的情况,确保司法公正。

再次,提高司法效率和准确性。在人工智能系统处理和分析过程中,算法和模型是影响效率和准确性的关键因素。目前,域外的人工智能司法辅助系统在理论上已经有了一些进步,如Tata等尝试用“图解整体表示”方法讨论司法自由裁量权的决策体系,Prakken和Sartor则是为法律先例的提供了一个“案例推理与辩证”的通用框架。我国也可以在法律规范中鼓励系统设计开发者可以和不断优化算法和模型,或者探索构造新模型的可能性。并制定相应的技术规范和标准,确保人工智能的应用能够实现规范化、透明化和可控化。在模型训练的过程中,应当要求司法工作人员和算法人员可以联合训练模型,确保数据的来源和质量可靠。例如共同分析讨论对既往案件“贴标签”的方式,从案例库中如何筛选合法合理的案件材料。同时定期更新司法案例数据库,关注最新的法律、法规和判例变化。对于人工智能辅助的实质性活动的诉讼活动,可以建立定期评估机制,并根据评估结果及时调整和改进人工智能系统的算法和模型。

最后,保护公民权利和隐私权益。在人工智能辅助司法活动中,需要充分保护公民的权利和隐私。笔者反对将“算法”本身看作侵犯权利和权益的原因,但不可否认的是,国家公权力在社会治理中可能借助人工智能技术进行扩张和滥用,人工智能技术存在被权力化的可能,法官对人工智能辅助实质性工作的依赖,把这种可能加速成为现实。近年来,学者们提出的“数字人权”概念,不仅代表了人民对美好数字科技生活的需要,也是对数字科技滥用的警惕。如果忽视公权力(司法部门)借助科学技术侵犯公民权利的情形,甚至任由其发展,也就污染了司法公正的水源。我国可以借鉴一般数据保护条例或隐私权法等公民数据立法经验,制定“个人隐私保护法”,明确数据权利的内容,划定个人数据的运用范围,确保公民的个人信息不被泄露和滥用。

总之,完善人工智能辅助裁判的法律规范需要多方面的努力和配合。只有制定明确的法律规范、强化司法独立和公正、提高司法效率和准确性、保护公民权利和隐私权益等措施得到有效实施,才能让人工智能技术在司法领域发挥更大的作用,促进司法体制的改革和发展。

结语

讨论人工智能如何介入司法裁判有赖于交叉学科的发展,规范人工智能在司法裁判中的应用不仅是一个技术命题,也是法律命题。任何试图脱离人工智能讨论规范建构的研究进路,难免会走入臆想的场景中。目前的学界和实务界倾向将人工智能看作司法裁判的辅助工具。显然,无论是人工智能模型对人类心智的模拟在理论上被哥德尔不完备性证伪,还是其在司法实践中也无法实现和谐社会的效果,这种定位都是恰如其分的。至于人工智能在辅助司法的过程中是何种法律地位,是否应当对人工智能追责等法律问题,因为独立裁判被理论和实践所否定,也就不属于本文讨论的范畴了。可以肯定的是,人工智能技术的发展将会带来新一轮司法裁判制度的改革,传统意义上庭审、送达、质证、判决的概念或将在人工智能视阈下被重新定义。在此过程中,法律人要将视角往返于技术和公正之间,坚守人类社会对诉讼公平与正义的价值理念。    

往期精彩回顾

目录|《新兴权利》集刊2024年第1卷

王镕洪|生成式人工智能背景下个人信息保护的困境与破解

徐宇翔|生成式人工智能发展背景下的金融消费者个人信息保护问题研究

杨顺|ChatGPT等生成式人工智能对学术诚信的挑战及应对

贺誉洁|政府数智化转型背景下数据可信发展的基础研究——基于生成式人工智能嵌入的分析

张洪滔|智能手术医疗事故中医师刑事责任的认定

上海市法学会官网

http://www.sls.org.cn


继续滑动看下一个
上海市法学会 东方法学
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存