查看原文
其他

刘国华、沈杨:人工智能辅助司法裁判的实践困境及其应对策略

数字法治 2023-01-13

The following article is from 学术交流 Author 学术交流

刘国华:山东即墨人,哈尔滨商业大学法学院教授,从事法理学及商法研究。


本文原载《学术交流》2021年第9期,转载对注释与参考文献进行了省略。





[摘要]人工智能技术的蓬勃发展、“诉讼爆炸”与人权保障之间紧张的矛盾关系以及法官员额制改革尚未根本解决的“案多人少”矛盾为人工智能引入司法裁判提供了技术动因、现实动因及体制动因,但也引发司法裁判者“能否接受”“如何选择”的双重隐忧以及司法裁判者自由裁量权受到侵蚀和现有司法责任认定规则受到冲击等一系列问题。对此,要在坚持司法裁判者的主体性资格、法律人工智能工具性价值的基础上,解决智能辅助裁判系统的可接受性和正确性难题,消解司法裁判者的双重隐忧;恪守法律人工智能的界限范围,科学划定法律人工智能的辅助权限;否认法律人工智能主体性资格,坚持司法裁判者司法责任的主体地位。只有这样,才能在弱人工智能时代下,真正实现“可视正义”“算法正义”“数据正义”与“温度正义”。

[关键词]双重隐忧;自由裁量空间;司法责任

人工智能研究自1956年诞生以来,虽然经过短短60多年的发展,但却已然渗透到社会生活的各个领域,并“呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征”。1970年Buchanan与Headdrick发表《关于人工智能和法律推理若干问题的考察》一文后,人工智能真正模拟人的思维过程,实现像人一样的思考,具体应用到法律适用领域,完成一系列的法律解释、法律推理和法律论证等司法活动,成为无数法学学者和计算机专家孜孜以求的目标。在党中央、国务院“智慧法院”的顶层设计下,我国“人工智能+法律”等一系列工作如火如荼地展开,浙江、上海、北京等省份纷纷建立起了相应的人工智能辅助系统。在人工智能化时代到来之时,司法裁判将面临何种抉择,人工智能如何最大限度地避免司法体系本身的抵触从而扮演好在司法裁判中的辅助角色,在辅助过程中面临的诸多困境又将如何应对,这将是一系列富有创造性和挑战性的重大时代命题。一、 人工智能引入司法裁判之动因(一) 人工智能技术蓬勃发展纵观世界各国,人工智能技术已然成为世界各国经济发展的重要增长点和新“引擎”,受到了世界诸多国家的高度重视,甚至诸多国家已经将其上升至国家战略的高度。比如,2021年1月,美国白宫科技政策办公室(OSTP)就成立了专门的国家人工智能倡议办公室(National AI Initiative Office)来监督美国人工智能国家战略的实施;韩国也早在2014年揭开了第二个智能机器人开发五年计划的序幕。在人工智能的重大发展战略机遇下,为抢占人工智能发展先机,我国于2017年7月发布了《新一代人工智能发展规划》,将建设智慧法庭数据平台、促进人工智能在审判活动中的具体应用作为建设智慧法庭的重要举措予以推进。在此大背景下,司法机关以超乎寻常的热情投入到这一场旷日持久的人工智能系统化工程中,以实现法院审判体系与审判能力的智能化目标。在世界范围内,已经出现了利用智能辅助裁判系统对被告人量刑的刑事案件,譬如美国威斯康星州诉艾瑞克·卢米斯(Eric Loomis)案,甚至还出现了第一个人工智能律师ROSS,让律师可以获得与ROSS共事的体验。由此,有学者从人工智能适用于司法领域的必要性、可行性、合法性三个维度出发,主张在司法裁判中,人工智能不仅可以做得像法律人一样好,甚至还可以比法律人做得更好。(二) “诉讼爆炸”与人权保障存在紧张的矛盾关系从传统“厌讼息讼”的诉讼观念到公民权利意识的觉醒,公民的诉权得到了进一步确认和实现,但司法资源供给与人权保障之间的矛盾仍无法调和,现有的司法体制难以完全消化日益激增的诉讼案件,司法机关的审判压力也难以得到缓解,虽然通过构建多元化的纠纷解决机制(ADR),可以充分发挥调解、仲裁以及和解在解决纠纷中的独特作用,但当公民选择通过法律途径主张权利时,更希望自己的权利主张能够在法律权利、法律义务以及法律责任的对应关系中得到合理解决,“调解、和解等非正式纠纷解决机制的介入,导致公民诉权与司法裁判之间的对应性关系发生异变”。“诉讼爆炸”是社会转型过程中伴随着公民人权苏醒过程难以避免的社会现象,虽然可以在司法制度的外部渠道上,通过构建多元化的纠纷解决机制实现一定量案件的繁简分流,但却在一定程度上违背了人权保障法治化的初衷,当公民将矛盾纠纷诉诸法院请求得到公正合法的判决时,司法机关为应对“诉讼爆炸”的司法现状,往往引入非法律纠纷解决机制实现快速结案目的,在一定程度上具有削弱权利主张者主张权利之嫌。因此,如何实现司法资源的优化配置、释放司法效能、降低司法供给与需求之间的落差,就需要从司法制度内部寻求解决之道,“某种程度上,人工智能拥有超越司法人员的天然优势,这一优势体现在证据形式的研判、法律条文的整合、争点的归纳等方面”。将人工智能引入司法裁判,对于应对“诉讼爆炸”这一社会问题,缓解“诉讼爆炸”与人权保障间的矛盾关系,充分释放司法效能,具有十分重要的意义。(三) 法官员额制改革未根本解决“案多人少”矛盾2017年6月,我国已经全面完成了员额法官的遴选工作,这标志着法官员额制正式从法律文本、司法政策正式走向制度实践,同时也标志着法官队伍精英化、专业化、职业化的法治理想逐渐走向法治现实。然而,一项制度的引入往往是以问题为导向的,法官员额制作为西方司法文明的舶来品除了需要克服“水土不服”这一可能性问题,还需要关注其被植入我国司法体制后的法治实效。改革完成后,除了在一定程度上冲击我国现有的审判管理模式外,还使得“案多人少”成为刻不容缓需要重点予以突破的焦点问题。一方面,改革实施后法官数量骤减;另一方面,案件受理数量又呈现出井喷式增长,特别是一些基层法院往往面临不堪重负的审判压力。案件受理数量与法官数量之间的矛盾关系恰恰为人工智能引入司法裁判提供了契机。将人工智能引入司法裁判,一是可以促进办案流程便捷化,法官可以直接通过移动设备回复当事人的诉求、安排相应的庭审工作,实现信息检索、文书生成和送达、通知公告等工作的便捷化;二是可以促进审判活动的智能化。在人工智能深度学习的趋势下,人工智能可归纳总结案件的证据要点,优化司法裁判文书,为法官审理案件提供类案推荐、风险预警等辅助工作。由此,将法官从众多繁多冗杂的行政性、程序性事务中解放出来,让更多的审判资源汇聚审判一线,真正实现“让审理者裁判、由裁判者负责”的改革目标。二、人工智能辅助司法裁判之实践困境(一) 引发司法裁判者的“双重隐忧”智能辅助裁判结果的可接受性、正确性难题,引发了司法裁判者“能否接受”“如何选择”的双重隐忧。智能辅助裁判结果的可接受性难题引发了司法裁判者“能否接受”的第一重隐忧。一方面,一项试图削弱他人权利的改革尝试可能会受到权利被削弱者自身的抵触,具体到司法领域,挑战司法裁判者裁判主体地位的人工智能可能难以得到司法裁判者本身的接受,引发司法体系的“不适”与抵触,进而影响到人工智能“辅助”的质量和效果。另一方面,人工智能技术所暗含的“算法黑箱”问题,在一定程度上动摇了司法裁判者居中裁判、当事人之间平等对抗的正当程序价值,在侵害当事人知情权的同时也背离了司法公开的价值目标。正如有学者主张:“人工智能与司法改革的联姻,将在相当程度上重塑中国当代司法权利的分布。”一部分人工智能技术精英和人工智能法律系统的设计者和开发者通过技术手段“毫无违和感”地介入司法裁判的实际操作过程中,而他们所设计的代码、创造的算法受到人工智能企业商业秘密或知识产权的保护难以被司法系统掌握,在商业秘密(或知识产权保护)与算法代码公开间存在着“两难选择”的境地,对人工智能“辅助”司法裁判过程的监督尚存“空白地带”,这就导致了人工智能辅助裁判的结果呈现出司法神秘主义的倾向。一方面,司法裁判者会收到人工智能的“辅助”结果,一方面,司法裁判者又无法感知其运作的机理,从而让司法裁判者陷入了“能否接受”的第一重隐忧。智能辅助裁判结果的正确性难题引发了司法裁判者“如何选择”的第二重隐忧。人工智能辅助司法裁判所依靠的数据和算法不仅尚不能涵盖范围如此之广、体量如此之大、变化如此之快的相关数据,甚至连数据和算法的客观性和正确性也无法得到根本保证。一方面,数据本身就存在着某些“隐藏性的”“带有偏见性”的错误。就连世界上第一个人工智能律师ROSS的创始人之一Jimoh Ovbiagele也承认:“在使用机器学习解决判刑问题或预测罪犯时,发现有很强的民族偏见。”这也难怪会出现将黑人预测成猩猩等不可预知的“坏案例”(badcase)。当人工智能赖以辅助司法裁判的数据源头都受到“污染”时,当落后的、过时的甚至是错误的数据被人工智能大数据算法予以深度学习和挖掘时,加之机器和算法自身并不具备自我纠偏的功能,一旦产生“个案不公正”的结果便会演化为“类案不公正”的“悲剧”。另一方面,人类的自然语言的丰富性和复杂性导致同一主体在不同的情境下作出的语言表达往往具有不同的含义。“十里不同音,百里不同风”可谓中国语言文化多样化和丰富性的真实写照,具体体现在司法文书上,必须有赖于对上下文文意和具体语词的理解,并结合生活知识、专业知识方能揣度行为人的主观真意和司法裁判者的裁判意志,而智能辅助裁判系统却采用了关键词搜索和定位的方法,在对司法裁判文书等数据性资源实行案件分解化的基础上实现智能检索、类案推送等辅助性工作,这种机械化地对裁判文书予以分解的作法无法真正提高智能辅助裁判结果的正确性,反而是当机器面临一组输入值无法关联到最佳的输出值或者关联到多组“最佳”的输出值时,往往将一系列的裁判文书“一揽子”地打包给主审法官,这样一来,不仅使得人工智能辅助司法裁判结果的正确性难以保证,也让司法裁判者陷入了“如何选择”的第二重隐忧。(二)侵蚀司法裁判者的自由裁量空间人工智能引入司法裁判后,其中的焦点问题之一就在于法官的自由裁量权受到侵扰,人工智能对法官的审判管理存在着向审判管控异化的风险。让诸多法院引以为傲并将其作为特色和亮点予以建设的“人工智能偏离预警系统”工程,虽然可以充分发挥其在审判过程中的纠错功能,但是在实践中的发展已经逐渐偏离其预先的应用轨道,衍化为对司法裁判结果干涉的工具。一旦法官的裁判背离系统的预测结果,系统随即就会向办案法官发出警示,办案法官如若坚持己见,人工智能法律系统就会将其裁判结果自动报送庭长提交审判委员会讨论,而此时的办案法官不仅面临着向审判委员会论证说理的压力,还面临着错案追究的压力,这无疑加重了办案法官的审判负担,致使有些办案法官为了减少多余的说理和程序性负担倾向性地选择接受人工智能法律系统给出的裁判结果,这看似是为法官办案提供了辅助性的服务,实际上已然构成对司法裁量活动的入侵。虽然有学者主张,将人工智能引入司法裁判,可以遏制司法裁判者裁判的恣意性,维护同案同判的裁判结果以实现司法公正,但要想证成这一观点,取决于一个先决性问题,那就是,即使人工智能能够实现“同案同判”,是否就意味着最终能够实现司法公正?一项司法裁判结果的作出是依照法律规则,将特定的案件事实涵摄于法律规则下,进而完成法律推理之过程。正如王泽鉴所言,在法的发现的过程中,必须不断地来回穿梭于法律规范与案例事实间,进行涵摄的工作。而这一过程的实现,需要充分发挥裁判主体对案例事实的构造性理解,建构对案件事实的回构性过程,将主观经验附着于客观事实之上,结合司法政策、伦理道德、社会治理需要,实现“天理”“国法”“人情”有机统一,方能实现对司法公正的追求。而反观人工智能,除了缺乏对基本生活要素和情感要素的体验和总结外,更重要的是,它是在接受相应的数据信息后,在大数据预测的基础上,根据算法模型得出的“规律”辅助判案,这不仅在一定程度上与司法公正的价值目标相抵牾,还在悄无声息间侵蚀了法官的自由裁量空间,“研究表明,个人不接受算法的建议往往是具有挑战性的和不寻常的”。法官作为司法裁判者面临的决策风险也是显而易见的,如何尽可能地避免因决策风险而遭受责难,在风险评估过后如何让自己少犯错甚至是不犯错的思维方式就导致了法官往往会接受非经验性的、可预见性的结果,习惯大数据预测以及算法模型的“喂养”和“推荐”,作出的裁判结果往往也是对以往裁判结果的模仿和遵循,从而导致司法裁判者丧失通过司法裁判引领社会导向以及塑造法治未来的无限可能,更无法通过司法裁判为法律规范注入新鲜血液、赋予新的时代内涵并缓解法律规范滞后性的难题,沦为马克斯·韦伯口中的“诉讼机器”。(三)冲击现有的司法责任认定规则当人工智能在辅助司法裁判的过程中出现数据供给错误、算法结论偏差等结果导致“冤案”“错案”发生时,随之而来的就是司法责任的归结问题。人工智能能否被独立地赋予法律人格进而承担相应的司法责任?这是一个前提性问题,影响着后续一系列问题的答案。可以说,我国现有的司法责任主要是以司法裁判者为核心的,但一旦将人工智能引入司法裁判后,问题就变得复杂了,原因就在于,人工智能侵蚀了司法裁判者的自由裁量权,而自由裁量权的行使进一步地影响到了司法责任的承担。对司法裁判者而言,机械地进行法律适用往往不致使其陷入祸端,反而会为其提供规则“庇护”,久而久之,司法裁判者便会形成对于规则的心理依赖,对于他们而言,“贸然彰显自主性无异于招致更多责任”,保持对形式法治的追求往往能使他们卸责。从客观层面而言,我国法律本就对司法裁判者的自由裁量权作出了诸多限制,比如法定的证据采信规则、法定的合同无效事由等;从主观层面而言,司法裁判者对自由裁量往往秉持着谨慎的主观态度,这就使得司法裁判者的“自主性”被削弱、司法裁量的空间被压缩。当“规则依赖”成为司法裁判者的倾向性选择,司法裁量空间被压缩,人工智能又在司法改革的顶层设计下以“辅助”的功能定位介入司法裁量空间时,其对司法裁判结果的作用力便不言而喻了。当一项司法裁判的结果出现偏差招致非议时,追本溯源,该裁判却是司法裁判者和智能辅助裁判综合作用产生的结果,司法责任应当由谁承担或者如何分配呢?我们不妨分类讨论以下情况:第一,司法裁判者进行心证后产生的结果与智能辅助裁判结果一致,且司法裁判者最终全部采纳了智能辅助裁判结果,此时因错误裁判结果导致的司法责任应当由谁承担。第二,司法裁判者进行心证后产生的结果与智能辅助裁判结果不一致,司法裁判者最终经过通盘考虑后部分接受了智能辅助的裁判结果,此时的司法责任由谁承担?若要划分责任份额,如何区分二者对裁判结果的作用力的大小?倘若上述问题得出的结论是人工智能需要承担司法责任,那么它应当承担何种形式多大范围内的司法责任?然而,这一系列问题的前提性假设是人工智能具备独立承担司法责任的法律人格,但即便赋予了人工智能独立的法律人格,让其承担“责任”是否具备法律意义?这样一来,当人工智能引入司法裁判后,我们就需要进一步地审视和考量司法责任的承担主体和承担形式了。三、 人工智能辅助司法裁判之应对策略(一) 消解司法裁判者的“双重隐忧”1.提高智能辅助裁判结果的可接受性,实现可视正义。“黑箱”问题并非是人工智能时代下特有的产物,却唯独在人工智能时代下获得了普遍的关注,原因就在于该“黑箱”难以获得有效的监督,其运作过程无法被感知,致使算法程序运作存在被“暗箱操作”的可能。在人工智能尚未引入司法裁判之时,司法裁判者运用头脑基于证据认定案件事实、找寻相关的法律依据,在此基础上进行演绎并对最终的裁判结果形成内心确信的过程,同样也是无法被当事人以及社会公众感知的“黑箱”,但对司法裁判者的责任追究机制、合议制、上诉和再审等一系列制度的架构和设计,使得当事人获得了感知和体验程序正义的可能。因此,解决“算法黑箱”,究其实质,还是在面临着实体正义还是程序正义这一传统性的价值命题。无论是“程序优于实体”还是“程序与实体并重”,都反映了程序正义与实体正义的抉择并不存在着永恒性的、普适性的权衡规则,更不是“A与非A”的对立排斥关系,而应当是结合案件性质、当事人诉求、司法现状等因素权衡利弊后综合考量的结果,对待人工智能辅助司法裁判过程中产生的“算法黑箱”问题同样应该如此。人工智能辅助裁判系统存在的“算法黑箱”问题纵使部分丧失了对程序正义的追求,但其在效率层面上的价值恰恰为其作用的空间提供了适合的场域。“毕竟与国家和被告人的对抗性司法不同,在当事人和解、认罪认罚从宽等合作性司法中,实用主义与司法效率更胜一筹。”但在智能辅助系统无法适用的场域,就需要建立算法解释规则。赋予利害关系人对算法结果提出异议并获得算法解释的权利,特别是一些社会普遍关注的热点案件和疑难复杂案件,“法院应当有权强制披露相关智能分析工具算法的代码”。必要情形下算法代码的强制披露,让当事人获得对算法代码有效辩护的权利,司法的亲历性得以维护,“可视正义”才能实现,司法裁判者“能否接受”的第一重隐忧方能得以消解。2.提高智能辅助裁判结果的正确性,实现数据正义和算法正义。我们可以对数据影响智能辅助司法裁判结果正确性的阶段进行划分。一是数据源头阶段,在数据源头阶段最大的问题就是数据源头“污染”和数据过时的问题,对此需要定期对数据予以清洗和筛选,建立动态的司法数据引入和退出机制,提高司法数据的质量。二是数据录入阶段,此阶段突出问题在于技术人员在录入数据时往往会带有自己对司法数据的主观理解,对此,一方面可以制定相应的技术规范和伦理指南予以调整,加强对人工智能技术人员的伦理教育,另一方面可以健全对人工智能技术人员的问责机制,视其对司法裁判结果的不良影响,让其承担相应的民事责任或者行政责任。三是数据形成算法后进行运作的阶段,这一阶段的突出问题就是算法歧视。解决算法歧视问题,一要加强技术投入。比如科学界目前正在研究的“反歧视意识的数据挖掘技术”无疑为规制算法歧视问题提供了技术突破口。二要培养兼具法学和计算机科学知识的复合型人才。目前,法律人工智能化尚处于较为低级的、尚未系统化的、需要人工干预的阶段,该阶段的显著特点是“有多少人工方有多少人工智能”,智能辅助裁判结果不仅依赖于法律专家对裁判文书等数据性资源的整合,还有赖于计算机专家将法律语言转化为计算机语言的精确性和准确度。可以说,法学与计算机人才复合深入,交流广泛,复合性知识结构融合深刻,法律人工智能化的诸多瓶颈才能得以突破,“有多少人工方有多少人工智能”才能向“有多少优秀人工方有多少优秀人工智能”转化。三要健全算法歧视的归责机制。算法在外观上呈现的“数据输入—算法运作—结果输出”等一系列技术层面的操作流程,使其在某种意义上“超脱于”现有的法律规范之维度,最典型的莫过于其对传统侵权责任认定中主观过错以及因果关系这两个构成要件认定规则的撼动。由于几乎所有的算法歧视受害者并不具有理解算法的能力,也几乎无法完成证明算法开发和设计者主观过错的举证责任,因而有学者主张,算法歧视而致使他人损害的,在民事归责原则上应当采取无过错归责原则。在因果关系认定规则上,有学者认为,可以借鉴英美法系中的风险标准来重构人工智能时代下算法致人损害的侵权责任,如果行为人的行为具有风险,且在该风险下所造成的结果是一般性的,则可对行为与结果进行法律因果关系认定。由此,从技术开发层面、人才保障层面以及责任规制层面三维一体地建构规制算法歧视的中国化路径,数据正义与算法正义才能实现,司法裁判者“如何选择”的第二重隐忧方能等以消解。(二) 科学划定辅助的权限法律人工智能要在“辅助”的功能定位上更好地发挥其对于司法裁判的作用,就必须恪守其适用的界限范围,不得逾越该界限对司法裁判者的自由裁量权造成侵扰,在其适合的场域内大放异彩。1.在智能辅助裁判系统的程序层面,应当根据案件处理的不同阶段、诉讼程序的不同功能对人工智能辅助的权限作出不同的处理。一方面,智能辅助裁判系统应当主要应用于一审案件,而不得适用于上诉、再审或者发回重审的案件。原因主要有两点:其一,不符合将人工智能引入司法裁判的目的。之所以将人工智能引入司法裁判,主要是基于缓解“诉讼爆炸”与人权保障间紧张矛盾关系的考量,但是对于二审法院、再审法院而言,其案件承载量和案件审判压力远远小于基层法院,就其本身所承载的案件性质而言,大多是当事人间争议较大、事实不清、证据不足等疑难复杂案件,此时,应当优先发挥上级法院对下级法院裁判结果的“纠偏”功能,而非智能辅助裁判系统追求的“效率”价值。其二,该阶段再次运用智能辅助裁判系统不具有实质性价值。对于上诉、再审或者发回重审的案件而言,智能辅助裁判结果在案件初次审理时就已经为司法裁判者所参考,在案件的二次审理时再度运用智能辅助系统,无非是再度运用智能辅助裁判系统进行机械演绎后得到与此前别无二致的结论,对于担当“纠偏”角色的二审法院和再审法院司法裁判者而言,这样的重复性结论已经不具备实质价值。另一方面,对于不予受理、管辖权异议、驳回起诉等单纯的程序性事项,法律人工智能可以大展拳脚,特别是智能辅助裁判系统对司法裁判者审理时限、财产和证据保全期限、公告送达等期限的监督和提醒,对于规范司法运作、提高司法效率无疑具有十分重要的价值和意义。2.在智能辅助裁判系统的实体层面上,法律人工智能能够很好地适用于权利义务关系清楚、争议不大的简单的案件以及复杂案件的法律适用过程。公正价值是司法活动追求的第一目标,在“案多人少”以及司法资源有限的司法现状下,利用人工智能辅助司法裁判纵然会对司法裁判者的亲历性以及当事人的正当程序权利造成不小的侵害,但法治环境的不断优化、公民法意识的不断觉醒、“诉讼爆炸”的司法现状使得我们必须重新审视法价值框架内公正和效率的平衡问题,不顾效率而片面追求的公正绝非真正意义上的公正。引入智能辅助裁判系统,对情节轻微、权利义务关系明确的简单案件进行繁简分流,可以实现司法资源优化配置、提高司法资源供给能力。但对于情节严重、权利义务关系复杂、社会普遍关注的疑难复杂案件,则必须凸显公正价值要求,将公正价值放在首位,兼顾效率。那么是否意味着智能辅助裁判系统在疑难复杂案件中完全没有用武之地呢?答案并不是这样,智能辅助裁判系统完全可以完成复杂案件之法律适用之过程,这主要是由于“司法裁判中的法律适用在我国是一个依据成文法进行逻辑推理的过程,大体上运用单一的线性逻辑”。而现阶段的法律人工智能无论从技术的成熟度,还是从深度学习之深度和广度而言,完全可以做到这一点。但对于复杂案件之事实认定和论证说理过程,却是智能辅助裁判系统绝对不可涉足的领域。这一领域对于智能辅助裁判系统而言,不单单是在技术上不可行,而是在根本上不可能。复杂案件之事实认定过程并非遵循单一的线性逻辑,甚至在某种程度上不具备构成规律的可能,这对于依靠“规律”和“概率”判案的智能辅助系统来讲,至少从现有的人工智能技术来看无法实现,是为“技术不可行”。事实认定之过程充斥着司法裁判者的经验法则和审判智慧,对案件事实的构造性理解需要司法裁判者充分地运用价值判断,结合证据标准完成相应的证据采信工作,方能形成对待证事实的内心确信,完成对待证事实的证明工作,而已经形成内心确信的待证事实作为法律推理的小前提并非案件事实(fact)本身,而是经法庭控辩审三方举证、质证和认证之互动过程所获得的事实真相(truth)。不仅如此,疑难复杂案件的论证说理活动是引领社会导向、传播法治理念、促进当事人服判息讼的关键环节,司法裁判绝不是一系列冰冷和僵硬的计算机程序和代码,更应该在法律适用和事实认定的交织过程中彰显司法裁判者的人性关怀,方可实现司法活动的“温度正义”。而在这两点上,智能辅助裁判系统是绝对无法实现的,是为“根本不可能”。倘若哪天法律人工智能技术真的发展到能够替代人类完成对复杂案件的事实认定以及相关的论证说理活动,真正地具备了像人一样的智慧和思考能力,彼时,就不仅仅是超出本文所探讨的人工智能“辅助”司法裁判的问题了,人的主体性资格也将获得重新的审视和思考。(三)坚持司法裁判者司法责任主体地位纵然法律人工智能冲击了传统的司法责任认定规则,但在弱人工智能阶段下仍需坚持司法裁判者的司法责任主体地位,否认法律人工智能承担司法责任的主体资格。智能辅助裁判结果对于司法裁判者而言,仅具有“建议”权限,而非“干预”权限。智能辅助裁判系统作出的裁判结果,无论正确与否,都需要由司法裁判者进行严格审查、校对,把好最后一道关口,方能形成最终的裁判结果,一旦形成错误的、不公的裁判结果,司法裁判者是最终的且唯一的司法责任承担主体。这主要是取决于两个方面的考虑:第一,让法律人工智能承担司法责任不具备实际意义。“法律责任是违法者由于作出从法律的观点来说应受指责的行为而受到痛苦的一种特殊义务,而惩罚是对违法者适用法律的结果和法律责任的目的。”对人工智能施加“责任”并不会使其遭受“不利益”,对其施加“惩罚”更不会导致其遭受人身上或者财产上的痛苦,这样的责任附加本就不具备实际意义。第二,让法律人工智能承担司法责任不具备实际可能。法律人工智能从本质上而言,仍然是辅助人类法官进行司法裁判的“工具”。人类社会自诞生以来,人类不仅仅是规则的制定者、规则的践行者、规则的维护者,更是宝贵法律资源的享有者。现有的法律框架不仅仅坚守了人的主体性资格这一重要前提,更是将实现人的生存和发展利益作为根本的出发点和落脚点,即使法律人工智能技术取得了突破性进展,以人类为中心的法秩序框架也难以赋予法律人工智能主体性资格,最多是在法律框架内对如何充分发挥其工具性价值作出回应,更别说让法律人工智能独立承担司法责任了。毕竟人类创造法律人工智能的目的在于更好地服务于司法裁判活动本身,而不是制造出一个凌驾于人类利益之上的异化主体,从根本上损害人类自身的发展。基于以上两点考虑,司法裁判者在裁判活动中,应当对智能辅助裁判结果严格把关,谨慎地对待法律人工智能的适用,独立地承担司法责任。

总之,将人工智能引入司法裁判,对于提升司法效率、规范司法运作具有重要的价值和意义,更重要的是,让我们重新审视人工智能时代下“实体正义与程序正义”“公正与效率”这两个传统且重要的价值命题,重新思考人工智能时代下司法活动和司法裁判者本来应当是什么。“司法裁判在本质上是一种向着普遍实践论证开放的复杂活动,即向着道德、伦理和实用性理由开放。”司法裁判者绝非是马克斯·韦伯所刻画的“诉讼机器”,成为“自动判决机”仍然是一个遥不可及的梦想。除非人类愿意赋予法律人工智能主体性资格,并将法律人工智能这一异化主体纳入法律框架和体系内,除非人类愿意与法律人工智能分享宝贵的法律资源,并将人类用来引领社会导向以及塑造法治未来无限可能的司法权部分交给仅会“形式推理”和“机械演绎”的机器,法律人工智能“辅助”司法裁判的功能定位无法发生根本性改变,只能在“辅助”的场域内继续发挥作用。当然,如何更好地实现人机协同,充分发挥法律人工智能服务于司法裁判活动的辅助作用,不仅需要我们解决人工智能辅助裁判结果的可接受性和正确性难题,消解司法裁判者的“双重隐忧”,科学合理地厘定法律人工智能辅助司法裁判的权限并始终坚持司法裁判者作为司法责任承担者的主体性地位,还需要我们加大培养兼具法学和计算机科学知识的复合型人才的力度,促进法学学科和计算机学科的交流和知识性融合,才能进一步优化司法资源配置,提高司法资源供给能力。


 相关阅读 ·


1.张欣:免受自动化决策约束权的制度逻辑与本土构建

2.魏广萍:雇员生物识别信息法律保护的主体性视角重构

3.王春梅、冯源 | 技术性人格:人工智能主体资格的私法构设

4.张凌寒:自动化决策与人的主体性

 商品书目 ·



微信号 : DigitalLaw_ECUPL

探寻数字法治逻辑

展望数字正义图景

数字法治战略合作伙伴:理财魔方

北京市竞天公诚律师事务所上海分所


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存