查看原文
其他

华政学报 | 周尚君 伍茜 人工智能司法决策的可能与限度

周尚君 伍茜 华东政法大学学报 2022-04-24

人工智能司法决策的可能与限度

周尚君,西南政法大学教授;

伍茜,西南政法大学法学理论专业博士研究生、“2011计划”地方立法研究协同创新中心助理研究员



目次

一、人工智能的法律实务应用历程

二、人工智能介入司法的可能路径

三、革新与挑战:从技术辅助到自主决策

四、人工智能司法决策模型建构的限度

五、结论


摘要

利用人工智能的推理技术和机器学习技术,以及建立海量且有效的法律知识库,算法有可能接管司法决策。目前已经获得广泛应用的法律信息检索系统、法律专家系统皆属辅助型法律智能系统,它们的研发和使用为决策型司法智能系统奠定了技术和经验基础。然而,要使司法决策成为可能,人工智能必须在运用法律推理、掌握法律语言以及深度学习经验性知识方面取得决定性突破。人工智能司法决策必然要求重新审视法律推理逻辑,重构审判责任理论,重塑法官职业身份内涵,甚至改变司法决策过程中人机互动的关系格局。为了避免变革所带来的负面影响,须划定人工智能司法决策模型建构的限度。人工智能的技术应用应符合国际通行的技术安全标准,介入应以司法公正为价值追求。通过构建合理的算法规则机制,对算法不透明性提供必不可少的制度约束。

关键词

人工智能 司法决策 专家系统 司法建模 算法规制


自1956年达特茅斯会议(Dartmouth Conference)正式提出“人工智能”概念以来,人工智能正深 刻地改变着人类社会及其政治经济形态。近年来,人工智能更是加速发展,呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征。人工智能在法律领域的应用已经历了60多年的发展, 且成果斐然,如法律检索系统的精确度和完整度都得到提升,法律专家系统的推理模型也不断优化。 随着以深度学习为代表的人工智能算法在图像识别和语音识别领域取得质的飞跃,利用“机器学习”技术实现法律智能系统的自主决策已不再遥远。一百多年以前,马克斯• 韦伯对形式理性化所带来 的“自动售货机”式法官的担忧,对现代法治的“非人格化”操作的批判 ,在人工智能时代将变成一种 客观现实。

人工智能确能使办案成为一种半自动化或自动化的人机协同操作,从而保证司法效率的提高,缓解甚至解决“案多人少”司法资源紧张的现状。更重要的是,在程序设计之初,以人工智能与法律 跨学科研究为视角,探究人工智能司法决策系统如何最大程度促进司法专业性和公正性的有机协调。因此,司法决策模型的建构有两个前提条件:第一,关注人工智能在法律实务中的现实应用状况及人 工智能技术的实际进展;第二,在司法决策模型设计之初寻找正确的技术突破口,并同步制定恰当的 算法规则机制。


一、人工智能的法律实务应用历程

人工智能(Artificial Intelligence,AI),又称机器智能或计算机智能,是一种由人工手段模仿的人造智能。从学科、技术、能力等不同角度来看,对人工智能的定义将会有不同的侧重,若以能力角度来理解人工智能,则人工智能是智能机器所执行的通常与人类智能有关的智能行为,这些智能行为涉及学习、感知、思考、理解、识别、判断、推理、证明、通信、设计、规划、行动和问题求解等活动。

人工智能的发展一般分为三个阶段“弱人工智能”(Artificial Narrow Intelligence, ANI)、“强人工智能”(Artificial General Intelligence, AGI)和“超人工智能”(Artificial Super Intelligence, ASI),这是以智能机器与人类的自主意识相比较而做的划分。“弱人工智能”阶段,智能机器不具有真正的智能,它主要做信息处理,目前的主流研究属于这一阶段。研究过程中,人们无论是希望智能机器处理文本还是图像,都必须将包含的信息(知识)以智能机器可以理解的方式表示给它。这在法律领域的应用主要体现在法律信息检索系统(Retrieval System)和法律专家系统(Legal Expert Systems),法律信息检索系统经历了从成文法检索扩展到可以对案例进行检索的过程,且检索的完整度和精确度均得到提高;法律专家系统从早期的律师推理系统JUDITH 到预测罪犯再犯概率的评估系统COMPAS,系统的自主决策能力逐渐加强。人工智能技术的进一步发展方向是“强人工智能”,如果这一目标能够实现,它将可以运用推理和知觉这些通用功能(语言、创造力和情感),具有思维的智能机器对于法律知识才可能实现类人的理解。假设“强人工智能”能够发展为“超人工智能”,人工智能的智能高度将达到并超越人类水平,智能机器不仅可以自我复制实现数量的增值,还可以不断提高自我智识。奇点的来临是一个尚未确证的科技猜想,因此,过于宽泛地担忧机器法官对人类社会的冲击是出自不严谨的广义未来学预测,这对人工智能在法律领域的应用研究而言无所助益。

(一)法律信息检索系统的功能优化历程

最早的法律检索系统研究始于20世纪60年代,1960年美国匹兹堡大学约翰• 霍蒂(John Horty) 教授在美国律师协会年会上正式公布开发计算机检索法律系统的实施计划。1968年,在匹兹堡大学的赞助下,霍蒂教授创立了Aspen公司,推出了一些基于计算机新技术的法律信息系统,并使得这些法律信息系统取得了商业推广。受到法律应用层面需求的推动,该类信息系统逐步发展为可以检索大量的自然语言文本。同年,加拿大蒙特利尔大学开发出DATUM系统,最初该系统仅包括判例, 后来与其他以成文法内容为主的系统结合,成了计算机检索魁北克当地判例和成文法的系统。1966 年美国俄亥俄州律师协会开始了对计算机检索法律信息的研发,于1972年正式完成了LEXIS系统,该系统全文输入了俄亥俄州、密苏里州、得克萨斯州和伊利诺伊州的成文法和判例及联邦成文法和判例,后来范围不断扩大。1970年英国政府原子能局正式开发出STATUS系统,可利用关键字进行检索,该系统运用计算机高级语言FORTRAN作为程序语言,能够在各种类型的计算机上运行。1974年美国司法部完成了JURIS系统(Juristic Retrieval and Inquiry System),该系统采用联网方式,由许多的分数据库组成,包含联邦成文法规、最高法院判例汇编和司法部内部文件等。1975年,美国西方出版公司成功推出了Westlaw,起初只提供州法院和联邦法院的判例摘要,1978年起,增加了判例全文、法律和法规以及美国和欧洲共同体的电脑联机以查找英国和欧洲共同体的法律。

在我国,20世纪80年代的法律信息检索系统领域有三大法律数据库,即“北大法宝”“法意”和“国信”。其中,尤以“北大法宝”法律法规检索系统为代表。其诞生于1985年,其法制信息完善,所使用的检索技术和达到的检索速度均属于国内领先水平,是当时国内最庞大的法律数据库。但是,搜索引擎在内容、链接地址有效性、搜索方式、搜索结果相关度等方面的局限性成为法律检索系统发展道路上的技术性障碍。经过三十余年的发展,该系统在信息完整性和搜索智能性等方面的功能得到显著优化。法律信息检索系统发展至今,已有众多的检索数据库问世。2013年,中国裁判文书网的上线是法律信息检索系统领域的一块新里程碑,利用计算机检索技术最大程度上促进司法公开,2018年2月,该网站已成为全球最大的裁判文书资源库。

检索系统的发展历程是一个不断将法律信息进行完整化、系统化、相关化和版权化的整合过程。检索内容从单一的成文法检索发展到可以进行案例检索,且检索的精确度和完整度逐步得到提升。法律信息检索系统的进一步研发,应当注重利用语义识别技术,从新案例中提取相关事实语义信息,并通过以往检索信息标记有效结果,从而在最大程度上增强检索的准确性。 计算机研究人员可以通过深度优化检索、启发式搜索策略等人工智能技术,分析检索人员对法律条文、法律案件的 检索需求,研究针对自然语言查询的法律检索系统。法律检索是信息检索在法律专业领域的应用,其中法条检索和案例检索等系统的开发并不必然与法律逻辑相关,检索结果仅呈现相似或关联的内容。 因此,若在法律检索系统研发的同时注重结合法律逻辑,不仅将提升检索的有效性,还会为法律专家系统这类具备法律推理能力的更高级人工智能提供优质法律信息数据库。

(二)非自主决策型法律专家系统的应用发展

1965年第一个专家系统DENDRAL在美国斯坦福大学问世,它用于帮助化学研究人员推断分子的结构,专家系统研究也自此成了人工智能应用研究的主要领域。专家系统被视作模拟人类专家解决专业领域问题的计算机程序系统,它在化学、生物学、地质学、医学等研究领域成就卓著,这促使法律人开启了对法律专家系统的尝试。布鲁斯•布肯南(Bruce Buchanan)与托马斯• 海迪克(Thomas Headrick)在1970年发表的《关于人工智能和法律推理若干问题的考察》这篇论文中,首次系统地提出使用人工智能技术来协助法律推理过程的可能性。这篇论文被视为开启人工智能与法学跨学科研究的标志,文中指出法律与计算机的交叉研究时代已经到来,这样的合作可以发现计算机在法律领域 的更多潜能。20世纪60年代末,西徳司法部成立了一个设计组着手对计算机技术在法律方面的应用研究。20世纪70 年代开始出现了一系列法律专家系统,其中麦卡蒂(L. T. McCarty)于1977 年开发的TAXMAN 系统能够在公司税法方面运用基础的法律推理,向系统描述企业重组的事实,它就能用一些法律概念来进行分析。沃尔特•珀普(Walte Popp)和本哈德•施林克(Bernhard Schlink) 开发的JUDITH律师推理系统,是法律专家系统最早的应用开发之一,该系统能够按照德国民法来 运行,并采用了一种层次模型(hierarchical model)。随着人工智能的发展,法律专家系统的应用研究 逐步深入,沃特曼(D.A.Waterman)和皮特森(M. Peterson)于 1981 年开发的法律判决辅助系统(Legal Decision-making System, LDS),它是一种利用知识工程技术研究美国民事司法制度的新方法,这个法律专家系统需要进一步完善,才能帮助诉讼当事人解决法律问题。20世纪80年代法律专家系统的发展,仍然致力于如何让系统运用法律推理进行自主决策,但却未能在原有法律专家系统的基础上 走得更远。

在我国,法律专家系统的研制始于20世纪80年代中期,这一时期研发的量刑辅助系统属于法律专家系统的范畴。代表性的成果主要有:1986年朱华荣、肖开权主持的“量刑综合平衡与电脑辅助量刑专家系统研究”、1993年中山大学学生胡钊等人合作研制的“LOA 律师办公自动化系统”以及1993年武汉大学法学院赵廷光教授主持开发的“实用刑法专家系统”。进入21世纪后,随着互联网和计算机技术的发展以及司法案件数量的激增, 法律专家系统的研究得到了迅速发展,2006年山东省淄博市淄川区法院的“刑法常用百种罪名电脑辅助量刑系统”,2011年福建省漳州市龙文区检察院的“量刑建议管理系统”,2016年浙江高院的“智能语音识别系统”,2017 年 2 月上海市高级人民法院 的“上海刑事案件智能辅助办案系统”、同年4月海南省高级人民法院的“量刑规范化智能辅助办案 系统”、同年4月重庆市高级人民法院的“类案件专审平台”、同年12月广西壮族自治区130家法院全部全面使用智慧审判系统、电子卷宗随案同步生成系统及相关智能辅助系统。

专家系统在20世纪80年代到90年代末期间得到了较快发展,但仍然受到知识获取和推理能力等方面技术不足的影响,而未能实现从辅助到决策的功能转换。在自然科学领域中,如应用于医疗诊断的诊断专家系统、应用于气象预报的预测专家系统、应用于军事指挥的规划专家系统等都是这一阶段的显著成果。但将专家系统运用到非自然科学领域却是一个难题,即非自然科学所采用的推理过程极少按照严格的数理逻辑规则进行,而更多依靠人们的主观直觉判断。当智能机器无法实现全 面模拟法律专家解决问题时,其在法律领域的应用以自动化案件管理系统和辅助办案系统为主。但进一步的研发必会为决策型法律专家系统的到来做准备,即探寻人工智能系统学习法律知识和进行 法律推理的方法。

二、人工智能介入司法的可能路径

人工智能司法应用的发展不仅依赖人工智能技术,还高度依赖相关跨学科研究成果。法律信息检索系统和法律专家系统是“弱人工智能”在法律领域的应用成果,尽管这极大地提升了法律工作效率,但仍存在着法律信息检索的精确度和完整度较难进一步提升的瓶颈,以及法律专家系统的推理能力较弱等问题。

随着以知识工程为主导的机器学习算法的发展,基于规则的人工智能在棋类比赛中取得三次著名人机对弈的胜利,这证明了智能机器具备较强的推理能力,并且可以用于具体的应用领域。大数据时代的来临,以及计算机运算能力和机器学习算法的极大改善,使得智能机器有望突破过去专家系统 在知识获取和推理方面的局限。司法领域引入人工智能,短期目标是为司法部门缓解“案多人少”的矛盾,在类型化案件上减少繁杂的重复劳动;长期目标是通过法律与科技的深度融合,利用智能机器对人类大脑的模拟甚至超越寻找实现司法公正的人工智能路径。

(一)人工智能对法律论证综合方法的探寻

法律领域的数字化是一个不言而喻的发展趋势,智能机器嵌入现行司法流程后是否会出现排异现象,这取决于两者所适用逻辑的匹配程度。按照法律形式主义的观点,司法审判的过程就是一个排除法官自由裁量的机械三段论推理过程。在人工智能达到“奇点”前,智能机器采用的推理方式始终会是一种类人的逻辑,它只会沿着既定的程序规则运行。智能机器认定的法律就是其数据库中存储的现行法律条文,这符合法律逻辑的前提设定,即实在法是法律推理的公理。智能机器审判案件似乎正合法律形式主义者之意,通过智能机器可以实现审判的自动化,机器法官将像韦伯笔下的“自动售货机”,法官只知道将当事人的诉状要求和诉讼费一起塞入机器,然后根据从法典上推演出的理由进行诊断。不过“自动售货机”的隐喻是韦伯对形式理性官僚制的反思,虽然在人工智能的司法应用研究中也应有此思考,但从逻辑学角度来看则应消除这种偏见。智能机器看似满足法律形式主义者的意图,但事实并非如此。

人工智能具有一些先进的推理技术和系统来求解复杂的问题,如:消解原理、规则演绎系统、产生式系统、不确定性推理和非单调推理等。而且,人工智能还有其他一些高级求解技术,如专家系统、机器学习和规划系统等。以专家系统为例,通过专家系统的基本结构图(图1)可以发现,智能机器不会唯一或单向度地沿着“大前提”“小前提”“结论”的演绎逻辑进行。它可以根据设定的逻辑路径进行复杂的推理,也可以采用一种循环往复的路径,在经过相当长时间的数据积累后,使得系统在一定范围内达到人类专家的水平,进行问题求解。因此,智能机器会否成为一名法律形式主义者,这取决于研发人员如何进行模型建构。

在超越哈特与德沃金就法律规则与法官自由裁量权的争辩后,人们将目光更多地投向推理模式或法律应用的方法和程序中,司法决定最终能否通过法律论证为人们所接受成为更为重要的一个问题,这一问题对于人工智能的司法应用研究而言同样意义重大。人工智能法学运用人工智能的方法重新审视法学问题,提供新的可能路径。人工智能首先从功能上对法律证成、法律检索、法律解释、 法律适用等法律推理的要素和活动进行数理分析,将法律推理的研究成果模型化,以实现法律推理知识的机器表达或再现,从而为认识法律推理的过程和规律提供一种实验手段。因此,在司法过程中机械适用法律的问题以及因人为因素干扰司法审判的问题等,这些人类无法依靠自身克服的问题有望通过人工智能方法找到突破口。但在“弱人工智能”阶段,对法律专家系统的设计,其内核仍然是类人的“思维”,这就决定了面对法学的问题,仍然不能完全抛弃法理的思维。在司法实务中,人们对法条进行理解和运用,并对待证事实进行分析和认定。法律推理作为一般法律方法的一种,人工智能对之模拟,也间接成为一种法律方法。同时,人工智能正以其崭新的形式开创法理学法律方法论研究的一片新天地。这从已开发出来的系统模型中初见端倪,其中主要使用的是非单一性逻辑(nonmonotonic logic),力图建立一个基础框架来模拟法律推理的基本特点

(二)人工智能对法律语言的深度学习

人工智能法学是以交叉学科的方法处理法学问题,而法律语言的模糊性这个问题正是法学问题中的一大难题,它是一个客观存在且难以消除的现象,并贯穿于法律活动的整个过程。因此,如何克服法律语言模糊性应当成为人工智能法学的重点研究内容之一。法律语言的模糊性主要体现在三种情况:(1)附加模糊性,模糊词语附加在明确的范畴之前或之后,可使本来意义精确的概念变得模糊;(2)模糊概念,即不确定概念;(3)根据模糊词性的不同,法律语言的模糊性可以分为名词模糊、动词模糊、 形容词模糊、副词模糊等。法律语言的模糊性有自然语言的家族相似性,为了解决这一问题,需要一个强有力的知识表示语言,对法律术语的理解是构建人工智能司法决策模型的基础。

法学家对破除法律语言模糊性的理论构想,可以在人工智能的辅助下进行实践性尝试。“机器学习”( Machine Learning)可以通过研究数据寻找规律并进行预测,其中监督学习可以应用于自然语言 处理和信息检索,无监督学习可以避免对数据的人工标注及可能的分类错误。人工智能技术能够建立法律语料库进行海量存储,同时建立分类和分析模型,利用语料库统计方法和统计与规则并举的方法进行法律语言“理解”研究。人工智能对法律语言的学习和使用,并不意味着它能够像人类一样理解法律语言,而只是对其进行逐层分析。有学者对法律本体检索模型进行研究,提出了一种案例与法律规范相互作用的法律本体检索结构,并采用中科院的ICTCLAS 汉语语义识别系统来突破技术和法律语言模糊性的限制,将法律本体检索模型付诸实践。 人工智能中本体论的概念来源于哲学, 但与之又有不同,普遍认可的定义是“本体是被共享的概念化的一个显示的规格说明”。也就是说,本体是机器可读的(非自然语言)关于相关领域中公认的明确概念集,为个体间的交流提供一种语义支持,从而提升计算机处理的智能性。因此,法律本体研究是人工智能在法学领域的本体建构研究, 它是法律文件索引和检索的基础,能够对各类文档进行语义分析,提高检索的查准率和查全率。建立法律本体,正是以人工智能的方式克服法律语言模糊性的一种实践尝试。

(三)人工智能对经验性法律知识的获取

从人工智能所关心的知识分类角度来看,可以发现人工智能研究并非只关注理性和数理的知识, 也关注经验和直觉的知识。法学不仅是一种纯粹理性的、思辨的学科,它的构成包括三种知识:思辨 理性、实践理性和记忆。任何一个学科都不仅仅是一种可以言说的知识,一套自洽、不矛盾的命题,一 套可以演绎成篇的逻辑,而且是一种话语的实践,一种参与者的反复训练。那种过分强调思辨的、纯粹的、可言说的法律知识有时甚至也是荒唐的。 若要保证一个智能程序高水平的运行,则需要有关的事实知识、规则知识、控制知识和元知识。其中,规则知识是有关问题中与事物的行动、动作相关联的因果关系知识,是动态的。特别是启发式规则,它是专家提供的专门经验知识,这种知识虽无严格解释,但很有实际应用价值。 人工智能系统所关心的这种规则知识就类似法理学知识中“不可言说”的或“经验性”知识。研究智能机器如何模拟或实现人类对知识的学习行为,是“机器学习”这 一人工智能关键技术的重要研究领域。它是一门研究智能机器获取新知识和新技能,并识别现有知识的技术。通过“机器学习”系统的基本结构图(图2)可知,其中最重要的要素是外部环境向系统提供的信息,信息的质量将严重影响智能机器的学习处理。至于能学习“经验性”知识的人工智能是机器还是人的问题,这不是一个人工智能或法学问题,而是哲学或伦理学问题。当智能机器没有思维或只有类人的思维时,它在司法领域的应用都将是人机协同形式的应用。

人工智能在语音及图像识别领域的成功,启发了人工智能对有效获取经验性法律知识的路径探索。2007年美国斯坦福大学人工智能实验室的李飞飞及普林斯顿大学李凯合作发起了 ImageNet 计 划,通过人工标记的方式建立了一个庞大的图片数据库。 在这一成果基础上,2012 年加拿大科学家杰弗瑞 • 辛顿(Geoffrey Hinton)发表的《用深度卷积神经网络进行图像分类》被视作“机器学习” 新一轮发展的里程碑,文中提到的卷积神经网络模型将图像识别的错误率骤减到16%。由此可知,为智能机器提供海量的数据和不停地训练,它就能识别出新图片中包含的内容。有学者提出,推动智能机器在法律领域的深度学习,必须跨越三个门槛:第一个是足够的数据体量和较高的信息质量;第二个是提取共性规则,研发科学算法;第三个是法律人的深度参与。“机器学习”这一人工智能关键技术的新进展为人工智能法律应用的跨学科研究启发了新思路。(1)建立有效和海量的法律信息数据库;正如上万人对图片的标记做法,法律专家对法律文本的恰当筛选和归类也将起到相同或近似的效果。(2)持续不断地训练;让智能机器不断地对样本进行识别、验证、矫正,并利用神经网络技术从有关领域的样本集中自动获取(学习)该领域的知识,从而逐渐降低错误率和偏离值。尽管人工智能在不同领域的应用各有不同,其在图片识别领域的成功不可能照搬到法律领域,但这一应用研究方向 符合法律知识的特点,值得进行实践予以验证。

三、革新与挑战:从技术辅助到自主决策


人工智能介入司法所带来的革新和挑战,无论是从法律方法论、审判责任归属理论还是法官身份的社会调控功能等角度来看,都围绕着法官应当如何裁判这一司法的根本追问。人工智能不仅是 一次技术层面的革新,还将同步引发社会、经济、教育、思想、文化等方面的变革。随着人工智能技术 在各个领域的不断成熟,它会加速深入渗透各行各业,与传统的模式相结合提升生产力。 机器智能得到提升的同时,其参与人类社会事务的角色也会发生转换,即从技术辅导变成自主决策,随着这一功能转换,人机互动的固有关系也将颠倒。以人工智能的智能发展为线索,可以发现各个智能阶段的司法应用将面临不同程度的挑战。“弱人工智能”阶段,通过总结法律专家系统及司法裁量模型的研发历程可以发现,传统的三段论法律推理并不适宜作为智能系统的最优运行逻辑,何种机器逻辑适合成为法律智能系统的建模逻辑基础,这对人工智能及法律研究人员是首要的挑战。法律智能系统无论是辅助型还是自主决策型,都会直接或间接地产生审判责任的相关问题,如何在法律智能系统参与或主导司法裁决过程中合理分配审判责任,这是对法律智能系统可能出现误差的事先制度性预防。 “强人工智能”阶段,法律智能系统从功能上可以完全取代人类法官,甚至通过法官这一社会角色进入人类社会,产生系统性影响。

(一)机器逻辑:法律方法的人工智能化

法律推理的人工智能研究将法律推理逻辑赋予智能机器,使智能机器模拟人类处理法律事务,但 人工智能有更为复杂的推理技术,这将为法律方法提供新的工具。逻辑是理性认知的必要条件,人工 智能法律推理模型的建立与法律逻辑的关系密不可分,但人工智能的法律逻辑更丰富和综合。人工智能在理解和模拟法律推理方面已有三种方式:根据规则推理,根据案例、假设及先例进行推理,以及 可辩驳推理。当人工智能模拟法律论证时,同样会面对如何在各种冲突观点下进行司法裁判的问题。 法律论证受限于特定的规则和论证形式,涵摄(演绎)是这种说理活动采用的法律推理中纯粹分析性 的推论方式。让涵摄模式对法学方法进行绝对的支配,代价可能就是丧失多样化、多元性、丰富的生 动性以及法律获取的特定的人情内涵。考夫曼把这种只会运用涵摄的法官视为从事着非此即彼二值运算的计算机,对不确定性和模糊性完全没有包容度。这样的推理逻辑使得无论是法律规则还 是案件事实都具备“可建构性”,从而大前提、小前提和结论之间不存在必然的推导过程,更有批评者 将其贬斥为一种司法修辞。广义上的法律论证模式并非只有演绎,还包括归纳、类比、设证,人工智能的推理逻辑将采用其特有的技术工具,它不是一种单向度的法律推理,而是以非单一性逻辑(如道义 逻辑、逆向推理逻辑和可废止逻辑)建构推理系统

技术辅助阶段的智能系统可以模仿法官根据规则或案例进行推理,在处理类型化案件时,它将发 挥更好的司法办案辅助作用,如国外早期的LDS 系统和我国目前正在研发的智能辅助办案系统等。 随着人们对三段论机械推理模式的怀疑,学者们开始关注和建构非单一性逻辑法律推理系统,它能模拟各种论证的程序。因此,在建构人工智能司法决策系统的过程中,不可避免地要先对法律方法中法律论证和法律推理的适用问题进行回应。人工智能介入司法,将导致传统法律方法的人工智能化。 以涵摄作为法律论证基本框架的方法结构,早期的法律专家系统成了一种“涵摄机器”,完成“信息输 入—结果输出”,采用涵摄的简单模式即司法三段论,这样推理的缺陷和局限是明显的。20 世纪 90 年代起的法律专家系统的建构开始注重类比的方法,如HYPO能够衡量案件的相关性。此后,人工智能和法律推理研究对非单一性逻辑模型的建构,使得这一法律方法的司法实践带有人工智能色彩,也预示着只有司法决策系统才能够既稳定又可复制地进行非单一逻辑法律推理。

(二)机器责任:对审判责任理论的扩充

机器参与或主导的司法裁判出现错案时,审判责任在法官、智能系统和研发人员之间的分配应当有恰当的制度性安排。联合国教科文组织和世界科学知识与技术伦理委员会的报告(2015)探讨了一个复杂的问题,即在制造一个机器人需要不同专家和部门合作的情况下,谁该为机器人的某次操作失灵负责任。随着科学技术不断进步和市场需求不断增长,机器人的自由和自主性也在提升,这个问题就显得尤为重要。报告提出了两种解决办法,一是让各部门分担责任,二是让智能机器人承担责任。在法律领域,若智能机器因操作失灵或其自身算法不足导致对案件提出了错误的法律意见,责任的归属问题更需要谨慎对待,因为不公或错误的裁判会导致司法权威的丧失。美国威斯康星州诉卢米斯一案(Wisconsin v. Loomis)中以 COMPAS 系统评估报告为依据指导定罪量刑的做法就受到了公众的广泛质疑。2013年初,威斯康星州指控卢米斯涉嫌在拉克罗斯的一场飞车枪击事件中有五项犯罪,法院最终根据一款累犯风险评估的系统COMPAS,判处卢米斯6年监禁和5年的长期监督。COMPAS 系统背后的方法是商业秘密,因此既没有向法院披露,也没有向被告披露。法庭对评估报告的使用类似对法官自由裁量权的行使,但仅依据电脑评估报告而不是更为精确的信息进行判决,当事后发现评估报告存在技术漏洞或出现新证据证明裁判错误时,审判责任的归属和划分将含糊不清。

在我国,何谓审判责任?不论是在学理上还是在实践中,审判责任的概念并不清晰,长期以来对 此亦未给予足够关注。简而言之,审判责任就是审判主体对案件的审理与判决所应承担的法律责任。 从广义上看,除了违法审判责任之外,审判责任还包括事实瑕疵、证据瑕疵、法律瑕疵、文书瑕疵等审判瑕疵责任,以及职业纪律责任等。如果引入机器辅助审判,在机器算法不合理或不正当的情况下导致案件出现错判,审判者将面临以下三方面问题:(1)对于错案是由机器提供的错误信息导致时 (简称“机器责任” ),审判者通常难以审查机器算法的合理性和正当性,即便获得计算机专家的帮 助,也有可能受制于当时科技水平而不能及时查证;(2)审判者仅凭一般认知即可识别机器提供的信息有偏差,但仍以此为据做出裁判时,是否应被认定为重大过失;(3)若审判者依据机器提供的信息做出裁判,但随着科技的进步发现该信息有误,审判者能否以“机器责任”为由免责。由此可见,当机器辅助审判普遍推行时,这将会对现行审判责任认定规则产生一定的冲击。“机器责任”将作为一个新 的概念,它的内含有三种可能:(1)“机器责任”是作为审判者免责的专有名词;(2)机器成为责任主体中的一类,由立法机构在相关法律中进行规定;(3)机器获得完整的法律拟制人格,独自承担审判责任。

(三)机器法官:对法官职业身份的解构

智能机器将逐步获得“电子人格”“公民”等身份,并在具体的应用领域获得职业身份,但智能机器获得法律领域的法官职业身份则会改变该身份本身的内涵。2017年10月,沙特阿拉伯王国授予“女性”机器人索菲娅公民身份,这是历史上首个机器人获得公民身份。按照社会是一个有机体的观点, 当机器人获得公民身份时,这必然不是一件单独事件而会在社会层面产生一系列连锁反应。在法律领域,当这位拥有公民身份的机器人同时具备法官的职业能力时,机器人将有可能通过相应的遴选制度成为法官。这暗含了机器人成为法官需要满足的三个条件:一是公民身份;二是法律职业能力;三 是符合法定条件和通过法定程序。目前,大多数国家都把法律专业知识、法律职业经验和法律职业伦理作为法官遴选的最重要考核指标。第一,在法律专业知识方面,智能机器通过深度学习和海量法律知识数据库则可以满足这项标准;第二,以人工智能技术实现机器深度学习经验性知识为前提条件, 智能机器可以不受时间限制地直接、高效获得职业经验;第三,法官必须具备以下职业伦理:诚实正直、良好的品行操守、公正公平、礼貌与仁慈、对社会的理解与责任。当智能机器不具有意志时,其伦理观念由计算机研究人员按照一定的规则设定;当智能机器具有意志时,这本身就是对人类伦理的极大挑战,同时也意味着可以用目前测试人类是否符合法官职业伦理的方法来判断智能机器。

当智能机器获得了公民身份,满足法律职业伦理的标准,且符合担任法官必须具备的其他条件 时,则有资格成为机器人法官。值得注意的是,智能机器获得主体身份后可以通过每一个职业领域嵌 入整个人类社会,这将不再是类似辅助型智能系统对人类办公效率方面的助益,而是对全社会的系统 性影响。这就是机器人法官与会审案件的计算机的不同之处,前者除职业身份之外还会具有其他社 会身份,在人与机器人、机器人与机器人之间产生各种社会关系;后者仅仅是一种专家系统,负责处理 指定事项,对整个社会并不会产生其他面向的影响。智能机器人成为公民甚至法官,这将是科技革命 给人的本质带来的严峻挑战,智能机器进入人类职业生存空间是一种挤占行为,还是一种将人类从烦 琐事务中解放出来的替代行为,这将取决于人类对生存意义的新探寻。

四、人工智能司法决策模型构的限度


人工智能技术的发展现已突破了一定阈值,其中智能机器的语音、语义、图像等方面识别能力已 经达到了人类水平。“弱人工智能”的这种突破性发展将使得各种应用场景的法律空白逐步凸显出来,事先或事后立法可以进行一定的应对,但对于“强人工智能”而言,则必须尽早制定技术发展的基本法则。霍金曾发表题为《让人工智能造福人类及其赖以生存的家园》的主题演讲,指出人工智能的崛起可能是人类文明的终结,建议人类必须建立有效机制尽早识别威胁所在,防止新科技(人工智能) 对人类带来的威胁进一步上升。人们应当达成安全发展人工智能技术的共识,并且在各个领域分类制定相应的发展基本法则。尽管,目前并未形成具有强制约束力的国际通行人工智能基本定律,但这将是人工智能技术不断发展,尤其是从“弱人工智能”向“强人工智能”发展的必然要求。基本定律将是社会各界对确保人工智能安全发展的原则性共识,也将是一系列通过立法确定的具体法律规定。 人工智能在不同领域的应用各具目的,基本定律难以针对各个领域的特征进行有效规制。因此,在人工智能的司法应用领域,应当制定具有体系性和前瞻性的基本法则,明确人工智能介入司法的限度。

(一)司法决策模型:成为一种有益人工智能

人工智能必须遵守的基本定律应当是一套维系良好人机关系的伦理规则,它是人类保证人工智能技术安全发展的基本规范。目前,各国尚未制定具有法律效力的人工智能基本定律,2016年欧洲议会向欧盟委员会提出的关于人工智能和机器人的报告指出,机器人将给人类带来的风险主要包括:人类安全、健康和安全、隐私、正直和尊严、自主和非歧视,以及个人信息数据保护。为了应对这些风险, 欧洲议会讨论了未来可能面对的道德挑战以及应对的监管措施。在报告中的“责任”部分呼吁“为机 器人长期创造一个特定的法律地位,这样最高端的自主型机器人至少可以获得电子人格的身份,从而享有明确的权利并承担相应的义务,包括对其可能造成的损害承担责任;同时,在机器人独立决策或与第三方自主互动的情况下,也适用电子人格”。人工智能在一些领域的应用已经足够自主,自主决策型机器人在执行任务前需要确定根据何种规则进行选择,否则它不仅无法达到人类对其预设的目标,也可能在遇到伦理困境时做出不恰当的选择。只有当算法满足人工智能基本定律时,智能机器人才符合进入人类社会领域的安全要求。而智能机器人在人机交互中扮演何种角色,这将视具体的应用领域而言,以及人类对其身份的认定,即允许智能机器人与人类产生何种社会关系。 

就司法领域而言,从技术辅助到司法决策两个智能阶段应遵循的技术开发规则可以参考阿西洛马人工智能原则来制定。2017 年阿西洛马会议提出的23条人工智能原则是为发展有益的人工智能技术提供的指引,它是人们在研发人工智能技术过程中应当遵循的非强制性内在道德标准和价值观念。其中不仅规定了一般的伦理规则,还专设第8条规定司法透明的内容,即任何自主型系统参与司 法决策,都应由人类的有关主管机构提供一个令人满意的解释以备查。参考阿西洛马人工智能原则, 人工智能司法决策系统应符合的基本定律内容主要涉及三个方面。一是研究的主题,包括:(1)以有益的人工智能研究为目的;(2)资助旨在为解决棘手的法律问题而开展的有益人工智能研究;(3)研究 人员与决策者之间应进行建设性和健康的交流;(4)研究人员和开发人员之间应该培养一种合作、信任和透明的文化;(5)开发团队应当积极配合以避免在安全标准上偷工减料(corner-cutting)。二是道德和价值观方面,主要涉及以下内容:(1)安全;(2)错误可追查;(3)司法透明;(4)研发人员责任;(5)价值定位;(6)人类价值观;(7)个人数据附条件开放;(8)自由与隐私;(9)共享经济;(10)共享繁荣;(11)决策权;(12)非颠覆性;(13)禁止人工智能军备竞赛。三是应长期注重的问题:(1)智能警告;(2)重要性;(3)风险; (4)递归自我完善;(5)公共利益。阿西洛马人工智能原则可以被视作人工智能定律的雏形,但其仍有不完善之处,它仅仅是对人类开发人工智能的原则性规定,没有涉及智能机器人与人的关系问题,这个问题的重要性将逐渐在具体应用上呈现出来,如承担看护职能的社会机器人。由此可见,在基本定律没有全面制定及上升到立法层面之前,司法领域应当对智能机器人的司法决策持谨慎态度,并有意识地将社会和文化意义融入系统的设计中。研究人类与智能机器人之间的互动和社会反应,是塑造这些问题的伦理、社会和法律观点的前提条件。通过了解人们对机器人的接受程度以及机器人在社会中可能产生的影响,设计者在研发时可以更全面地对安全性进行考虑,具有社会责任意识的决策型机器人才是有益的人工智能,才能够安全引入人类社会以及各专业领域。

(二)建构符合人类正义观的司法决策模型

人工智能的司法应用,除以人工智能基本定律为技术安全前提外,还应以公正为根本的价值导向。公平与正义是一种情感,无法通过纯理性的逻辑推理获得。但司法理性是司法权威的正当性基础, 也是人工智能司法裁决在实践中具有事实约束力的必然要求。一套普遍适用的司法决策系统应当能成为正确适用法律裁判案件的典范,如同法官一样是法律公正的化身,具有内在法律品质。统一法律适用是该系统的功能诉求,换言之,该系统应当能够实现同案同判,在最大程度上避免人为因素干扰而引发司法不公。当然,该系统也需具备审理疑难案件的能力,能够通过司法填补法律漏洞,并进行充分的论证说理。 法律信息检索系统的研发以便捷为目的来开展,但司法辅助或决策系统首先以司法理性为目标进行建构。司法理性是司法公正的必要条件,法律逻辑是通往司法理性的工具。 法律逻辑本身不是一个能够完全从逻辑的角度来加以界定的概念,正如存在不同的逻辑系统,它们本身并没有优劣之分,所以对法律逻辑也有不同的理解,对此的选择是个合目的性和适当性的问题。 早期的法律专家系统OSCAR采用可辩驳推理,它让裁判者在司法过程中对各种价值准则进行选择、 评价以致达到一个公正的判断。纯理性的逻辑推理可以最大化法的安定性,这个推理过程排斥因法律的复杂性所带来的裁判结果的不确定性。但是,不完全相同的法律案件和语义模糊的法律条文使得裁判的过程具有复杂性和不确定性,司法决策模型只有比人类法官更能稳定和理性地与复杂性和不确定性共存,才是它在司法过程中发挥辅助和决策作用的价值所在。

从程序正义、实质正义以及司法效率这几方面来看,人工智能都有助于兼顾公正与效率。优质的案例库与恰当的法律逻辑是人工智能具备实质理性的必要条件,人工智能的机器学习能力具有人类 所不能企及的优势,它可以用一秒钟阅读100万页判例法的效率进行积累,尽管它的运行结果在初期会存在部分错误,但是这个出错的过程也是一个机器学习的过程。另外,借助计算机严格执行程序的特性可以让程序正义在每一个案件中都得到实现。但人工智能也存在一些难以有效适应法律复杂性的隐患,例如,(1)技术不完善:在弱人工智能阶段,简单的系统只能机械适用法条处理高度类型化的案件,即便是采用可辩驳推理的法律专家系统,也可能因为没有大量优质案例而无法实现更高智能的辅助裁判或自主进行司法决策,若将这类系统普遍应用于处理司法案件,则可能出现为了追求司法效率而牺牲司法公正的情形。(2)算法歧视:算法正确并不等于司法正义,算法的好坏取决于使用数据的好坏,而数据可能仅仅反映出更大的社会范围内持续存在着的歧视,歧视在很多情况下都是算法的副产品,是算法的一个难以预料的、无意识的属性,而非编程人员有意识的选择,算法歧视使得司法决策系统做出不公的判断。(3)算法黑箱:因商业秘密、技术的复杂性以及机器学习结果的不可预知性,算法像是一个封闭的黑箱,其内容的不透明使得人们难以了解算法的内在工作机制,算法黑箱使得司法决策系统进行裁判时的说理和论证变得无法审阅。

(三)司法决策模型建构中算法黑箱的有限度规制

算法黑箱会导致司法决策系统的裁判逻辑不透明,司法决策系统的公正性和有效性将受到质疑算法具有不透明性,对算法的规制应当根据不透明属性的特征展开。算法的不透明性有三种形式:一 是因商业秘密或国家秘密而产生的不透明,二是因技术文盲而产生的不透明,三是机器学习算法的特性而产生的不透明。针对不同的形式,对算法有限度公开的方式和意义均有不同。对于缺少专业技能的社会大众而言,算法不具有普遍的可读性,因此由专业技术人员和法律人员组成的审查机构则可以解决算法在这一形式上的不透明性。机器学习算法会因数据的好坏而产生难以预料的结果,这种不透明性应在设计时有意识地规避和改进,适用于司法领域的决策系统应当建立在优质案例库以及代码可追查的基础上。还有保护商业秘密而产生的不透明和保护国家机密而产生的不透明,在保护商业秘密的同时有限度地公开算法,使代码可用于审查司法裁决系统的裁判是否符合人类的法律论证。所谓有限度地公开,即指算法的公开需附一定条件,且仅向审查机构公开,负责核查的人员负有保密义务。对于保护国家机密而产生的不透明,专设独立机构对代码进行审查,且审查结果仅用于 判断司法决策系统的运行是否与司法公正相悖。当然,上述限度仍需谨慎推敲,既要避免私权利受限对科技创新产生抑制作用,也要防止以公共利益为名侵害私权利。

对于新技术予以规制要警惕牺牲它的使用价值。人工智能在辅助司法办案或进行自主决策过程中能够发挥多种使用价值,如破除各办案部门间存在的信息不对称、最大程度提高办案效率、减少错案促进公正等。但人工智能的神经网络算法不同于符号算法,其采用一种非线性的逻辑方式,无法用线性思维反向推理。由此,事后审查机器如何做出司法决策结果则很难精准有效地进行。但反观人类自身,司法审判展现出的只是人类思维的一部分,判决书也无法全部体现法官做出裁判的各方面思考和受到的影响。人类的审判思维尚且无法全程留痕以备审查,只能从行为及结果中做出反向推理 并搜集线索进行验证。因此,在人工智能司法决策模型的建构过程中,对算法黑箱的规制不应持未来主义文学对人工智能的担忧态度,而可以采用一种最低程度的干预。

五、结语

在智能技术进入自适应学习、自主学习阶段,高可解释性、强泛化能力的人工智能也成为现实,人 工智能自主司法决策将不再遥不可及。人工智能具有如不确定性推理、非单调推理、消解原理、规则演绎系统、产生式系统等先进的推理技术和系统来求解复杂的问题,这使得人工智能有望掌握法律论证综合方法,并通过利用法律语料库统计方法和统计与规则并举的方法进行法律语言“理解”研究, 来克服法律语言模糊性对司法推理的阻碍。智能机器学习经验性法律知识的可能路径主要是通过建立优质且海量的法律信息库,并对智能机器反复训练以降低错误率和偏离值。不过,前所未有的技术进步将打破人机互动的固有格局,从机器辅助人的司法决策转变为人机协同不分主次的合作关系。 机器对人的辅助是为了让司法决策成为一个稳定的理性决断,人机协同进行司法决策是为了预防机械裁判使形式理性极端化。因此,人工智能司法决策模型的建构不得逾越相应的限度,遵循国际通行的人工智能基本定律是为了保证司法决策系统是一种有益的人工智能,从而避免整个社会的系统性风险;制定法律领域的特定规范要求是为了智能机器参与或主导司法裁判时兼顾效率和公正,使得每一个判决都不会减损司法权威,确保人工智能介入司法决策的正当性;对算法进行合理规制,是为了在最大程度上降低算法的不透明性,但又在最低限度上干预技术进步。人工智能技术将为人类带来机器人法官,但要预防以牺牲司法公正为代价。只有通过科技手段实现对司法公正的无限接近,才是 机器人法官的应有之义。


(责任编辑:陆宇峰)

(推送编辑:罗    倩)



关注我们


本文原载于《华东政法大学学报》2019年第1期。若欲下载或阅读本文PDF文档,请点击下方阅读原文,欢迎订阅并分享华政学报(微信号ECUPL-JOURNAL)。


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存