近年来,提升司法领域的信息化与智能化,利用大数据与人工智能技术解决司法难题,已经成为我国司法发展的重要战略。2016年中共中央办公厅、国务院办公厅印发的《国家信息化发展战略纲要》(中办发〔2016〕48号)强调:“实施‘科技强检’,推进检察工作现代化。建设‘智慧法院’,提高案件受理、审判、执行、监督等各环节信息化水平,推动执法司法信息公开,促进司法公平正义。”2017年国务院印发的《新一代人工智能发展规划》(国发〔2017〕35号)中提出,应当推进“智慧法庭”建设,“建设集审判、人员、数据应用、司法公开和动态监控于一体的智慧法庭数据平台,促进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,实现法院审判体系和审判能力智能化”。针对中央部署,法院、检察院对智慧司法建设工作进行了积极部署。例如上海市高级人民法院研发了“上海刑事案件智能辅助办案系统”(又称“206”系统),尝试解决刑事案件办案中存在的“证据标准适用不统一、办案程序不规范等问题”;贵州省高级人民法院探索建立了“类案类判”机制,对异常审判结果进行预警,辅助法官实现类似案件法律适用的统一。随着ChatGPT等人工智能技术的突破,人工智能司法问题进一步引发了人们的关注。美国明尼苏达州大学法学院的随机盲测实验表明,ChatGPT通过了其法学院的所有真实考试,尽管其分数不是太高。如果人工智能技术可以比人类做得更好,那么人工智能是否真的具有替代或者至少辅助法官或检察官的可能?事实上,哥伦比亚的一名法官(Juan Manuel Padilla Garcia)已经利用ChatGPT辅助审判,并明确表示判决书中包含了其输入ChatGPT的问答结果;该法官认为,ChatGPT虽然不能代替法官进行判断,但可以利用人工智能“扩展所通过裁决的论点”;在判决书中,该法官说明了其对于ChatGPT回答的认同,并且提供了自己的法律论据。这一例证表明,人工智能司法的实践应用价值正在不断提高。虽然如此,人工智能司法却面临重重质疑。很多研究表明,人工智能司法可能面临种种问题:人工智能可能带来错误判决,与司法追求的公平正义价值并不契合;人工智能可能导致裁判规则的僵化,无法适应复杂案件的判决;人工智能可能导致算法黑箱和司法的不透明性;人工智能可能剥夺人们对于司法的亲历感,损害司法权威。相比人工智能在电商、资讯、自动驾驶、医疗等领域的应用,人工智能在司法领域的应用一直存在较大争议。在实践中,法官与检察官也对人工智能辅助司法的机制存在众多困惑。如,当人工智能对于某个法律问题给出自己的答案,此时人类法官或检察官是否必须参照?当人类法官或检察官与人工智能给出的答案不一致时,此时是否需要进行解释说明,甚至需要提交审委会讨论?对于人工智能的算法决策,是否应当要求将算法对当事人和法官或检察官完全公开?如果不同司法机关和不同层级法院都配备了同一套人工智能系统,司法机关之间相互配合与制约的制度设计和审级制度设计是否将变得没有意义? 本文的研究建立在已有研究的基础上,但将更多聚焦人工智能司法的特殊性,并在分析人工智能司法人机交互决策方面问题的基础上,分析人工智能辅助司法可能存在的隐患,并尝试对智慧时代的人机交互司法决策制度进行重构。
二、作为规范性技术的人工智能司法
现代法治发展中,一直存在用机器替代法官或检察官的想象。德国社会学家马克思·韦伯曾经将现代社会的司法比喻为自动售货:“现代的法官是自动售货机,民众投进去的是诉状和诉讼费,吐出来的是判决和从法典上抄下来的理由。”规制理论中经典的“传送带理论(transmission belt theory)”也认为法治的核心要义就是将立法者的意志“传送”给行政规制机构。而当法官宣誓就职或描述自身职业时,也不时会将自己比喻为严格遵守法律的机器,在审判活动中排除任何个人感情色彩。上述理论或者比喻都隐含了某种法治的想象:用机器实现更好的法治,排除法治中的人为判断或价值判断。但法理学的研究表明,司法决策本质上是一种规范性活动,无论是人类还是人工智能法官或检察官,都不可避免需要进行价值判断。1.法律解释必然伴随价值判断。无论是人类还是人工智能法官或检察官,都需要在其解释活动或程序中确定,文义解释、历史解释、体系解释、目的解释等诸种解释方法中何者具有优先性。从司法的基础理论来看,法律解释方法中并没有必然的优先性方法,例如字面解释可能有利于文意的精确性,但未必有利于立法意图和法律目的的实现,也未必符合当下公众的预期。而且即使选择了某种解释方法,也还需要进一步对某种解释方法进行价值判断。例如字面解释是采取通用词典的解释,还是法律类词典解释?立法解释是以起草者、批准者还是更广义的人民意志为准?目的解释是以立法时的政策目的还是以当下的政策目的为准?体系解释应当着重某个重点条文还是应当着重法律的整体性分析?2.法律推理必然伴随价值判断。(1)就演绎推理来说,演绎推理的有效性依赖于推理的大前提与小前提。例如对于“消费者有权获得多倍赔偿”这样一个大前提,司法者需要进行判断,《消费者权益保护法》与《食品安全法》中对于消费者的界定是否相同?对于职业索赔人是否属于消费者这个小前提,法律推理也要进一步判断。(2)归纳推理亦是如此。归纳推理的本质在于基于过往经验对未来进行预测,而未来的决策却依赖于人的判断与行动。即使人类或人工智能司法通过归纳得出结论,过去的某类案件判决都类似,也不能得出未来就应该如此判决的结论。中国很多法院曾经一度将职业索赔人视为消费者,但后来逐渐改变了立场。美国法院则曾经在所有的判决中都认可了白人和黑人的种族隔离符合美国宪法,但最终却通过判决推翻了“隔离且平等(separate but equal)”的教义。(3)类比推理也存在与归纳推理类似的问题。人工智能主要通过类比推理来寻找相似案件,从而为司法提供决策依据或参考,但基于人工智能的类比推理无法离开实质性的价值判断。例如,职业索赔人是否属于消费者?偶尔参与知假买假活动的个体是否属于消费者或职业索赔人?对于此类问题,无论是人类还是人工智能司法要作出妥当判断,都必须依赖价值判断。 从司法价值判断的属性出发,就可以理解人工智能司法应用的特殊性。目前,人工智能系统大致可以分为两类:一类是传统上基于规则的专家系统(rule-based expert system),另一类则是近十几年来兴起的机器学习等预测性算法。专家系统一般由综合数据库、知识库和推理机三个主要部分组成。世界范围内的综合数据库包含求解问题的事实和断言;知识库包含所有用“如果:〈前提〉,于是:〈结果〉”形式表达的知识规则;推理机(又称规则解释器)的任务是运用控制策略找到可以应用的规则。预测性算法主要通过海量数据的训练,不断增加算法决策在概率上的准确性。例如,ChatGPT通过人类监督学习(supervised learning)和强化(reinforcement learning)来改进其反馈,通过贝叶斯等算法来增强其概率上的正确性。在当前人工智能所运用的场景中,很多领域都具有计算性或预测性特征。例如商业个性化推荐、内容生成、自动驾驶、智慧医疗,这些领域的人工智能之所以能替代人类,主要是因为人工智能在这些领域可以比人类提供更为精准的计算或预测。甚至在律所等法律服务业中,人工智能也可以实现更为准确的预测。但人工智能辅助司法审判与这两类人工智能决策都有不同。人工智能司法的特殊性在于它是一种规范性技术,而不是计算性技术或预测性技术。这种规范性技术更接近于莱西格(Lawrence Lessig)教授所提出的“代码即法律”(code as law)的判断,或者荷兰蒂尔堡大学的库普斯(Bert - Jaap Koops)教授提出的“规范性科技”(normative technology)概念,其本质在于司法决策权从人类司法者转移到代码或代码设计者。
1.人工智能司法可能带来规则适用僵化的风险。在司法过程中,规则对于具体案件结果具有重要影响,但却并非唯一因素。法理学的研究指出,法律至少包括规则(rules)和标准(standard),规则强调非黑即白,而标准却强调个案判断的合理性,适用规则还是适用标准各有优劣。适用规则可以带来非黑即白的确定性,但却可能导致规则僵化,不利于作出具有合理性的个案判决。很多部门法也做了类似的区别,例如竞争法、财产法、知识产权法的研究表明,这些部门法中存在大量的标准或所谓的合理性规则(rule of reason),简单适用规则将造成法律体系的僵化。这些研究结论对于人工智能司法发展具有重要借鉴意义。法治应当在个案中结合规则和标准,实现负责任的判断,完全简单依赖规则的法律适用将无法实现真正的良法善治。正如理查德·雷(Richard M. Re)和艾丽西亚·索洛·尼德曼(Alicia Solow - Niederman)两位教授所言,人工智能裁决的结果将会促使司法向“代码化正义(codified justice)”转变,“倾向于标准化而非自由裁量权的裁决范式”。如果简单地以人工智能的裁判规则作为司法的最终裁判依据,那么其结果很可能导致大量案件裁判规则的僵化。
4.人工智能司法将面临算法黑箱决策带来的各类问题。人工智能算法可能会出现系统性偏差,例如在数据库系统的建设过程中,类案检索系统的参数设置可能不合理。人工智能系统也可能会歧视某些特定群体,例如可能对某些“地域与社会经济状态较差的人群”进行系统性歧视。此类歧视常常隐藏在人工智能算法的代码之中,而算法又难以被普通人理解,且还可能受到商业秘密的保护。此外,人工智能所依赖的大数据也可能存在错误或歧视。人工智能司法发展必然建立在过往的案例数据与相关数据基础上,如果数据存在“垃圾进、垃圾出(garbage in,garbage out)”的情形,或被用于训练人工智能司法的判决或数据隐含不公或歧视,那么人工智能所给出的结论也可能存在偏见与错误。在国外,人工智能司法辅助系统所引起的公正性问题已经引起广泛关注。其中最为著名的是威斯康星州的卢米斯案(State v. Loomis)。在该案中,卢米斯因为交通事故逃逸等五项罪名而被起诉,该州的巡回法院在审判时运用了COMPAS系统作为量刑的辅助参照工具,对此卢米斯提起诉讼,认为法院剥夺了其正当程序的权利,没有根据准确信息对其进行审判,而且存在性别歧视的嫌疑。在此案中,威斯康星州最高法院虽然最终驳回了卢米斯的诉讼请求,但法院也对司法过程使用人工智能进行了警示。法院限定了此类评估软件所使用的范围与方式,明确要求此类软件不能被用于“确定罪犯是否被监禁”或“确定判决的严重程度”。对于量刑评估之外的因素,法院要求法官必须明确在判决中进行解释,而且要求法官特别注意此类软件对于少数群体的影响。卢米斯案虽然是发生在美国的个案,但这一案例对于中国人工智能司法建设中的实体公正与程序公正问题具有重要的警示意义。人工智能算法还可能存在程序性问题。算法决策具有两面性,对于信任人工智能的当事人来说,算法决策可以避免司法人员的介入,因而其裁判结果更容易为当事人所接受。但对于不信任人工智能的当事人来说,算法决策意味着对其正当程序权利的剥夺。耶鲁大学法学院教授汤姆·泰勒教授曾在其经典研究中表明,很多时候人们遵守法律是因为程序性的公正。当个体在和司法机关进行互动的时候,如果个体能够有效地参与司法过程,在司法过程中表达自己的观点,那么个体将能更多地信任司法程序的公正性。同样,当司法机关将个体视为有尊严的个体进行对待,那么个体对于司法的结果也将更为尊重。在人工智能裁判中,司法对于个体的尊重将会面临不少挑战,因为个体有可能被视为“一系列的数字和可能性,而不是一个具有尊严的人”。因此,如果人工智能司法辅助系统不注意合理的程序性设置,个体可能就无法感受到对司法的参与;而个人的司法亲历性一旦缺乏,那么即使人工智能给出了合理有效的司法建议,其也无法获得当事人的认可。
五、司法人机交互决策的制度设计
为了最大程度发挥人工智能辅助系统对于司法的辅助功能,避免人工智能司法系统所出现的种种问题,有必要从多个层面对人工智能司法中的人机交互决策制度进行设计。(一) 弥散性与人类主体性决策首先,人工智能司法应坚持其辅助性定位,坚持以法官或检察官为中心的弥散性与主体决策体制。这首先是因为,司法的首要目标在于个案的公平正义而非裁判的效率。在传统司法制度的设计中,就可以看到这一点。例如各国的司法制度都强调开庭审理、原被告进行质证、辩驳的权利,如果仅从司法效率来看,这些制度的设计都无必要,法院只要依据文字材料进行审理即可。司法制度之所以广泛采取这些制度,其主要原因之一是希望通过此类程序更多地了解事实,作出更为谨慎的判断。因此,人工智能辅助司法不应将效率视为其主要目标,不应为了追求司法效率而牺牲司法的审慎。正如伍德罗·哈特佐格(Woodrow Hartzog)等学者所指出,司法“在某种程度上都是没有效率的。它需要花费时间与资源来进行侦查、调查、起诉与审判”,司法的非高效性是良法善治不可或缺的一部分,因为正是司法的非高效性使得法治变得更为谨慎、思辨与理性。其次,法官或者检察官自带各类司法大数据,并且常常具备人工智能所不具备的各类“隐性知识”和“实践理性”。法官并非法律的机械应用者,或者是某些“传送带”理论中所设想的那种消极法律适用者。相反,法官身上也具有大量的司法信息和数据,特别是对于一些有长期司法经验的法官或检察官来说,由于他们有长期的司法经验,又有丰富的生活阅历,因此他们身上的显性与隐性“司法大数据”更加丰富,对相关司法案例的判断也往往会比年轻的法官或检察官更为合理。而这些知识往往难以通过人工智能或文本的方式进行传授。法理学的研究表明,法官或检察官的很多知识属于“隐性知识”,难以通过书面或形式化的方式加以归纳和总结,就像对于如何骑自行车很难通过文字的方式进行描述一样;其所使用的“实践理性”方法也包含了“掌故、内省、想象、常识、设身处地、动机考察、言说者的权威、隐喻、类推、先例、习惯、记忆‘经历’直接以及归纳”等多种方法,这些方法也难以为文本所阐述。因此,尽管人工智能具备某些特点,但人类司法者也有其独特的信息优势。再次,人类司法者具有与法律共同体和社会共同体的深度交流优势。法官或检察官身处法律共同体之中,其所接受的法学教育与法律实践深受法律共同体的影响,这使得他们对于法律的理解受到法律解释共同体的影响,对法律的解释将不会过于偏离法律共同体的理解。此外,法官或检察官也是社会共同体的一员,其对于法律的理解与判断必然受到社会普通公民对于法律理解的影响。相比之下,基于人工智能的算法裁判虽然在信息收集的全面性、有效性、统一性等方面具有优势,但却常常难以有效地将法律职业共同体的价值判断及时融入系统中。此外,人工智能在把握社会共同价值观方面也并不擅长,很难将社会共同体的价值观融入司法审判中,并通过司法判决对社会民意作出理性引导。最后,人类司法者的个性化与弥散化决策也是司法制度的优点。同一审级的法官或检察官对同样一个案件作出不同的判决,这不仅在各国的司法制度中极为普遍,而且在司法原理上也具有正当性。在一些具有争议性的案件中,不同判决可以为法律提供竞争性解释,而且此类不同判决也可以通过上级法院的裁判而实现统一。相反,如果在所有的争议性案件中都只有一种裁判,则一旦此类裁判出现错误,就可能成为整个司法系统的错误,而且由于缺乏不同意见,此类错误将更容易被忽视。相比单一化的司法决策,基于人类司法者的个性化与弥散化决策可以更好地实现分散决策与集中决策的统一。(二) 实验性与合意性的人机交互权重在人工智能辅助司法者的共识下,人机决策的各自权重依然是一个难题。一种做法是不给人工智能以任何权重或给予相对微小的权重。在不给人工智能以任何权重的情形下,法官或检察官可以完全不理会人工智能,同时,即使当事人选择利用人工智能辅助决策,司法者也完全可以拒绝。而相对微小的权重则是仅赋予人工智能以提示功能,司法者可以参考人工智能给出的答案,但未必需要重视人工智能所给出的任何建议或结论。另一种做法则是给予人工智能以相对较大的权重,例如要求司法者必须参照人工智能裁判,并在司法者具有不同意见的情形下进行裁判说明、集体复核。当然,在二者之间还存在众多其他中间选项,例如由当事人来选择是否运用人工智能辅助裁判。(1)人机交互决策应通过地方或不同司法机关来进行试点,由不同司法机关自行决定人机交互中的各自权重问题。其原因在于,在人工智能技术仍不成熟但却飞速发展的背景下,人工智能对于司法审判的辅助性效果仍不明确。此时,如果贸然对人工智能的决策赋予过大的权重,而人工智能的辅助效果非常有限,则可能导致人工智能不但不能有效辅助司法者,反而带来干扰司法、影响司法的后果。相反,如果对人工智能决策赋予过小的权重,而人工智能又具有良好效果,则人工智能司法就没有充分发挥其应有的作用。对这一问题保持足够的开放性,赋予不同的司法机关以实验的权限,可以更好地处理人机交互的权重设置问题。(2)法院应整体尊重当事人对于人工智能辅助司法使用的合意选择,但在具体权重上应当自行设置。在配备了人工智能辅助系统的司法机关中,如果当事人合意选择或拒绝人工智能辅助审判,司法机关就应当整体上采纳当事人的意见。但即使当事人合意选择完全采用人工智能的审判结果,或者要求司法机关对不符合人工智能建议的裁判进行集体复核,司法机关也应当有权否定当事人的建议。这是因为,赋予当事人以合意选择的权利,有利于司法权威的提升;而确保司法机关对于人机交互权重的规则设定,则有利于同一司法机关的司法规则统一。目前,我国法院系统也大致采用了这一立场。《最高人民法院关于规范和加强人工智能司法应用的意见》规定:“各类用户有权选择是否利用司法人工智能提供的辅助,有权随时退出与人工智能产品和服务的交互”。这一规定意味着,当事人有权合意选择和退出人工智能辅助系统,但法院仍有权设置人工智能在辅助法官审判中的角色与权重。(三) 基于部门分工与审级分层决策智慧司法的不同部门与层级应加强信息共享,促进司法标准的统一化,但司法的统一性应符合司法原理与我国的制度设计。如上所述,我国的横向司法制度设计强调公检法机关分工负责,互相配合,相互制约。这就意味着我国的法律制度其实并未将司法效率作为第一位的目标。相较之下,准确适用法律与公平公正的实现才是司法的首要目标,为了实现司法的公平公正与法律的准确适用,公检法司不同部门在互相配合的同时,应当依法相互制约。司法统一性原则也不应当破坏我国司法系统中的审级制度。审级制度的意义在于确保中央与地方在司法权问题上可以实现良好的集中与分权。一方面,确保全国司法权的统一,具有确保我国法律统一适用的重要意义,这集中反映了我国法律代表全体人民意志和我国单一制国家的特征。另一方面,确保地方各级法院与检察院在法律范围内行使具有地方特征的司法权,有利于我国法律在各地的恰当适用。中国地域广袤,东西部地区、城乡地区差距明显,如果按照全国统一的标准来对所有司法问题进行裁决,并不完全利于实现法律的良好运转,也在实质上违反了法律统一适用的原则。在我国司法的领导决策层面,也可以看到坚持从司法规律来设计人工智能司法的重要性。例如在谈到智慧法院建设的时候,时任最高人民法院院长周强指出,“人工智能在司法领域的应用可以为法官提供很好的服务。但是人工智能不能替代法官的专业,就是人工智能为法官服务,不能够替代法官。”对于智慧检务,时任最高人民检察院检察长张军也指出,“要充分认识到,符合司法机关办案规律、检察机关办案规律,才能成就智慧检务,智慧检务科学化最终要体现在办案质量效率提高、办案能力提升上。智慧检务是要用好智能手段,而不是依赖智能手段。”上述观点表明,我国的智慧司法建设必须要符合司法规律,不能以牺牲司法规律来建设所谓的智慧司法。(四) 司法决策算法的可解释性与可问责性1.为应对人工智能算法决策带来的问题,需要加强算法系统的可解释性。如果司法系统因为人工智能算法而成为一个彻底的黑箱,那么不仅法官或检察官不信任这种系统,当事人也可能对这种系统持怀疑态度。更为糟糕的是,在某些极端情况下,此类黑箱司法系统还可能成为司法腐败的根源,某些腐败分子可能通过技术手段来影响和操控司法结果。(1)对于规制人工智能算法的可解释性,一些国家和地区已经开始立法尝试。例如我国《个人信息保护法》第24条第1款规定:“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正”;第3款规定:“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”欧盟《一般数据保护条例》也规定,当“存在自动化的决策”,数据主体有权知晓“在此类情形下,对于相关逻辑、包括此类处理对于数据主体的预期后果的有效信息”。数据主体也有权反对“完全依靠自动化处理——包括用户画像——对数据主体做出具有法律影响或类似严重影响的决策”。根据这两条规定,我们可以发现,至少在人工智能司法的场景中,受司法所影响的个体应当具有要求相关主体“进行解释的权利(a Right to Explanation)”:数据主体拥有对相关算法的知情权,而且在人工智能司法的场景中具有反对权。(2)简单采取算法公开的方法,并不能解决算法黑箱带来的司法问题。首先,算法的公开与解释常常面临一些技术性的难题,而且即使公开了算法、进行算法解释,也很难为普通人所理解。正如很多研究所指出的,算法往往由很多工程师通力完成,常常连工程师自身也并不能完全理解。而在人工智能与机器学习崛起的时代,算法的公开与解释将变得更加困难,因为机器学习中的算法常常是根据数据训练而不断变动的,而不是事先设计的。在这样的背景下,即使公开人工智能算法,司法专业人员也可能无法理解,更不用说普通人了。对普通人而言,算法公开“听上去很好,但实际上它可能没什么帮助”。2.算法公开有可能导致司法中的律师与当事人利用算法进行“算计”。在司法活动中,律师与当事人基于对司法决策的预测而进行策略性的司法参与和辩护,这并不违反法律职业伦理,因为这种预测并不能准确了解人类司法者的内心,法官或检察官仍然具有对案件的自由裁量权,司法过程仍然具备思辨和理性探讨的空间。但在人工智能司法辅助系统中,如果律师与当事人知晓了系统的算法或算法的某些参数,并且以迎合算法或算法参数的方式来影响人工智能裁决,那么此种影响将会在很大程度上左右裁判结果。目前,有的国家和地区已经对此类问题作出立法应对,例如法国在其《司法改革法》中禁止了对于特定法官的裁判可能进行大数据分析与预测,以防止律师的辩护行为建立在迎合特定法官的基础上。在人工智能辅助司法体系中,算法公开也可能造成类似影响。与普通司法过程中的律师与当事人参与不同,在律师与当事人通过设置参数而影响算法结论的过程中,司法的思辨与理性探讨空间将受到很大影响。3.司法本身就有相对于普通人而言的“黑箱”性质,即使是传统司法,也并非是完全公开的。例如对于庭审过程,各国都拒绝对一般案件进行电视直播式的公开。司法的这种特征固然有一定的弊端,妨碍了普通民众快速准确地理解法律。但这种有限度的“黑箱”也具有众多优点,例如小范围的公开有利于控辩双方进行更为理性的辩驳,有利于法官对于案件进行更为谨慎的判断。在有限公开的背景下,司法裁判也更容易为当事人所接受。否则,如果司法在每个环节均采取完全公开的审判模式,则其过程就可能变成民粹式的大众审判,司法的专业性与权威性将无从保障。 基于以上几点考虑,人工智能算法的公开与可解释性应当有针对性,应当以促进人工智能算法的可问责性为最终目标。对于各类人工智能算法决策体系,应当确保人工智能司法辅助系统从设计到运行的所有阶段都有法律专家的参与。处在后端的各类数据库系统,其可见度往往不像前端的人工智能辅助系统那样受到关注,对于这类系统尤其应当注意强化其可问责性。在一些核心算法上,人工智能司法辅助系统还应当设立法律专业委员会进行审查,以保证其设计符合法律共同体的共识。在审判过程中运用人工智能辅助系统,应当首先向参与司法的当事人解释人工智能司法辅助系统的整体运作机制,确保当事人的知情权与选择权。当事人有权拒绝使用人工智能辅助系统,只有在双方当事人都愿意选择人工智能辅助系统的情形下,法院或检察院才能进行使用。另一方面,一旦双方当事人选择人工智能辅助系统,此时司法机关仅应当承担对于人工智能辅助司法系统进行说明的义务,而非对人工智能算法决策及其结果的说明义务。毕竟,此类情形中的终极裁决者仍然是法官或检察官,而且法官或检察官也不可能理解人工智能算法决策的内在运行机制。