为什么不许有机器人法官
编者按:随着人工智能的发展,AI也逐步渗透进入了法律行业的方方面面,那么未来是否应当允许人工智能作为法官进行裁判呢?本文作者没有从传统的“人工智能是否有能力完成审判”这个角度进行深挖,而是从“人工智能应不应该作为审判者出现”这个角度分析了问题的关键,即“司法中使用机器人法官,恐怕会忽略法律(权利)这概念的另一个同等重要之面向:责任。”文章颇有启发性,值得各位读者耐下心来仔细品读!
文章来源:《月旦法学杂志》2021年08月第315期,170页~195页。因篇幅较长,已略去原文注释。
作者、译者简介
作者简介:Luís Greco 德国柏林洪堡大学法学院教授
译者简介:锺宏彬 我国台湾地区“中研院”法律学研究所博士后研究学者
摘要:电脑能够做出法律问题的裁判和精神鉴定,也能够比最有耐心的人类尝试更多种可能性。但关键是,不应该把这些任务交给电脑。
关键词:人工智能;法官裁判;法官责任;体验生命的脆弱
目 录
一、数据来源与分析方法
二、论文基本情况分析
三、研究热点分析
四、结论
壹、导论
人工智能(Künstliche Intelligenz, KI) 大概是我们身处时代的热门议题。藉由今日这篇思考,我想要探究的问题是,人工智慧的迅速突破,近几十年来甚至已在一些领域大获成功──例如人类有史以来最强的围棋棋手李世乭(Lee Sedol)与电脑程序AlphGo 之间的对弈,最终电脑赢过人类──,是否已经到了能够且容许由电脑做法官工作的地步,未来我们能够且容许机器人法官(Roboter-Richter)吗?正如本文标题已清楚指出,关于「容许」这个问题我的答案是否定(下文参);关于「能够」这问题,我的答案则不那么消极──有点不幸(下文贰)。
生活的所有面向愈来愈数字化和智慧化,这股潮流当然不会遇到法律就转弯。人工智能已被应用于许多法律领域;对于德国法律人而言,以运算法为基础的数据库 Juris和BeckOnline已是家常便饭。机器人律师也已问世;关键词叫做「Legal Tech 」。政府行政也加速数字化;一个重大的划时代变革是「电子化的行政行为」(§ 35a VwVfG)。尽管法官的裁判主要仍由人力做成,但这可能很快也要面临改变;在外国已有一些迹象显示,AI的进展不会在此停顿,例如爱沙尼亚提出相当具体的计划,要让司法权在部分事项使用AI:价额7,000欧元以下的民事案件未来将由机器做判决。美国已有数个州启用COMPAS计划(Correctional Offender Management Profiling for Alternative Sanctions)来做出对于许多刑事执行决策而言至关重要的再犯预测。德国的Beck出版社提供「家事法在线试算」和「遗产法在线试算」,据称许多法官直接援用此计算结果到实际判决中。
这些发展值得欢迎吗?我们应该深入发展这些技术,直到电脑能够完全独立裁判,而我们不再需要生物碳基的法官也没问题吗?
贰、能够这样做吗?
这问题带有较多的、但不完全是科技本质。因为回答这问题的第一步是厘清一个纯规范的问题,亦即目标的定义,运用科技要达成什么目标(下文二)?决定目标之后,才能有意义地讨论有哪些方法可能实现目标。由于这些方法的具体内容属于程序设计师的工作,我身为法律人只能提出下述问题:是否有某些理由让这目标自始不可能达成?──正如不需要是工程师也能判断,从德国柏林出发,不可能单靠骑脚踏车就抵达巴西里约热内卢(下文三)。
我预期大部分人会同意,如果真要有机器人法官的话,它的目标是做出好的法官裁判。我之所以这样预期的重要原因之一,是因为这目标大致上内容空洞,近乎套套逻辑。因此需要对它做一些精确化。
(一) 法官裁判
只有当人们仍然把机器人法官的工作结果称为「法官裁判」,关于机器人法官的讨论才有意义,换言之,在机器人法官相关问题中出现的概念,都必须把人类排除在外。例如「法官裁判」(richterliche Entscheidung) 一词在此应该理解为一个──如果那是由人类做成而不是由机器做成时──可以毫无疑问被分类为法官裁判的动作。
(二) 好裁判
1.较大的问题出现在,当人们尝试将我上述那空洞定义当中的另一个元素,亦即形容词「好的」,装上实质内容时。这里同样也以机器人法官一词当作关键参考点:当一个裁判是由人类做成,而我们会称此裁判为「好的」的情况,相同条件下才能把机器人法官的裁判也称为「好的」。
2.什么时候我们会称人类法官做的裁判是好的?这是个大哉问,对此问题大致上有两种回答方式,一种是高标准的,另一种是低标准的。
(1)高标准的答案:此答案将裁判的「好」连结到内涵丰富的关于正义之想象。
由于这种定义带着风险,可能将人类目前所做的一切都评价为「坏的」,因此这对本文的问题没多少帮助。
(2)低标准的答案:这可能是比较恰当的解法,它采最小内涵,主要是提供一个架构,让人们能够在其中进一步思考。
A.最小内涵首先是采负面表述法:所谓法官裁判的「好」,能够不仅依据量的标准来判断。我们不会仅因为裁判做成迅速或简短而称它好;就算迟来的裁判本身是坏的,也不意味「好」的定义只是快速做成裁判。
若尝试对「好」的定义做正面表述,也许可以借助某种法学图灵测试(einjuristischerTuring-Test)。原版的图灵测试是由人工智能的先驱研究者,英国数学家AlanTuring所发明,用于回答这个问题:机器是否能够思考?Turing称他的测试为「模仿游戏」(imitationgame),由一台机器和一个真人参与此游戏,另一个真人担任问话者,问话者与游戏参与者之间用文字对话。问话者的任务是辨识与他交谈的对象谁是机器、谁是真人,能够成功骗过问话者的机器便通过图灵测试(并能够自豪于自己会思考)。我们也许能说,机器人法官的目标首先在于产生出人们无法辨识为机器做成的裁判;其次才是产生出就算由人类来做也会被评价为好裁判的裁判。
借助这个法学图灵测试可以清楚见到,本文的提问满足于相对的、比较的「好」。本文想要知道机器人法官有无可能做出好裁判;此际,若设定一个人类法官也很难达成的标准,并以此来宣称机器人法官不可能做出好裁判,这是没什么意义的做法。这当然不表示我们那低标准的目标就是天花板;我们完全希望机器能够做出比人类更好的裁判,逐渐发展成有能力做出符合高标准的「好」裁判(前文(1)段)。然而,对于理想的好裁判之追求,于此可以暂时搁置,让我们来讨论更为迫切的问题,亦即实际的好裁判,那是我们今日已达成且不怕失去的。
B.「好」也可能做结构式定义,从各种不同的参考点出发,来定位出什么是好:我们称裁判是好的,因为它的的结论和理由是好的。这做法清楚见于德国学界常见的裁判评析:一则评析可能完全赞同它所谈论的裁判,或者(较常见)只赞同结论,或者(较少见)只赞同其理由。由此观之,机器人法官所做裁判若要称好,该裁判的结论和理由都应该要被认为是好的,如果那是由人类所做而非由机器人所做。
上段所述的结构将法官裁判的「好」区分为两个维度──结果相关与理由相关──,这结构也成为下面讨论的章节架构。前开目标之所以不能达成,可能因为机器人法官没有能力做出好的结论(下文(一)),或者它所提供的裁判理由不可能满足吾人的质量标准(下文(二))。
不能因为个案中不可能完全排除有瑕疵的结论或理由,就说由机器人法官做出好裁判这目标不可能达成,因为理性并非要求在每一个个案中都达成目标,才认定目标实现。此外也应该记得本文采用「好」的判准据有相对本质(前文贰、二、(二)2.(2)A.):人类法官也不可能完全排除个案中犯错,因此才会存在救济的法律体系。
从哪个点开始,有瑕疵的个案结论会让目标自始不能达成,这是很难回答的问题。不过,若错误是科技因素造成的,则必然已达到此关键门坎,因为人类不会犯这种错误;用本文的相对判准来看,这种情况是一个迹证,指出法官的裁判反而因为自动化而变糟。
(一) 烂结论?
现在可以来问一个问题:上述目标,亦即做出好的裁判,对于机器人法官而言是否如同对于想要从柏林骑脚踏车到里约热内卢的骑士一样不可能?首先,若机器人所作的结论出于科技因素而有瑕疵,好的裁判便不可能。在讨论的开头要先提两个常见异议。
1.电脑不会评价?
(1)第一个异议具有科技本质,但也具有科技以外的元素,后面这元素留待下文参、二讨论。举个例子:关于法律责任,法律上重要的不只是A这个人满7岁了没(德国民法104)或者是否未满14岁(德国刑法19),判准也包括此人是否处于暂时性的精神障碍(德国民法104)或精神疾病(德国刑法20),而解答后面这两个问题需要的不只是数学、逻辑和经验证据。
一些论者认为:许多法律问题的回答取决评价,而电脑不会做评价。法律适用不纯然是演绎和涵摄,而是也必须使用直觉或法感这类「软性裁判因子」,亦即隐性知识或无意识,而这些超出机器构造的能耐。尤其是涉及文化脉络时,例如若该类法律争议会依照人们身在何处而有截然不同的解决,以及在需要法律续造的非典型案例中,电脑必将失败。
(2)但本文认为这些批判不具说服力。他们对于电脑抱持过时的科技图像(下文);另一方面,当这些图像被修正后,我们也能清楚看到他们对法官抱持过于理想的图像。
A.电脑早就不只是「计算器」。超级电脑「深蓝」(DeepBlue)击败西洋棋世界冠军Gary Kasparov的历史性胜利,仍然属于机械式的暴力破解法之胜利,亦即一台以超越人类的速度计算完那超大判定树当中成千上万种走法的机器;但AlphaGo是基于完全不同的算法:透过人工神经网络来深度学习。于此不必讨论这类程序设计技术的细节;这种程序设计的理念受到生物学的启发,尝试模仿我们的直觉式思考结果,亦即Kahnemann所称「系统1」的思考,尤其是AlphaGo的学习历程是由下而上,不再如同DeepBlue那样由上而下的学习。AlphoGo透过与自己对奕无数回来学习下棋,藉此它发展出人们称为直觉、法感或甚至创意的能力,这能力并展现为AlphaGo与李世乭对弈的第2局中那著名的第37手。当世电脑能力的另一个证据是,已经出现由AI创作的第一件艺术品。
没有理由能够自始排除机器做出法学评价的可能性,例如在所谓的「监督式学习」(supervisedlearning)程序中,在「训练回合」里输入许多由真人做成的裁判让机器去消化,在「验证回合」里输入另一批裁判资料,检验机器与人类做成的结论是否相符──用专业术语说:机器能否预测人类所做的裁判。然后再用这个训练过的算法去预测实际上尚未裁判的案例,并观察其表现。电子邮件的垃圾信过滤器、语言学习软件、信用卡盗刷的辨识、图像辨识等,都是依循相同的原则运作。裁判中的错误会在上诉程序中被人类修正,并当作后来的教材,垃圾信过滤器和语言学习软件也会随着使用而逐渐改善。带有学习能力的法学算法,近来业已初试啼声。
法之续造(Rechtsfortbildung)未必是电脑所不能的。科技怀疑论者所提的异议,电脑没有能力做真正的全新创作,这也许对于艺术创作而言仍然很难,但对法律而言却不是。好的法之续造从来不是全新创作,反而几乎总是将已被法秩序承认的命题推导运用到其他的事物范围。
AI与其他任何领域一样,魔鬼藏在细节里。从一个局外人的角度主要关心的问题是,现有的数据集是否够大,可以用来让机器学习。就算关于杀人故意的案件有100则联邦最高法院判决可作资料,但相较于Microsoft、Yahoo或Google等公司用来训练垃圾信过滤器的上百万封电子邮件而言,100这数字小到看不见。有一些程序设计原则尝试用小数据集来学习;例如基于模拟思维的「最近邻居法」,它是许多产品推荐系统(例如我们在Amazon和Netflix看到的)的基础。此外,用于模仿画家林布兰(Rembrandt)的画作或音乐家巴哈(Bach)的音乐作品之算法,也没有近乎无限大的数据集可供学习。一些让机器学习道德思考的初步尝试,也是使用规模有限的数据集。
B.前文贰、二、(二) 2. (1)所称的「标准过高」:因为人类法官也不是每个都能永远正确;尤其是电脑既然已经能够学习评价、直觉和法感,要说电脑的表现一定比人类法官差,已非自明之理。
2.犯错的、歧视的电脑?
(1)第二个异议已被用于反对在许多生活领域里运用算法──从授信,到发给大学入学许可,到企业的面试邀请,特别是反对运用COMPAS──该异议说:算法会犯错(下文A.);或者更糟的情况:算法会造成歧视(下文B.)。
A.算法容易犯错,这批评几乎见于所有文献;更别提安全性的问题。算法倾向于过度诠释样板──例如在间接杀人故意的案件中,若被告的姓名开头字母缩写与判决结果之间存在某种关联,算法会发现它。更严重的是回馈循环,在许多生活领域中可能轻易发生:算法的功能就像「自我实现预言」,它会启动一个「恶性循环」。当算法得出的结论被用做产生未来结论的基础时,就会发生这些事。「它们定义自己的现实,并用此定义来正当化它们的结论。这种模式是自体循环的,高度破坏性的──且很常见的。」「资料正如被刑求逼供的人,侦讯者想要听什么,它就说什么。」
B.更糟的情况:这些错误并非随机分配,而是系统性地发生在弱势者身上。批评者说,算法展现加倍的歧视:「它们倾向于惩罚穷人。」这比较不是因为算法反映出它的创造者的价值观,而是因为演算法背后的数学。就算一开始将算法设计为不受基本法第3条第3项所列那些「敏感」特征的影响,但若敏感特征与其它数据有相关性,大量使用这些数据后仍会导致敏感特征复活,并于演算结果中──主要是巨观层面──变得清晰可见。基于此原因,COMPAS被多次宣告为种族歧视:这程序原则上判定深色皮肤者有较高的再犯机率,且就算明确设定为不考虑种族,仍会发生此结果;因为种族与许多其他因素有相关性,例如居住在犯罪显著较多的地区,没有固定的工作,常往来的亲友从事犯罪活动等等,这些现象在深色皮肤者身上更常见于其他的族群。
(2)这些批评虽然应该严正看待,但我认为它们并不具决定性。
A.「容易犯错」这论点可以用一句古老的智慧来大幅缓解,尽管不是完全反驳:犯错是人性。因此,犯错并不是放弃电脑的原因,而只是一句警语,叫人认真看待电脑犯错的可能性并谨慎应对。应对必须从用于训练程序的数据集着手,搜集数据时谨慎以对;正如程序设计师们常言道:「Garbagein,garbage out」,演算结果的质量顶多等于训练数据的质量。此外也必须采取措施以预防上述的回馈循环,是故,出于技术考量,不可能从下到上所有层级的法院都采用机器人法官;出于技术考虑,系统上必须有「人类监督」(humanoversight)的设计,诉讼法上尤其是透过上诉的可能性,由人类法官来实现监督。
不过我要藉这机会提醒人们不可有某种心态,那是在电脑科技界常见的观念,并且一再以事不关己的语言被表达出来,其意旨是:错误是无法避免的,前进才是重要的。「正如演化,机器学习不可能每次都正确;事实上,错误才是常例,而不是例外。但这是OK的,因为我们舍弃那些错误,站在正确的基础上前进,累积成果才是重要的。」或者如同Facebook以前的企业格言:「快速行动,打破成规(Move fastand break things)」;成功之路是「快速失败,常常失败」。但这种被批评者称为「先求有,再求好」的心态,运用在司法上却是致命的,因为在那里被打破的东西是人民的生活发展。
B.歧视论点也能被克服。克服的方法既非──带着右派自由主义或放任自由主义的乐观──否定算法的歧视作用,亦非──带着左派自由主义或社会民主主义的乐观──宣称算法可被修正完善到使得上述问题根本不会发生。就算算法会造成歧视,就算无法完全避免算法的歧视──亦即就算悲观以对──,也有两个理由反对完全放弃算法。
a.首先,人们不该忽略,就算是人类法官也不能免于歧视的危险,甚至可能质疑人类法官是否有更严重的歧视。因为,就算机器运算出来的裁判结果反映出不良模式,至少可以明确排除那是出于意图,那不是被有计划地造成的──人类顶多是希望这结果发生,因此,如果这愿望被机器说出来,也非意外之事,「机器人法官可以在原则上确保,有史以来第一次,法律之前人人平等。」
b.其次,上述的科技批评其实只间接打到它想打击的目标(科技);它主要是会批评。在一个不正义的社会中,算法反映出既有的不正义;但大学和医院也反映出既有的不正义,我们却不会因为它们优待社会的特权群体或甚至扩大既有的不正义,而主张废除或自始不要设立大学和医院。病征回头影响甚至加剧病根,固然会让病情变得更糟,但这改变不了一件事:若只治标,无法期待真正的痊愈。
(二) 烂理由
裁判也可能因为理由烂而成为烂裁判。裁判应该具备好理由,这要求并非自明之理,而是来自我们对法律的特定想象,关于这想象会在下文参、二、讨论。我们也能够想象一份裁判之所以被接受为好裁判,是因为它由正确的人所做成。权威导向的法律观念下,裁判可能不需要理由;重点是谁做的裁判,而不是做了什么裁判。反之,理性导向的法律观念下,理由是裁判合法性的关键基础;因为只有透过理由才能说明裁判不单是统治者权力的展现。我们在意裁判理由,因为它让我们能区分法律与君权,法治与恣意,法官与祭司;因此我认为,理性的法律观最能符合我们关于法律本质的想象。
单从形式结构,亦即抽离了一切内涵之后从抽象观点出发,已能提出何为「好理由」的两项标准:1.理由本身必须可了解;2.理由必须比结论更容易了解。我们不只会称下列理由为烂理由:矛盾的理由、不清楚的理由、错误推论等。就算裁判理由可了解,也可能无法支撑结论,因此那是个悬空的结论,此时我们也会称它是烂理由。从这两项用于评价裁判理由好不好的标准出发,可能对机器人法官提出以下的批评。
1.算法是黑盒子(1.0):不附理由的裁判
单是第一个质量标准,裁判理由本身应该要了解,按今日科技水平可能就难已达成。因为恰恰是今日最强大的算法,亦即前文贰、三、(一) 1. (2) A.提到的人工神经网络,往往只提供结论而无法交代为什么是这个结论,因此它是个从外面看不穿的黑盒子。类似于棋士或拳击手感受到「系统1」告诉他该怎么行动,但事后无法用语言说明这感觉;甚至也类似于,尽管博美犬看起来比较像波斯猫而比较不像格雷伊猎犬,但幼儿已经知道眼前这只动物是狗或是猫,算法似乎也是如此运作,它们就是知道。
这是一个难题,任何想要导入机器人法官的尝试,都必须先克服此难题。因为只要算法的运作如同黑盒子,它便是一边给了当事人不利的裁判结论,另一边却不跟他说明理由。明白地说:算法正好不向当事人提出那让裁判结论具备合法性的基础,那唯一能够区分法官裁判与圣旨的理由。因为这是不够的:只跟当事人说,你的申请之所以被否决,是因为系统用数据充分训练过后做出了这样或那样的决定。许多人要求演算法的透明化或者「可解释的AI」,这类呼声在法律脉络中有着特别重要性,一个从「法律」本质而来的意义。
但我认为这问题是可解决的。人们必须写出透明的算法;这里的「透明」意思是,让算法不是只做出正确判断,而是也交代判断的真正理由。我不认为电脑自始不可能提出理由,尤其鉴于法律文章经常使用一些基础元素,而且电脑已经写出小说了。
2.算法是黑盒子(2.0):找借口或者心口不一的裁判
(1)问题也可能不在理由本身,而是在于理由与结论的关系。质言之:就算电脑有能力交代理由,但我们如何确定那是它的理由?要如何区分真正的理由和虚假的事后找理由?在这个意涵下可以理解Gless 和Wohlers的批判:电脑就算能提出理由,它也不可能「了解那里面的讯息」。
理由与结论的关系,仔细观察之下有两种意涵,一种是逻辑关系,亦即遵守逻辑法则之下,由前提得出结论;另一种是心理关系,亦即前提转变为动机,并由动机引起裁判结论。法理学继受自科学哲学的概念区分,「命题的证明脉络」与「命题的提出脉络」(Begründungs-undEntdeckungszusammenhang),部分即在描述逻辑关系与心理关系之区分。不必深究这些概念区分,对本文而言只要知道这件事就够了:逻辑关系与心理关系的合一当然是理想,亦即裁判的理由同时也是裁判的动机,亦即法官公开说出来的正是驱动他思考的东西。具有这种合一关系的裁判,我们不只会称之为「好的」裁判──因为这概念涉及对「好」的高标准想象──,而是更适合称为「诚实的」(aufrichtig)。若裁判的动机不能或甚至不被允许成为裁判理由,则会被批评为──借用深层心理学的词汇──合理化(找借口)。针对这现象甚至已有一些释义学研究,主要在侦查中羁押的法律讨论中,人们为此创造了一个概念叫做「非官方的羁押事由」(apokrypheHaftgründe)。
换言之,这个批评指向另一个黑盒子般的结构:机器人法官虽然有能力交代理由(因此与黑盒子1.0不同),但人们无法得知那理由是不是它真正的动机(因此是黑盒子2.0)。
(2)但我认为这个批判的威力也不应该太被高估,两个论点如下。
A.第一,我们也不知道人类法官是否诚实交代理由或只是找借口。「人类对于其他人而言也是个『黑盒子』。」只要我们无法看进人类法官的脑袋里,以及不想废除法官评议的秘密性,就同样很难,甚至不可
能发现法官是不是在找借口;除非动机强过正式的理由太多,以致在裁判理由中发生错误,引人怀疑台面下可能藏有其他动机。然而,此时并无必要寻找真正的动机,因为表面上已存在错误。
B.由此几乎可以直接得出本文的第二个论点:如果真的要做,区辨电脑是在交代真正理由或找借口的成功可能性应该大于区辨人类的。因为人们只需要努力将程序设计成不只会交代结论和理由,也会逐步记录工作历程。
逐步记录工作历程之举是否可能受阻于营业秘密的保护,这点毋庸在此讨论。在处理其他议题时(例如德国的联合征信公司SCHUFA78)已经出现更强力的论点足资对抗营业秘密之说:为法律裁判写算法者,已经放弃营业秘密,因为唯有此举才能建立法官裁判与神谕的区别。毕竟在此人们生产的不是可口可乐,而是法律。真正的问题毋宁是,当人们要求司法裁判不只应该给出好理由,而是也必须诚实时,这究竟是个法律要求或道德要求?但本文无法继续追究此问题。
用于反对机器人法官的各种批判意见,没有一个是不能克服的。没有明显的理由可证,机器人法官不能产出好的法官裁判。所有迄今用于反对电脑判案的论点,若非可以用科技来克服,就是更加适用于人类法官身上。
叁、应该或容许这样做吗?
于是我们来到核心问题:它并非能不能的问题,而是应不应该,或甚至容不容许的问题。这里我们不是要提出使用机器人法官的理由;这类理由已经在前文得出,机器人法官能够实现前文贰、一所提的目标,也能够做出好的法官裁判,这些主要是技术问题。这里要讨论的理由是,尽管有助于做出良好的法官裁判,但为什么不这么做?因为不是所有能达成目的之手段都被允许使用。
法律上的阻碍可能来自两个层面:实证法的层面(下文一),及前实证法的层面(下文二)。
在德国,若要使用机器人法官,应该先修法。这不只因为现有法律的限制〔例如法官法(DriG)第9条第1款〕,也出自重要性理论的要求。一个如此重要的法案必须与更高位阶的法律相容,亦即可能面对来自宪法〔下文(一)〕和欧盟法〔下文(二)〕的质疑。
(一) 宪法上的障碍?
Enders提出一个宪法位阶的障碍:基本法第101条第1项第2句所称的「法定法官」(gesetzlicherRichter)只可能由自然人出任。此外也可以着眼于基本法第92条,该条规定:司法权托付给「法官」行使。然而,这论点只不过是空言主张,或者是个循环论证的空壳,其谓:机器人法官之所以不被允许,是因为基本法所称的「法官」只能是人类;但基本法为什么运用这样的语言,该理由是否具有超越特定历史时代的效力,论者毫无说明。这般理由只可能来自前实证法的层面,第二小节即将讨论。我在此预做摘要:该处的讨论又指回实证宪法,并局部确认了──迄今论者只是宣称的──机器人法官会抵触基本法第102条第1项第2句。
(二) 欧盟法上的障碍?
此外也可能涉及欧盟数据保护基本规则(DSGVO)第22条(另见欧盟指令第2016/680号第11条),偶尔有人视之为「个人资料保护法的基本条款」,该条文曰:「若裁判将对当事人产生法律效力或类似的重大影响,当事人有权不受到基于纯粹自动化处理──包含剖绘(Profiling)──的裁判。」但问题是,这条文第2项马上就掏空此权利:「第1项不适用,若裁判……b)基于欧盟法或对数据控制者有拘束力的会员国法容许不适用之,且该等法律规定有适当措施以保护当事人的权利、自由和合法利益,或者c)……。」换言之,不存在欧盟法上的障碍可阻止透过内国法来引进机器人法官。
由以上可知,实证法门户大开。但这任务尚未解除,应继续思考是否存在先于实证法的考虑可能改变本文迄今对AI有利的结论。
(一) 理性主义者与意志论者站在新版的涵摄自动机前?
前面贰、三、(一)1.已反驳过「电脑不会评价」的论点,那里也提到,这论点不应单纯理解为科技限制,而是也应理解为关于法律本质的命题,其谓:我们承认为法律的东西,有些核心特征是机器无法实现的;机器人法官这点子是理性主义者的美梦,「法官作为涵摄自动机」(Richters alsSubsumtionsautomat)之新版,而那早在两个世纪前就已梦醒。
事实上,理性主义者──他支持这命题:法律的核心不是某个权威者的意志,而是理由的说服力;我在贰、三、(二)便已坦承认同此命题──是心不甘情不愿地放弃那美梦,所以如果有人许诺可以借助新科技来实现那美梦,理性主义者原则上会比那把法律视为权威或意志之表达方式者更热情拥抱此承诺。特别是,如果机器人做的判决不只是如同贰、二、(二)所述那样跟人类法官做的判决一样好,甚至能够随着科技进步而比人类做得更好,那么理性主义者想必更加接受它。
至于意志论者,虽然与理性主义者的思考起点不同,但两种观念最终得出的结论相去不远。因为意志论者虽然在第一步认为权威和意志优于理性,但在第二步和结论就能够──甚至是必须──同意他的对手。这第二步如下:如果权威者,也就是凭其意志来决断者,在听到(或者没听到也无妨)反对涵摄自动机的论点后决定使用机器人法官。最晚到了这一步,意志论者就必须带着他的反对意见撤退到一个没人会注意到的,因为政治上无拘束力的角落去,并且不管他是否出于己意,只能接受机器人法官也具有合法性。
(二) 真正的问题:不负责任的法律适用
1.论点:法律不可能有权力而无责任上一小节的结论是,在机器人法官与法律理念之间找不到任何矛盾;但也许这是我所习惯的二分法所致,而该方法只间接触及问题。真正问题应该在于:于司法中使用机器人法官,恐怕会忽略法律(权利)这概念的另一个同等重要之面向:责任。
责任这概念是如此根本,它甚至超越了意志论与理性主义的藩篱。对于意志论者而言,责任是自明之理,因为他别无依靠;每个权威者都为自己所意欲的事物负责;他不能躲藏,否则他的决断就失去基础。反之,理性主义者乍看之下可以躲在理由后面,但他终究必须承认,他所提出的理由虽然打着普世效力的主张,然而一开始仍只是他自己的理由,他必须为这个理由的质量负责。
还可以为责任概念的根本地位提出另一个论据,至少是论据的草案:把法律(权利)理解为赤裸裸权力的对立概念;由于权力无所不在,所以法律(权利)的充分条件便是「总是与责任连结的权力」(dassMachtimmer mit Verantwortung verknüpft wird)。这个连结不仅贯穿国家与人民之间关系的思想史,也贯穿公务员与人民之间关系的思想史。国家尝试用各种论证模式让自己与大型强盗集团有所区隔;不过这里重要的不是使用哪个特定的论证模式,而是哪一个都好,重点是义务人因为这个论证模式而承认自身有义务。公务员地位的正当性来自将「公职」(Amt)概念解为服侍、服务或代表他人行动,公职这身分甚至对他们的「一切行为」课予义务(联邦公务员法[BBG]第60条第1项第3句)。权力与责任的连结似也符合道德现实的结构,因为那已超出法律。可以从「神义论」(Theodizeeproblem)看到相同的问题,神义论问的正是:为什么全能者不承担全部责任?同时用圣经故事里的解方,亦即耶稣的道成肉身,来回答:唯有共同经历,才能使责任承担显得可信。
这里出现了反对机器人法官的关键且无法再反驳的论点:与人类法官不同,机器人法官并非站在他的裁判背后,因为严格意义上没有「他」。他不为他的裁判担保,更不会为裁判理由担保。机器人法官面对权力受体时不能看进对方的眼睛,不会将他当作人来对待,不会理解他,因为机器人法官不理解任何事情,更不会展现尊重;机器人法官顶多是模拟做出这些事,因为这黑盒子(3.0?)不仅是不透明,它根本就是空的。当人们在讨论机器是否能够思考和理解、是否有意识时(这我们后面第(1)D小节还会讨论),似乎忽略了关键并非这些能力,而是另一些更微不足道的东西:机器不仅一无所知、没有思考、没有生活经历,它尤其不像人类那样能够体验自己的独一无二、稍纵即逝与脆弱。所以机器人法官面对人民时总像个外来者,如果它一如字面所述的「不知」人生为何物,它如何能够裁决人民的人生?机器人法官是没有法官责任的法官权力(Roboter-Richtersind richterliche Macht ohne richterliche Verantwortung) 。贯穿所有律所的权力与责任之连结,不容刚好在司法权中,在这「如此可怕的人间权力」上,有所松动。
2.批评及精确化
我想象有两种策略可能反对刚才这论点。第一种策略是争执「没人责任」这件事;也许在我们讨伐AI的十字军东征当中,忽略了其实有人可以负责(下文(1))。第二种策略的要求更深层,是哲学观点,它──从伦理学或存有论的角度──挑战「人类负责」这观念(下文(2)A.),或者──从法学或政治学的角度──挑战权力与责任的连结(下文(2)B.)。
(1)寻找应负责的人
我们是否忽略了其实有人可以负责?
A.程序设计师负责?
首先容易想到的──正如程序出错而导致身体或生命损伤时,人们会做的一样──便是叫程序设计师负责。但这解方在事实上和法律上都不令人满意。
事实上,复杂的程序往往不是单一程序设计师的作品,而是团队成果,且这个团队的成员变动剧烈;后果是很快变成没有一个人透彻了解整套程序。这个Weizenbaum于1970年代就提出的问题,在近年来自动学习系统被广泛运用的环境下更显严重。可以称之为第4个黑盒子问题,或黑盒子4.0(尽管它与前两个版本的黑盒子位于相同层次上):复杂的程序甚至就连对于它的程序设计师而言也是不透明、密不透风的保险箱。
从法律观点看也有明显的问题。就算找出程序设计师来负责,他又不是受基本法托付来行使司法权的法官(Art.92 GG)。可能有人硬要回说:不必然啊,总是可能找到很会写程序的法官吧。这论点可以如下反驳:这位写出了司法程序的法官集合莫大权力于一身,以至于已经不能再称他是法定法官了(Art.101 I 2 GG)。
B.法人负责?
既然自然人的程序设计师不能负责,那么可否由法人来负责,那个于社会上、经济上和民事关系上促成算法的法人?
上一小节的法律观点异议也完全适用于此:企业不是法官,更不是法定法官(Art.92,Art. 101 I 2 GG)。另一方面,上一小节的事实层面异议似乎比较不适用于这里,但事实观点引出另一个规范问题。让我们想想,软件或程序属于哪间公司?在德国,候选人是BeckVerlag出版社(营运着Beck-Online资料库)、Juris-GmbH公司(营运着Juris资料库)或Wolters & Kluwer(营运着Jurion资料库),也许哪一天这笔生意有利可图到跨国网络垄断业者Google、Apple或Amazon愿意并购它们。这首先会是政治问题:一间能够自由决定企业价值观的公司,不只能将价值观反映在他们的用人决策,也能书写规则,然后运用这些规则并「以人民之名」(imNamendes Volkes),换言之,以我们全体之名,宣告何为法律。这同时也产生宪法问题:对于宪法层次的法定法官原则(Art.101I 2 GG)和民主原则(Art.20 II GG)而言,这是司法受到企业的外部操控,是不能接受的。
如果演算法由国家或法院自己开发,上述的批判力道会比较弱。但仍然必须面对基本法第101条第1项第2句的法律上异议(法定法官)。只有一种也许(表面上)可接受的例外:某种事务虽由法院审理,但实质上是行政事务,在这情况用算法来作裁判。这些裁判可能出于相同理由,并在相同范围内由机器做成,例如行政程序法(VwVfG)第35a条已允许部分的电子化行政行为。这里毋庸详论哪些具体案例属于此,关于基本法第92条的注释书中举例:出于民事执行名义的强制执行案件,具体的例如怠金之课处,某物件得否设质的查证。
C.当事人负责?
如果当事人同意呢?不能叫当事人自己负责吗?也许有人会如此反驳本文前述的思考,称本文是建立在关于人类法官的理想形象,一个和善的、乐于对话和倾听的人类法官,而忽略不提:司法对于许多人而言比机器还糟。受压抑的少数族群成员也许会认为,机器人法官是他唯一一个受到无成见裁判的机会。人们能拒绝他公平受审的机会,并说让他去面对人类法官的歧视才是比较好的吗?
这问题本身就是答案:当然不能强加歧视在任何人身上。但这答案的理由却值得仔细思考。
与表象相反,当事人的合意或同意未必能证立机器人法官的合法性。在我们的例子中,人民别无选择;他之所以将自己的命运交到机器手上,就像受强盗胁迫者交出珠宝。在刑事案件中,反对与支持合意的力量差不多,这纷歧如同在协商程序当中是否适用合意原则的问题。反对刑事诉讼合意原则者──这是德国的少数意见,联邦宪法法院自述也属于此派──,当然不会用合意论点来引进机器人法官到刑事司法中。反之,接受合意原则者,或者如同所罗门王那般矛盾不诚实的立法方式,理论上拒绝合意(§ 257c I 2 StPO),实际上却践行。在刑事司法之外,特别是在财产相关的民事争议中,当事人合意的重要性可见于仲裁协议(§ 1029 ZPO);或许可以在类似条件下宣告机器人法官是合法的。例如双方当事人可以约定,将他们之间的争议交由机器人决定,就像他们可以约定不由法院审理,而由仲裁人决定,或丢骰子决定。这是司法有限度机器人化的第二个入口,用于解决一些契约关系,例如航空旅客权的纠纷。
毋庸强调,必须纠纷的所有当事人都参与,才能形成合意来使用机器人法官;原告不能代替被告舍弃由可负责的裁判者来裁决纷争之权利。合意也不能成为次级司法系统的外衣,这在其他脉络中已被控诉过,并有著如下的构造:「特权者……比较多由人类处理,大众由机器处理。」
本小节开头那个例子,由于担忧人类法官的歧视而逃向机器,那正好用来说明──在刑事司法中──唯一可理解的结论不是推导自当事人合意,而是来自紧急避难诸原则(Notstandsprinzipien)。这样做的优点是,可以同时给机器人法官设下界线。紧急避难这解方原则上是个PlanB,是个惨剧;所以原则上不应将它立为制度,否则PlanA恐怕会被世人淡忘。具体来说:尽管人类法官无法保证做出不带歧视的法律适用,但我们也不能仅因此就接受机器人法官这个不幸境地,因为是我们应该为这个带有歧视的司法负责,亦即依法组织社会的人类之责(unsereVerantwortung als rechtlich verfassteGesellschaft von Menschen)。关于这份责任,下文(2)B.会再讨论。
D.机器人负责?
最后,人们应该避免提出「机械降神」(deusex machina)的解套方案,推一台机器出来负责。虽然已有人开始讨论机器的刑事责任能力,甚至有人讨论要立机器人法,但这些尚未成为积极行动。这些命题只有在我们对于自己的人类属性作出「理性的牺牲」(sacrificiumintellectus)之后──亦即不是只当作激发讨论的话题──才可能严正地被支持,因为事实上这些命题与机器较无关,而与人类较有关。
具体而言:在「机器能够负责」这句话背后潜藏着一种关于人类的还原论想象,事实上却是极为贫瘠的想象,正如AI运动最知名的一些拥护者自始就抱持的想象。图灵测试就是以这种信念为基础:思考是一种完全可由第三人观点来评判的东西。麻省理工学院的AI先驱Marvin Minsky有一句广为流传的话(本人从未证实过):人类是「肉做的机器」;Hans Moravec 和 RayKurzweil 这两位「后人类主义」(Posthumanismus)的未来学家提出对未来世界的远景,人类能够备份和上传自己,好像我们的生命是磁盘运作似的;其实Kurzweil说的是,我们的「真实本质是信息型式」,尽管并非「只是档案」,因为「不是静态档案,而是动态档案」。若人类仅是信息,且信息可独立于载体,人类便与其肉体和生物基础、最终即其生命,断了连结:我们的身体和义肢没有差异,「基于程序软件运作的人类」变成可能想象,因为身体「仅是肉冻」。反对这观点者被称为「生物主义者」或「碳基沙文主义者」(Bioistenbzw. „carbon-chauvinists“),而被与种族主义者相提并论;或被讥讽为「生物保守主义」的拥护者(Anhängereines Biokonservatismus),或甚至「人本主义的基本教义派」(fundamentalisthumanism)。这些观点所植基的重大错误已被Weizenbaum多次挞伐:「人工智能菁英们相信,例如爱、忧愁、喜悦、悲伤,及所有那些翻搅出人类灵魂的感受和情绪,可以轻易地在弹指之间转载到一具有著电脑大脑的机器人身上,这在我看来,用谨慎的话说,正展现出对生命的蔑视,否定他们自身的人类经验。」
在我看来,既然敌对方先挥舞种族主义的大棒,Weizenbaum的谨慎措辞便显得没有必要,因为在「机器负责」这观念背后潜藏着──这概念在法学界的支持者尚不明白,但信息界和哲学界透过像是「后人类时代」(Post-HumanEra)、「从生物学解放」(liberationfrom biology)、「当我们变成程式」的时代(whenwe become software),诸如此类效忠于上述观念的誓词,早已展现出他们的透彻了解──种族灭绝的思维(einegenozidale Einstellung)。甚至这话还说得太轻了:因为他们不是要消灭某个特定族群,而是要消灭整个人类。从生物学解放,用口语说就是死亡。Bostrom清楚指出:「结局很容易变成人类消失」;Minsky和Moravec则对此额手称庆:机器人将继承地球,「但它们会是我们的子孙」,「心智上的子孙」。另有一些人(知名的例如ElonMusk)认真至极地追问,生命是否只是电脑仿真出来的。
一部不知道何为痛苦的机器,无法理解年复一年在监狱中度过是什么意义。一部永远不会因为落败而失望的机器,更无法感同身受那是什么滋味,当他相信正义,但有权裁决的人却不对他展现尊重──宣称这样一部机器能负责,那是给「责任意识」(Verantwortlichkeit)一词掺水过头,以致失去血色,变成与我们平常使用的意义,即那个我们讨论人类法官时理所当然的前提,几乎没有共同点。虽然我们会在冬天时怪罪天气造成关节痛,但我们说这话时并非想被作字面上理解。然而,那些承认机器可负责的人,却是照字面在说话──这也证明了,人民命运所系的那个应负责的东西,其责任意识之强就如同天气一般。
请注意:这里和前文2.小节都不仅「诉诸无能」,而是诉诸「人的条件」(conditiohumana),机器与人类在此有根本差异。就算有一天所谓「机器意识」的研究进展到人们觉得机器能思考,或者就算所谓「赋予身体」(embodiment;或译「体现」、「具体化」)的研究成功使机器具有感官,也不会改变人与机器的根本差异。那种可由人类制作备份的东西,不必操烦自身的生存;但我们称为法律的东西,却正是在处理生存。
把以上的思考翻译回宪法语言:由机器负责操持的司法,这观念可能侵害基本法第1条第1项的客观权利(人性尊严),并确定侵害基本法第103条第1项的主观权利与客观权利,亦即合法听审请求权。机器没在听(审),因为它听不懂)(“Eine Maschinehört nicht, weil sie nichtversteht”)。
(2)两种哲学上的批评
长篇大论总是容易在多个论证层次上面临质疑。我在此只预先响应两个批判意见,不只是因为它们有可能被提出,也因为它们提供一个让我更加精确界定和补充立场的机会。
A.无责任意识的人类
也许有人会攻击本文论点的最根本、存有论──伦理学层面的基础命题:存在具有责任意识的人类。Minsky(尤其在他的《The Society of Mind》这本书里144)、
Kurzweil和一些其他人比神经科学研究还早了几十年就宣称:那个有责任意识的自我只是「幻觉」。这个具有一致性的东西,每个人称之为「我」,只是大脑里面许多部位合作且不受我们自身力量控制的运作结果。
这里不是对于这场讨论表明立场的适当地方,我想指出一件事就够了:自由意志不是本文论述的必要前提。本文毋宁是基于「人的条件」当中关于自身脆弱的基本经验,那是人民与法官必然共享的经验,藉此经验,法官在面对人民时才能为自身所作裁判可信地承担责任。
B.权力不由个人负责?
从法政策的层面可能提出另一种异议:本文见解将权力与责任的概念作了不适当的人格主义-个人主义式诠释。自从人们在概念上将国家与国王区分开来之后,我们主要将责任归给国家及构成国家的许多制度,例如行政、行政机关、司法、法院等。本文见解似乎蒙着中世纪的灰尘;它相应于柏拉图所称的「政治家」(Politikos),或 MaxWeber所称的「魅力型统治」,亦即植基于个人的非凡特质,但尚不认识那种建立在规划良好的制度上之自由主义方案。
一套认真看待个体的法律架构必须向个体证明权力的正当性。在这种法律架构眼中,国家「为了人民而存在」,因此不可能满意于将制度当作责任的最终汇聚点,而是必须追问谁是那制度后面应负责的个体。我们以相同方式处理国家的正当权源:「所有国家权力来自人民」(Art.20 II 1 GG),这里所称的人民是德国人民,不是什么虚拟的集体,而是每一个拥有德国国籍者的加总。国家正如每一个合法成立的人民团体,其正当性不是来自自己,而是来自于源权,而源权是此人民团体背后站着的那一个个有责任能力的个体赋予给它。
就在这个点上,机器人法官遇上原则性的问题:机器人法官意味着权力行使与个体责任的脱钩,且脱钩程度在人类历史上无与伦比。就连以神权为基础的独裁国家都还有领导人的魅力型权威当作最终的人类后盾,那是一个有能力听懂人话的人,拥有一张真实的(而不仅是模拟出来的)面孔。在一个民主国家中,站在国家背后的是许多人类,我们又站在这些人类背后,他们是作为我们的代理人而被我们放到国家背后的。反之,会自主学习的机器乃独立于人类而存在。
有关AI的讨论经常围绕一个主题,「奇点」(Singularität),许多人认为存在这样一个关键的人工智能大爆发的时间点,那是人类的最后一项发明,在那之后就由智慧呈现指数成长的机器自主进行所有的发明活动。但我认为,比起那个──确实应该严正以对的──未来的烦恼,更令人担忧的是已经浮现轮廓的法律奇点之危险(Gefahreinerjuristischen Singularität),那是说,我们人类把自己的法律责任推给机器。GPS的便利让驾驶人逐渐变成自己城市里的观光客;但个人身为法律主体,共同制定了法律,可不能与法律形同陌路,彷佛那不是他的法律。
不应把本文的论述误解为心理学式──经验式的:虽然有点像是下列情况,但重点不在于此:机师信赖自动驾驶功能,或者医生情愿接受电脑作出的诊断或建议的治疗,以至于逐渐荒废了驾驶飞机或治病的能力(所谓的「丧失技能」;Deskilling),但这种不良影响毕竟还可能透过在职进修来尝试减缓(能否成功则在未定之天)。
尽管仍应严正看待经验式──心理学式的危险情境。它首先指出,就算算法只是提供给法官当作裁判辅助工具,也应谨慎处理。本文提出的原则则导向之论述,事实上并不拒绝裁判辅助工具;因为负责的仍然是做出裁判的人。然而,使用算法与请助理或实习生拟判决草稿的不同之处在于,法官可能几乎毫不批判地照抄机器产生的判决建议。这恐怕在事实上已构成将裁判权责偷偷移交给机器。
但最重要的只有一件事:法律是我们的作品,也必须继续是我们的作品。机器不得对人类制命出令,规定我们身为有责任能力者该如何相处生活,我们的这个决策权不能被剥夺。机器人法官定然不是人类走错方向的第一步,但可能会是最后一步。
肆、结论
提出一个精确化(下文一)和一段摘要(下文二)来结束本文:
一、精确该问的问题是,就算机器人法官做的裁判比人类法官做的更好,本文是否仍要拒绝机器人法官?答案──包括那(悲惨的)紧急避难案例(前文参、二、(二) 2.(1) C.)──是一个清楚的「是」,理由则跟我们拒绝独裁者一样,就算他比人民更有智慧,仍要拒绝;也跟另一个情况相同理由,我们不会给医生权力去决定那通常不具医学专业的病患要不要动手术。责任同时也是负担,自己做决定,自己犯错。那终究是我们的错。
二、换言之,我这篇文章是「卡珊德拉的警告」。我们当然能够用机器完全取代人类法官,但是我们不许这样做。对他人施展权力者,必须面对此人并承担责任,而这对一具不与人类共享脆弱和苦短人生的机器来说,超出其所能承担范围。司法是我们人类互欠的责任,此责任不容推给机器。往这方向踏的任何一步,都应被标记为法学伦理的「禁忌实验」。
少数容许使用机器人法官而不违法的案例,涉及所有当事人的同意(前文参、二、(二) 2. (1) C.),紧急避难(同上个括号所指处),或者由法官执行的行政行为(前文参、二、(二) 2. (1) B.)。
我引用Weizenbaum的一段话来结束本文,那段话最终汇聚成本文开头的引言:「单是问出这个问题:『有什么事情是法官(或精神医师)知道,但我们不能告诉电脑的?』就是厚颜无耻。就算这问题之所以必须被提出,是为了谴责它里面潜藏的丧心病狂,也已是我们这时代疯癫的象征。」
青苗法鸣向全体青年学人进行长期征稿和专题征稿
一、长期征稿:
主要推送法学、文学、哲学、政治学、社会学、经济学等人文社会科学学科的学术类、思想类稿件,体裁不限,论文、时评、书评、影评、案例分析、译文等皆可。
以来稿质量为采用之标准,欢迎篇幅适中、论证详实、观点独到的稿件,来稿字数原则上不少于3000字。不对作者身份做要求,鼓励本科生练笔发声、交流进步。
为规范用稿,提高编辑质量和效率,来稿请以Word文档通过附件发至投稿邮箱:qmfmbjb@163.com,并在邮件标题注明“投稿青苗法鸣”,邮件正文中附上150字内的作者简介(内容不限,需包含作者姓名等基本信息,亦可附上照片)。对于所收稿件,我们会尽快安排评审,并在3天内回复审稿结果。
稿酬等详情请点击: 稿酬有多好?够买一箱钟薛高!
二、专题征稿
请务必在来信标题中注明“专题征稿+主题”。期限为:2021年10月15日-2021年12月31日,超出期限范围内的投稿仍然可收录,但不享受基础稿酬提高的福利。
本次专题征稿聚焦的选题有:
1.运动员的就业保障问题
2.裁员与劳动争议
3.法学经典著作读书笔记
4.金融科技监管问题研究
5.法治化营商环境问题研究
6.个人信息保护法有关问题研究
7.知假买假适用惩罚性赔偿在实务中的新发展
8.人工智能法学的元问题:AI能否被赋予法律人格
稿酬等详细信息请点击:恋爱减肥都烦恼,忧愁哪有投稿好!
本文责编 ✎ Zorro
本期编辑 ✎ 小 盒
推荐阅读
联系我们
长期收稿邮箱:qmfmbjb@163.com
社群交流请添加公共微信:
公共微信1:qmfmggwx
公共微信2:qmfmggwx2
付费咨询与讲座请添加小助手微信:qfxzsggwx
商务合作请添加微信:Fuermodian