查看原文
其他

郑志峰、吕斌:如何起诉一个机器人

郑志峰、吕斌 数字法治 2022-12-01

点击蓝字|关注我们

作者信息

罗杰·麦克斯基(Roger Michalski):俄克拉荷马州立大学法学院副教授。

译者信息

郑志峰:西南政法大学副教授、硕士生导师,人工智能法律研究院自动驾驶法律研究中心主任,兼任重庆市自动驾驶道路测试管理专家委员会执行委员,百度公共政策研究专家顾问、腾讯研究院兼职研究员、贵州省大数据政策法律创新研究中心客座研究员、华东政法大学数字法治研究院特聘研究员。主要研究方向:民商法、人工智能与法律。


吕斌:武汉大学法学院民商法学硕士研究生。

本文原载《民商法论丛》(2020年第2期/总第71期) 社会科学文献出版社 2021年1月第1版,转载对注释与参考文献进行了省略。


内容提要

我们正在步入一个机器人的时代,机器人越来越多地替代人类从事各项工作,在引发实体上法律责任承担问题的同时,也将带来如何起诉机器人的程序法难题。由于当前机器人属于财产,故它们无法拥有起诉或者被起诉的诉讼地位,受害人只能起诉机器人的所有人,这会阻碍受害人获取便利的司法救济,也不符合机器人自主性的技术特征。从本体论、义务论和功能论三种分析框架来看,公司、雇员、代理人、奴隶、未成年人、动物等现有的诉讼模型都无法完美契合机器人,且每个模型皆会产生诸多消极后果。为了顺应科技的发展和保护受害人,机器人应被视为一种新的诉讼类别,从现有模型中吸取有益的成分,构建一套全新的诉讼规则。


关键词

机器人  诉讼地位  财产  公司

引论

欢迎进入机器人时代。在这个时代,机器人将驾驶我们的卡车、挤取羊奶、钻取石油、投资股票、开采煤矿、铺砖、采摘草莓和从事码头装卸工人的工作。大量文献预言,在未来的几年里,机器人将从事越来越多的工作。机器人在像人类一样工作的同时,也将像人类那样产生法律责任问题。自动驾驶汽车和卡车会发生交通事故。机器人会参与战争犯罪。偷拍无人机会侵犯人们的私人空间。公司机器人存在违约的风险。机器人医生可能会搞砸外科手术。人工智能可能会审查言论,实施诽谤行为。与此同时,各州很可能会向机器人课税,并对其进行监管。

但如何才能起诉一个机器人呢?目前的答案是你无法起诉它们。因为机器人属于财产。它们并非拥有使其可以起诉或者被起诉的法律地位的实体。因此,如果某一台机器人造成损害,你只能起诉它的所有人。出于诸多程序上的考虑,公司过去也常常处于与机器人类似的地位。它们也曾经需要寄“人”篱下。比如,联邦法院的异籍管辖权(federal diversity jurisdiction)没有赋予公司以公民资格。但与此同时,作为财产的公司却拥有全部公司股东的公民权利。随着时间的推移,法院和立法者抛弃将公司仅作为财产来对待的处理模式,出于诉讼便利的目的,越来越多地把公司作为独立的法人来看待。

机器人也有可能像公司那样经历上述演变的过程。果真如此的话,那么接下来的问题便是我们该对机器人适用何种法律模型?与雇员、特许经营者、奴隶、子公司、未成年人、动物、分包人、代理人等相比,机器人与何者更为近似?鉴于程序法所固有的路径依赖性,恰当模型的选择将会产生深远的影响,且该选择一旦作出将难以撤销。本文将为这一决定性的选择提供参考。它旨在为不同法律领域提供一个统一的分析框架,以便让机器人能够区别于其所有人而被起诉。

随着机器人在各行业内的激增,拥有日益高超的自主决策能力,以及在街道、厨房、办公室和天空中的存在变得司空见惯,有关法律该如何对待机器人的决定只会愈发重要。可以预见的是,法院和立法者很快将会确立以下几项标准:一是智能机器人侵权行为的判定标准;二是机器人证言(robot testimony)的证据标准;三是人类与机器人签订合同的成立标准;四是宪法第一修正案的法学体系中机器人言论(machine speech)的判定标准;五是刑法上机器人的主观犯意(robotic mens rea)的判定标准;六是为失业保险目的如何计算机器人工作收入的税收标准;七是全自动化公司的反垄断标准;八是判定机器人警察暴行(robo-police brutality)的警务标准;九是关于机器人能否创制受版权法保护的作品和专利的知识产权上的相关标准。我们许多的理论框架都可能会因机器人的崛起而被破坏。然而,上述所有实体法上的讨论都无一例外地假定,我们已经就如何起诉机器人并强制执行这一基础性的程序法问题有了答案。

下面两个例子将表明,研究这一程序问题方法的重要性。我们不妨想象在并不遥远的未来,自动驾驶卡车穿梭于全国各地,并能够自行存取货物。一家名为麦金太尔(McIntyre)的外国公司将这些自动驾驶卡车海运至美国。麦金太尔公司希望尽可能地获得最大利润。故此,该公司不会限制自动驾驶卡车活动的地区或者州,但同时其理所当然地会力图避免在美国承担任何法律责任。如果麦金太尔公司的其中一辆卡车在行驶路过新泽西州时,撞倒了一位名叫尼克斯特罗(Nicastro)的公民,并致其右手四根手指被截断,那么尼克斯特罗能够在新泽西州或者美国的任何一个地方起诉麦金太尔公司吗?

如果驾驶这辆卡车的是人类,那么答案将会简单明了。该卡车司机有目的的使用行为,足以表明其满足最低限度联系之标准(the minimum contacts test)。同时,这也意味着她“默许(implied consent)”了新泽西州法院对其行使对人管辖权(personal jurisdiction) 。但就目前的定义来看,机器人仅属于财产。财产无法形成意图(intent)(只有财产的所有人可以)。没有意图,就没有明确表示和默许,新泽西州法院无法对麦金太尔公司行使对人管辖权。这样的结果是令人诧异的,部分原因在于尼克斯特罗很可能无法分清导致其受伤的卡车究竟是由人类驾驶的,还是由机器自主运行的。这决定了他是享有获得国内法院审判的权利,还是必须在一个昂贵的、或许毫无同情心的外国法庭上提出他的索赔请求。如果国内法院无法受理这一诉讼请求,那么他可能根本不会提起诉讼——任何地方都不会。

同样地,不妨再试想下这样的场景:在新泽西州有一项法规,该法规不仅监管客车的运输活动,还要求相关人员需向州项目(如工人失业基金或者公路基础建设基金)定期缴纳费用。虽然麦金太尔公司的自动驾驶卡车在涉及新泽西州的州际贸易上作出了巨大贡献,但却没有按照州法规的要求缴纳费用。在上述场景中,新泽西州能取得对麦金泰尔公司的对人管辖权和强制实施它的法规吗?这一问题的答案将确定实质监管制度和税收管理体制的可行性。或许更为令人感到吃惊的是,这一问题的答案不仅会影响到法院内部的活动,而且还可能影响麦金泰尔公司在新泽西州雇佣人类还是雇佣机器人。由此看来,我们在管辖权上如何定义机器人将对法律责任、监管和税收制度以及日常行为产生重大影响。

我们无需对本文所描述的对人管辖权与机器人难以轻易契合的现状感到惊讶。因为机器人不属于人类,而对人管辖权是法院以人类为对象(公司的纳入殊为不易)精心设计而成的。在当前的理论框架内,对人管辖权并非程序领域中唯一与机器人相抵触的制度。在其他程序领域也同样地假定调整的是人类或者类人类(human-like)实体。例如,异籍管辖权以公民资格为基础。公民资格这一概念通过制定法极易适用于个人和公司,但眼下却无法适用于机器人(因此关乎上例中的尼克斯特罗能否享有获得联邦法院公正审判权和州法院的案件是否可以移送的问题)。此外,目前还没有明确的途径得以传唤和投诉机器人、把机器人纳入管辖权范围之内、起诉机器人、惩罚毁灭证据或篡改文件的机器人、对机器人作出诉讼排除、扣押机器人的工资,或者构想出一套针对机器人的惩罚性赔偿制度。既已确立的法律冲突诸原则试图运用机器人的活动地点(residency)来确立住所(domicile),以作为这些原则的实际和行为规范诉求的基石。但问题在于,作为财产的机器人不可能像人类那样产生建立住所的意图。因为,所有关于住所确立的法律原则和制定法——包括其他法律原则和制定法——均是以人类行为者为对象设计而成的,而非自主机器人。

本文的主要目的在于,对把机器人融入我们以人类为中心的诉讼模型中的可能途径作一番基础性和一般性的考察。本文的第一部分将通过描述自主式人机互动现象的普遍性来表明填补这一程序漏洞的紧迫性。这样做可以通过回答“为什么是现在”的方式为文章其他部分论证做好准备。上述问题的答案与卡车司机密切相关。目前,卡车运输业为美国各地的人们提供了两百万份高薪的蓝领工作。如果自主机器人取代了这些工作以及许多其他经济领域的工作,情况将会怎么样呢?可以说,这比外包或者国外竞争更具威胁性。以下场景将首次变得能为人们所想象,即机器人很快就会以更为经济、安全的方式驾驶许多卡车,这些机器人无需休息、睡觉或者上洗手间。恰如拖拉机的发明提高了农业生产的效率,自动驾驶卡车同样会使货物运输更为高效。但需要指出的是,社会动荡亦极为可能发生。如果不适当地监管机器人,如果不向机器人征税,如果机器人在法律上对其所犯的错误无须承担责任,那么只需发生一次高速公路事故,村民们就会拿着干草叉摧毁眼前的每一个机器人。

机器人的在能力、用途和渗入社会的速度方面取得的惊人发展正使得许多法律原则成为明日黄花。我们应该就机器人时代的法律回应作审慎的考虑,并在承认已然发生的变化和预测机器人的进一步崛起的基础上,调整我们现有的诉讼制度。否则,民事诉讼程序将会被社会和经济变革的巨大引擎所淘汰。

本文的第二部分概述了解决民事诉讼中的机器人问题的不同分析框架。该部分详细介绍了三个概念性分析方法,它们有助于框定我们在有关非人类诉讼法律地位问题上的思维方式。这些分析框架虽然常被忽视且缺乏阐释,却构筑了重要的理论和行为规范立场。本部分会澄清这些分析框架,并就它们各自的优势进行评估。第一个分析方法是本体论(ontological)的分析框架,它回答了有关机器人基于它们的本质属性应取得的法律地位问题。第二个分析方法是义务论(deontological)的分析框架,意在从我们对机器人负有或者不负有的道德义务中找寻诉讼权利的理据。最后一个分析方法是功能论(functional)的分析框架,它考察了将机器人与其所有人相区隔的做法在诉讼中的实际影响。某种有关机器人诉讼的理论也可能是融贯了这三种分析方法内在要素的理论。不论是有意还是无意,这三个分析框架都将启发我们关于法律对待非人类做法的思维方式。

本文的第三部分将运用上述分析框架来评估众多特定的将机器人视为诉讼实体的参考模型。可能的参考模型不一而足,包括在诉讼中将机器人视为财产、公司、雇员、奴隶、特许经营者、子公司、未成年人、动物、代理人或者分包商等。上述分析将揭示把机器人类比为既有模型的不足。在这些模型中,尚不存在一个能与机器人相兼容的模型,且每个模型都会产生诸多消极的实际后果。本文的第三部分将揭示现有的许多诉讼模型中固有的浮士德式交易(Faustian bargain),并由此得出结论:把机器人类比为某一现有模型的做法会使法律的强制实施更为便利,但这种做法也会减少原告在强制执行中可获得的赔偿金额。

为了摆脱这一进退两难的窘境,文章的第四部分主张,我们必须把机器人视为一种全新的诉讼类别,该诉讼类别选择性地且部分地借鉴了现有模型中的真知灼见。譬如,我们必须精心构制一项以机器人为对象的新管辖权原则,以补充旧有的以人为对象的管辖权原则。为此,我们必须制定一系列新的标准,规定出于法律选择的目的如何确定机器人的住所,机器人及其所有人之间如何分摊法律责任,以及依赖于如何理解意图、人格和独立代理的众多其他程序规则。唯有把机器人从现有诉讼框架中剥离出来,我们才能摆脱原有的浮士德式交易。

针对上述提议的主要反对观点认为,上述做法不仅错综复杂,而且还会阻滞新兴且激动人心的机器人技术的发展。但有必要指出的是,并非任何形式的机器人技术的发展都是我们所要追求的。我们想要的毋宁是一项考虑到机器人可能会造成的法律上损害的负责任的机器人技术。唯有另外创制一套诉讼法律原则,并使之适应机器人作为诉讼实体的现实,我们才能让法院在应对瞬息万变的技术发展和变动不居的社会观点时——机器人如何融入我们的社会——有据可循和灵活处理。

本文的第五部分意在展望未来,分析诉讼上把机器人视作财产以外的其他实体的做法的可能优势和不足。该部分主张,作为拟制人的程序法地位可能会为某种享有基本权利和宪法权利的实体法地位奠定基础。换言之,机器人可能基于其程序法上的地位,以一种缓慢、无意且隐秘的方式,成为实体权利的享有者(恰如公司此前所经历的那样)。上述可能使得法律制度中机器人诉讼地位的探讨急如星火。

一、纷至沓来的机器人

各种形式的机器人早已与我们朝夕共处了很长一段时间,其中以在工厂车间的相处时间最为长久。但值得注意的是,一股新出现的机器人浪潮正迅速席卷公共生活空间。机器人正向四处遍布,并逐渐渗入日常生活的肌理。它们带我们去兜风,协助我们工作,照顾我们的老人和小孩,而且还越来越多地生产、种植和运输我们的食品和消费品。本部分将阐明以下两点:其一,机器人工作日益自主化的机理;其二,机器人虽已不再囿于工厂车间,却仍游离于我们共同的世界之外的缘由。理解产生上述现象的机理和缘由,是认识机器人扰乱现有法律制度(无论好坏)方式的基础。本部分的最后将强调这样一个怪象:许多法律的实体领域正逐步认识到机器人搅乱现有法律制度的潜在可能,而诉讼程序领域却未对此作出类似的回应。

(一)离开工厂

下面,我将围绕机器人的精确定义展开讨论。目前,我将机器人定义为“一种展现近似于人类、与人类旗鼓相当或者超越人类的自主决策能力的机械客体。”这是一个粗糙的定义。该定义的唯一目的是为了描述这样一种观点,即如果我无法分辨在高速公路上跟我一起行驶的卡车是由人类驾驶的还是由机器驾驶的,那么当这辆卡车与我的车子相撞时,就可能需要我们重新思考诉讼实践问题。

这一类型的机器人在民事诉讼程序中突然成为一个议题的原因在于,机器人可以比过去做更多的工作,而且它们在外部世界从事着这些工作。例如,现在的飞机基本上不需要飞行员。自动驾驶汽车可以承载双目失明的乘客。正如上述例子所表明的,这些机器人现在已不再囿于前几代机器人辛勤劳作过的工厂车间。相反,它们在与我们所有人共有的空间中控制机器的运转。

这一转变意义重大,因为在过去,机器人的运作环境受到严格的管控,它们与人类之间联系的紧密程度有限。在很大程度上,通过把这些无法行动自如的机器人隔离开来,便足以防范法律责任。但在高速公路场合,设置障碍物和应急按钮的办法已经丧失可行性。同样地,由于工厂可以管控工人对工厂机器人的使用行为,工厂的所有人可以减少受工伤赔偿制度保护的工人与这些机器人接触的机会,从而妥善管理他们自己的法律责任。最后,工厂机器人不会像自动驾驶汽车那样,引发管辖权和法律选择方面的问题,因为它们不会移动且不会跨越州界。

(二)更为自主

为了评估民事诉讼程序对机器人应该采取的做法,理解机器人为何离开工厂车间是至为重要的。由于廉价传感器的涌现、海量数据运算能力的指数性增长以及在人工智能方面取得的重大进展,现代机器人得以比传统机器人更为自主地进行活动。鉴于人工智能方面的因素可能会对民事诉讼程序产生重大影响,我将在本部分着重探讨这一方面的因素。

直到最近,许多计算机的编程本质上均为算法,这些编程通过一系列指令,引导程序逐步得出结果。这些指令通常都是被事先设计好的,它们把一组输入(input)转化为另一组相应的输出(output)。这使得大众文化中的普遍观点认为,计算机只能执行它们被编程要执行的事务。前不久,两种新型的编程模型展现了它们具有的实际效用:机器学习(machine learning)和遗传编程(genetic programming)。两者都不同于传统的算法编程,且都有可能扰乱各种法律框架。

机器学习通常以模拟神经网络的编程为依托。在机器学习中,计算机的运算以多层次的人工神经元为基础。这些神经元之间的联系会随着时间的经过而增强或者减弱。而程序就是基于一组已知输入“被训练”的。例如,某个程序会被展示一系列图片,这些图片中有些包含一把椅子,有些则包含一条狗。这些被预编码的样本通过调整人工神经元之间联系的强弱来协助训练神经网络。大数据的出现为神经网络编程的进一步发展作出了贡献,因为它大大提高了(在许多领域)可被用来训练人造神经网络的预编码样本的储存量。谷歌翻译软件即是著例。自从谷歌翻译软件的研发团队利用大量来自政府翻译项目的预编码样本转向机器学习后,谷歌翻译软件便实现了从勉强过得去到惊人地实用的华丽转身。许多完成越来越多的自主任务的机器人所依凭的正是这种(或者类似的)机器学习。上述事实与诉讼密切相关,因为它关涉机器学习是什么和不是什么的问题。

尽管机器学习建立在人们对人类神经网络的洞悉之上,但它并未复制人脑。俗话说,飞机是受鸟的启发而设计的,但它们不拍打翅膀。同样地,建立在人工神经网络基础上的人工智能是受人脑的启发而设计的,但却无法在运算环境下再造人脑。这意味着,在许多其他问题的探讨中,我们必须小心翼翼地使用诸如“人工智能(artificial intelligence)”、“机器人脑(robot brain)”、“思维(thoughts)”、“意图(intention)”等其他类似术语。一辆在高速公路上行驶的自动驾驶汽车可能与人类驾驶的汽车极为相像,但实施这种行为的运算思维过程却与人类有着天壤之别。诚然,机器人会做一些事情(如打开闪光灯和切换车道)。但它们却没有如人类那样的意图、欲望、激情或者意识(这些范畴在许多法律领域都举足轻重)。

同样令人震惊的是,人工智能网络无法告诉我们它们是如何工作的,也无法告诉我们它们是如何达致结果的。它们是如此高深莫测,以致于我们无法通过仔细观察它们的工作过程来掌握它们完成任务的方式,尽管它们每次都能准确无误地给出结果(如完美地分拣狗和椅子的照片)。为了了解这一切,需要我们在脑海里模拟一个复杂的人工神经网络。而这一任务恰恰超出了人脑的计算能力。

第二个值得在此一提的运算方法是遗传进化编程。这些方法的基本思路在于,编制一系列执行任务的、相互竞争的且随时间不断变化(往往是随机的)的程序。出色完成任务的程序变体将得以存续并蓬勃发展下去。它们只需为下一次迭代稍作修改便能创造出更多的副本。而那些不能出色完成任务的程序变体则会逐渐萎缩,最终消亡殆尽。以这种半结构性的方式,许多未曾被任何人所料想的程序将会不断涌现。有人可能已经料想到了遗传编程的运行过程,但他却无法料想到上述过程产生的特定程序。

遗传编程和机器学习(有时也会是两者的结合)的兴起与当前的讨论息息相关,因为它们可以被用来设计从某种意义上来说超乎其创造者意图的机器人。在某种程度上,遗传编程和机器学习使得将机器人的意图解释为机器人所有人的意图的做法变得更为棘手。最近,一些知名公司也已开始向“能够制造其他人工智能机器的人工智能机器”投入巨额资金。这进一步拉长了人类与机器的行为决策之间的距离。如果通过人工智能机器制造其他人工智能机器的尝试取得成功的话,那么将人类的意图追溯到机器的行为上的做法将会更加困难。

总之,廉价传感器、强大的运算能力以及机器学习和遗传编程之类的人工智能发明重塑了机器人的活动内容、范围以及它们所需要的监管力度。

(三)社会、政治和经济的新议题

机器人的发展促使人们围绕机器人的相关问题展开了广泛讨论,电视节目、电影中经常播放和新闻中不断报道的关于机器人杀人和机器人在智力和人性方面超越人类的画面即为例证。

尽管这些问题听起来不乏娱乐性,但由自主机器人引发的更为紧迫和现实的问题也在其他领域被发现。虽然机器人不会与我们争夺政治或者军事霸权,但它们却有可能从根本上改变从事工作的主体、财富的持有者以及故障机器人任意摆布的对象。

目前,众多领域围绕着以下问题展开了激烈论辩:机器人仅仅是在用产生新的工作形式(如自动驾驶卡车工程师)的方式来取代某些旧的工作形式(如卡车司机),还是机器人会将人类从当前诸多领域中完全淘汰掉。无论上述问题的答案如何,公司和作为机器人的管理人和所有人的个人都将从中获取巨大的经济利益。同时,那些将由机器人来代替其来完成工作的人们将陷入经济困境。

上述现象表明,我们正处于一个机遇与危机并存的新时代。在这个时代下,整个经济蛋糕可能会有所增大,但这块蛋糕的分配将愈发不平等。据估计,美国大约一半的蓝领和白领工作正面临着全面自动化的极大风险。即使这一预言部分实现,也可能带来经济、社会和政治上的严重后果。例如,最近的政治辩论总是聚焦在将美国本土的工作岗位外包给国外工厂的做法上。但有必要指出的是,与海外竞争相比,自主机器人可能会对美国创造就业方面造成更大的威胁。

机器人将明显取代人类劳动,且伴随着财富的集中化,还可能会影响人们的投票偏好,从长远来看,还可能产生深远的政治影响。不妨设想一下,优步公司成功利用机器人取代了众多人类驾驶员。在上述场景下,那些被取代的人类驾驶员会需要一种什么样的政治回应?这将会催生一场什么样的社会动荡?财富的极度集中又会对民主规范产生什么样的影响?更为要紧是,那些为故障机器人所侵害的人们将如何获得救济?

(四)来自实体法的回应

技术领导者已经认识到了人工智能固有的巨大潜力以及机器人对整个社会的全面渗透,其中有许多人呼吁对人工智能严格监管。而国会以及其他立法者则正在酝酿一些规制人工智能的法案。

同样地,一些法律学者也已然认识到,机器人对社会的广泛渗透可能会扰乱现有许多实体理论框架。比如,机器人在言论发表和审查的参与上比以往任何时候都更为密切。这在宪法第一修正案的法学体系中引发了一场有关“机器人言论”的法律地位的激烈论辩。有关机器学习算法在金融服务行业运用的学术研究正对相关问题进行考察。类似地,侵权法的诸多规则都是建立在故意和过失这对具有稳定内涵的概念之上的。然而,这对概念本质上是以人类为中心设计的,它们很难套用到机器人的行动上。例如,“转化故意”的概念应如何适用到一个会攻击和伤害人类但却无法形成故意的机器人身上?可以预见的是,随着机器人能够从事更多的行为——这些行为如果是由人类来实施的,则会构成故意或者过失侵权——理论和社会现实的冲突将会要求实体侵权规则对相关概念作出相应的修正和澄清。实际上,有相当多的法律部门也在类似问题的处理上举步维艰,它们包括版权法、专利法、合同法、证据法、税法、行政法、刑法、治安管理法、和反托斯拉法。简言之,机器的不断崛起将会破坏许多理论框架。

总之,实体法学者已经认识到将机器人提出的挑战纳入理论思考中的必要性正在与日俱增。但与之相对的是,程序法学界至今仍未作出类似的回应。

民事程序法学界完全无视尽早仔细斟酌机器人与社会交互带来巨变的必要性,同时对机器人与当前确立已久的早在自主机器人出现之前便已被设计出来但日益过时的诉讼程序的理论规则的冲突置若罔闻。为了填补这一不足,以下部分将按两个步骤展开:首先提供广泛的分析,其次给出具体的建议。

二、分析框架的提出

在法律的大草原上,漫游着形形色色的法律实体。在这些实体中,诸如公司之类的实体已然存在好几个世纪。而盈利性公益公司之类的其他实体则是新近才出现的新型实体。理论上需要对这些实体一一作出解释,即使有时候也会决定忽略它们。但有必要指出的是,在法官、立法者和学者们评估实体和程序上对某一实体的处理方式之前,他们必须利用分析框架来解释这一实体。而分析框架的形式则是法律处理所有问题的基础,这是不言而喻的事情。

人们常常在尚未充分认识某种分析框架或者质疑其可靠性的情况下,便已默认地选择某种分析框架。这样的做法不仅常为人们所忽视且未曾被阐明,由此招致了广泛的后果。被选中的分析框架会对大大小小的问题——从抽象的政策探讨,到对各种原则和标准的评价,再到制度建构和规则解释的重要细节——给出相应答案。

本部分将厘定和阐释三种理想的分析框架,用以对一般实体特别是机器人进行评估。第一个分析方法是本体论的分析框架,它对于机器人诉讼地位问题的回答是基于机器人本质属性展开的。第二个分析方法是义务论的分析框架,旨在从我们对机器人负有或者不负有道德义务的视角找寻机器人是否享有诉讼权利的理据。最后一个分析方法是功能论的分析框架,它聚焦考察在诉讼中将机器人与其他主体类型相区隔的做法究竟有何实际效用。

这些分析框架可被运用于所有实体法领域。例如,一位侵权法学者可能会用它们来评价一个机器人是否会形成侵害他人的故意。不过,考虑到本文的主旨,我将集中探讨程序法问题,并重点关注诉讼程序历史中的事例。

对某个分析框架的偏爱会影响我们解决有关机器人诉讼地位的基本问题。鉴于这一潜在的影响,阐明每个框架概念上的运作机理、魅力及问题所在是极富实益的。

(一)本体论的分析

我们解决如何对待机器人问题的其中一种分析方法就是考察机器人是什么。这种分析方法坚信,事物的本质属性可以指导我们如何思考该事物。譬如,从来没有人问及过岩石的诉讼地位,因为它们本质上是一种被动且毫无情感的事物。岩石与那些能够参与诉讼活动的实体(如个人和公司)之间鲜有共同的根本特征。下面,我将按照以下三个步骤展开论述:首先,勾勒这种本体论观点的论证结构;其次,阐明引导法院和法律评释者授予公司(而不是动物或者植物)以诉讼权利的本体论思维的运用;最后,分析把本体论思维适用于机器人的优势和不足。

众所周知,本体论是形而上学的一个分支。它所关切的是事物的本质、实体的类型、特征及联系。作为哲学研究中最古老的领域之一,本体论的文献中充斥着众多晦涩而抽象的问题。但即便如此,本体论也为世人提供了一种普遍而又具体的解决问题的方法。为了弄清如何对待某一新类型的对象,须先行探明该对象的本质属性,然后再将其核心特征与已知对象类比。例如,在19世纪90年代初,法律评释者和法院就曾通过考察互联网的本质属性来解决法律上遇到的难题。互联网的本质是一种公共空间吗?或者互联网的本质在于任何特定的区域都不可定位吗?这些都是本体论上的理论问题,但它们对于法院思考管辖权、法律选择、税收、言论自由等诸多问题的方式产生了实际的影响。虽然本体论思维方式有时会清晰明确,但常常会过分地拘泥于单个术语,并对该术语作过多的概念上的扩张。譬如,“网络空间”这一术语意味着,互联网是一种物理空间的电子类比物。使用这一术语就会或暗示或明示地合理化了把互联网视为一种场所的做法,这种做法以互联网的本质属性是准物理空间的假设为基础。

本体论的论证方法在民事诉讼中的运用由来已久。体现这种思维最明显的例子之一就是公司。众所周知,美国建国之初,几乎没有什么公司存在。但它们在几十年之内便席卷了美国的经济。很快,法院就面临着民事诉讼程序中应当如何对待公司的难题。许多法院诉诸本体论的论证方法。它们通过提出公司“是”什么的问题,来研究公司的本质属性和特征。随后,法院就该本体论问题给出了不同的答案。有时,法院将公司类比为因工作而聚集在一起的个人集合体(大体为广义的合伙关系)。而有的时候,法院则认为公司的本质属性与人的本质属性相似,因为公司不仅能够作出决定,而且还内设了无法简化为公司股东代理的代理机构。随后,这些有关公司本体论地位的回答都推动着公司最终获得了程序上的权利和地位。

类似的本体论的论证方法曾被用于界定城市的诉讼地位,最近还被运用于动物、植物、河流、以及其他对象的诉讼地位的界定中。这些尝试有的成功,有的则失败了。

有关机器人的诉讼地位的思考亦可沿着类似的路径展开。探明机器人的本质属性是该分析框架运用的第一步。机器人的本质属性或许是自主决策性(autonomous decision-making)、或许是奴性(servility)、冰冷的理性(cold rationality)、淡漠性(soullessness)、抑或是机械耐用性(mechanical robustness)。流行文化提供了许多描述机器人本质属性的例子,它们描述每个本质属性的不同方面。值得我们注意的是,对这些特征中的任何特征的关注均可以为诉讼价值(litigation-worthiness)的不同评价提供基础。例如,自主决策性描述了诉讼主体具备的智力特征。相比之下,机械耐用性则并没有体现。

这就揭示了本体论分析方法在诉讼能力(litigation capacity)问题上的优点与不足。该分析方法的主要优点不仅体现在其直观性上,某种程度上还体现在其必然性上。为了对实体Z具有何种诉讼能力的问题作出回答,我们理所当然地会想了解更多关于Z的本质属性。

正如上例所示,这一分析方法的主要缺点在于其缺乏确定性。根据我们关注的特征的不同,会得出截然不同的评价。如果我们对机器人的基本属性并无争议,那么问题也不会太严重,但遗憾的是,实际情况却并非如此。本质上,我们是在把非人类与人类相比较并由此来探究人格的根本属性。这个概念可能是我们文化中最具争议的概念之一,如另一语境中关于应否把胎儿视为人的争议即为明证。

同样地,本体论的论证方法亦缺乏确定性,常常以一种循环论证或精心设计的障眼法的形式存在于义务论或功能论的论证之中。

(二)义务论的分析

一种与本体论思维截然不同的分析方法是义务论思维。该分析方法关切的对象不是机器人的本质属性,而是我们对机器人以及意欲起诉机器人的人负有的道德义务(答案可能是没有)。义务论的分析方法旨在探明,什么样的处理方式是道德上允许、必要或者禁止的。该规范性分析方法着眼点在于道德义务与责任,而非机器人可能拥有的特征。义务论思维常常通过与结果主义思维相对照的形式来进行解释。结果主义论者以选择产生的结果来评价选择的好坏。如果某一选择的结果产生更多的“善(good)”(无论作何定义),那么这一选择在道德上是可取的。如果某一选择的结果减少了整体的善,那么这一选择就是不可取的。

义务论者对这种将结果奉为圭臬的做法持质疑态度。假如结果是最重要的判定因素,那么有的时候杀死或者伤害无辜者可能是正当的,甚至在道德上可能是必要的。下述例子常被援引用以批判结果主义思维:假设有一名医生,他有两名奄奄一息且急需器官的病人。此外,这名医生还有一位健康的病人,这位病人的器官可以拯救另外两名病人。对此,一些学者批判结果主义论者会要求以牺牲健康病人的方式来拯救另外两名病人。

义务论思维可以被理解为一种否定结果主义的基本前提的思维方式。义务论者主张道德判断须以无涉结果的责任与义务为着眼点。某些行为是合乎正义且在道德上必要的,无论它们是否促进了整体的“善”。有些事情是为道德所禁止的,而有些事情则是道德上必要的。正义优先于善(Right takes priority over Good)。通过拒绝对结果的分析,义务论者重新将道德的评价聚焦于道德行为规范上来避免恶行。义务论思维的主要魅力在于它体现了道德责任感,这与对结果的精打细算是截然不同的。故此,杀人是不道德的。

义务论规范的主要缺陷在于,它在内容和范围上的不确定性。正如结果主义中的许多规范都取决于我们如何定义被我们的选择最大化的“善”,义务论中的诸多规范则取决于对道德上的恶与道德义务的解释。纵使我们就道德义务的定义达成了普遍的共识,道德义务的范围仍不甚明了。机器人有道德地位吗?永久地关闭一台机器人是否意味着杀死一台机器人?

我们理所当然地对其他人类负有道德义务。如果机器人有和人类一样的道德地位,那么它们同样处于从道德义务推导出来的义务论保护伞之下。此外,许多机器人拥有类人化的外表会使得将机器人拟人化的做法极具诱惑力。但有必要指出的是,拥有类人化的外表并不能使该事物成为人类。换言之,与人类并不相似的实体也许某天会拥有一些使它们有资格获得类似人类待遇的特征(除了外表)。尽管不大可能,但任何解释都不应该排除这样一种可能性,即非人类值得类似人类的某些方面的待遇。更令人担忧的是,法律已经愿意在某种程度上将诸如公司之类的非人类视为道德能动者(moral agents)。公司可以承担刑事责任即为一例。同时,为了使机器人遵守道德准则,计算机科学家和道德哲学家们正在开拓一个新兴的领域,即“计算伦理(computational ethics)”。他们希望创制出“人造道德能动者(artificial moral agents)”。

考虑到义务论规范在内容和范围上的不确定性,义务论思维尽管在许多人看来是直观的,但在确定非人类的诉讼权利上用处有限。

(三)功能论的分析

在解决机器人民事诉讼问题的概念性框架中最具独立参考价值的一种就是功能论的分析方法。它追问的是诉讼中将机器人与其所有人相区隔的做法的实际影响。这种做法是否会发挥有益的作用?这种分析方法把我们分析的着眼点从高高在上的哲学领域转移到急迫的具体的诉讼需求和效果上。

这种分析方法既不考察机器人的本质属性,也不追问机器人应否享有道德地位,它与本体论、义务论问题并无关联。机器人的本质属性是否有一天会与人类的本质属性相似是本体论分析方法必须面对的问题。而机器人应否享有权利则是义务论分析方法无法回避的问题。与这两种分析方法相反,功能论的分析方法不关注这些(或许无法解答的)问题,而去考察在诉讼中将机器人与其所有人相区隔的做法的实际影响。当一辆自动驾驶卡车在缅街和伊利街的交叉路口撞倒一名行人时,在诉讼中将机器人与其所有人相区隔的做法对诉讼程序会有什么影响?与原来的做法相比,这种做法产生的实际影响会更好还是更坏?

早在法院和立法者应对公司的出现之前,他们就已经围绕拟制人格展开了功能论层面的论争。毋庸置疑,诉讼中的公司人格是一种法律拟制。公司没有可供谴责的灵魂,也没有可供处罚的肉体,它们可以永久存续,而不必如人类那样受到寿命的限制,它们也不会对被称之为家的一栋房子多愁善感。然而,民事诉讼程序却程式化地将公司拟人化,并追问对人管辖权上公司的“家”在哪,以及事项管辖权上公司是哪里的“公民”?法律评释者和法院早已认识到这一拟制人格的比喻的愚蠢,但他们也成功地论证了该比喻的实用性。实际上,该比喻发挥了极其重要的功能。

这一功能便是,在程序框架免遭剧烈破坏的前提下,把由公司提起的诉讼和针对公司提起的诉讼融入到既有的程序框架(最初是为人类而设计的)当中。法院、立法者和规则制定者们相信,为了避免创制专门适用于特定实体的诉讼程序,有必要作一些比喻性的拟制。

这是一个崇高的目标,但为了实现这一目标是要付出代价的。扭曲诸如“家”和“公民”之类的比喻不仅会混淆视听,还会使既已确立的法律原则变得前后矛盾和杂乱无章。对人管辖权原则能够相当顺利地适用到个人身上,但适用于公司时却会陷入一片狼藉,因为该原则难以将公司涵括其中。例如,“在场(presence)”是对人管辖权原则中最重要的基础概念之一。法院曾经反复追问“在场”对于公司意味着什么。对人类来说,这是一个相对简单的问题:当你身处某地时就意味着在场。但遗憾的是,公司没有身体。它们只有在代表公司利益工作的人类行为者在场时才有“在场”。这引发了无休止的争论:人类行为者究竟在何种情景下从事何种事务才足以使一家公司构成其在某个法院的“在场”?

总的来看,法院和立法者都认为在大多数情况下把公司当作人类来对待的做法在诉讼上意义重大。因为这一做法在确保诉讼效率和成本的同时,使诉讼具有可预测性和统一性。由此看来,功能论的分析方法使得诉讼价值的权衡成为可能,这是本体论和义务论的分析方法所不及的。

功能论的分析方法使我们得以衡量和比较各种针对机器人的非财产处理方式产生的影响。这种潜在的机器人诉讼的影响发生在两种场景。第一种场景是法庭本身。任何关于机器人诉讼的分析都必须清楚阐述和仔细权衡直接起诉机器人的做法会如何与诉讼中的实践以及理论问题互动。就实践层面而言,致力于功能论分析方法的人必须弄清楚机器人如何与长期存在的管辖权原则(longstanding jurisdictional doctrines)、程序障碍服务(service of process difficulties)、救济途径的有效性和广泛性(the availability and scope of remedies)、一事不再理原则的射程(the scope of res judicata doctrines)以及其他数以百计且至关重要的程序细节相兼容(或不相兼容)。就理论层面而言,机器人诉讼的功能论分析必须释明需受保护的广泛程序价值以及彼此之间的平衡,包括效率(speed)、成本(cost)、精确性(accuracy)、终局性(finality)、公平性(fairness)、可获得性(accessibility)、简易性(simplicity)、非公开性(privacy)以及参与性(participation)。理想的情况下,诉讼程序制度会增进所有这些价值,但遗憾的是,我们无可回避地要在这些价值之间称斤约两。机器人诉讼有可能需要重新衡量这些程序价值。

第二种受机器人诉讼的有效性影响的场景在法庭之外。诉讼规则的作用范围并不限于法庭上发生的事情。相反,从诉讼被提起之前到诉讼案件被归档之后的行为均会受到诉讼规则的影响。比如,严格的诉答标准(pleading standards)可能会使从事反垄断行为更具诱惑力,因为人们对有效执行的恐惧减少了。故此,功能论的分析方法在帮助我们评估诉讼规则如何影响日常行为的问题上大有裨益。

在机器人诉讼的语境下,这种对日常行为的影响会以各种形式呈现。最值得注意的是,机器人诉讼可能会影响到公司是雇佣机器人还是雇佣人类。如果机器人使得在某个不利于公司的法院管辖区内对该公司建立对人管辖权更加困难,那么这会改变公司在这个法院管辖区内雇佣人类的决定。同样地,机器人诉讼规则的框架也可能影响到工作是由本地公司还是国外公司完成。

总之,功能论的分析方法非常适合用来分析将机器人融入民事诉讼中或者继续将机器人作为纯粹财产的做法分别会带来哪些经济、社会和政治影响。相比之下,本体论和义务论思维就像一个空的容器,我们以存在或意识的本质要求的名义,把我们的政策偏好、倾向、期望和偏见都注入其中。

但这并不是说,本体论和义务论思维均为土牛石田。一个机器人诉讼的理想模型理应同时满足本体论、义务论和功能论的各项必要条件。但需要指出的是,这种模型是不太可能达致的。切合实际的做法是,我们必须在这三种分析方法中做出合理的权衡。为了获得广泛的认可,机器人诉讼模型至少必须满足三个分析框架的最低限度的要求,并至少能够与其中一个分析框架良好匹配。文章的下一部分将继续摸索满足上述标准的机器人诉讼模型。

三、一些可能的模型

本部分运用了本体论、义务论和功能论的分析框架来评估众多特定的将机器人视为诉讼实体的参考模型。这些可能的诉讼模型非常广泛,包括雇员、奴隶、特许经营者、子公司、未成年人、动物、代理人或者分包商。每个模型都会被依次评析。由此揭示把机器人类比为既有模型的不足。在这些模型中,尚不存在一个能与机器人相兼容的模型,且每个模型都会产生诸多消极的实际后果。由于法院将会面临更多涉及机器人的诉讼,它们有可能会尝试把机器人纳入其中一种模型。因此,在判例法建立起对某个模型的青睐之前阻止这种尝试的萌芽至关重要。

本部分将揭示把机器人视作财产以外的其他实体的诉讼模型中固有的浮士德式交易。把机器人类比为某一现有模型的做法会使法律的强制实施更为便利,但也会减少原告在执行中可获得的赔偿金额。

(一)默认模型:机器人作为财产抑或财产之外的事物

目前,机器人的默认模型是没有独立诉讼地位的事物。普遍的观点认为,机器人属于财产,起诉机器人无异于控告其所有人,机器人不享有独立于其所有人的地位。

这种把机器人理解为纯粹财产的观点在程序上具有重要的影响。例如,单就财产本身无法成为对人管辖权的独立基础。一辆在蒙大拿州行驶的自动驾驶汽车仅凭自己,无法为蒙大拿州法院对该机器人行使管辖权创造基础。正如联邦最高法院在Shaffer v. Heitner这一开创性案件中所主张的那样:“‘事项管辖权’这一措辞其实是一种习惯性的省略表达方式,它是指法院对某事件中的个人利益的管辖权。”因此,蒙大拿州的法院不得不分析机器人的所有人与蒙大拿州之间的联系,以确定该法院是否有权依据宪法对其权利的限制来审理此案。

尽管无法在蒙大拿州自动获得管辖权,但机器人在蒙大拿州在场的事实仍可以被用来在蒙大拿州建立管辖权。但有必要指出的是,上述管辖权的建立只能通过一种迂回的方式。原告需要证明,机器人的在场表明机器人所有人与蒙大拿州之间的联系与满足最低限度联系之标准的相关诉讼有关。假如案件的争点是机器人本身的权属,完成上述证明或许是可行的。但若是在自主机器人造成损害(如在高速公路事故)的场合,完成上述证明则将是困难重重或希望渺茫的。

由于机器人仅为财产,它不仅无法形成意图,无法与蒙大拿州建立起独立的联系,而且也不能从蒙大拿州获取补助和寻求保护。唯有机器人的所有人方能实施上述行为。但由于机器人是自主行动的,机器人的所有人无需在蒙大拿州策划任何事务、与蒙大拿州建立联系或者有意适用蒙大拿州的任何制度。

基于同样的理由,在普遍管辖权方面,机器人本身在任何地方都不可能“有家可归”。只有其所有人(个人或公司)可能在美国法院的管辖范围之内有家可归。因此,纵使机器人在蒙大拿州被生产,在蒙大拿州度过全生命周期,在蒙大拿州从事工作,使用蒙大拿州的道路和享受蒙大拿州的公共服务系统,但它仍然不能在蒙大拿州“有家可归”,蒙大拿州的法院也无法对其行使普遍管辖权。

把机器人当作财产的做法为机器人的所有人提供了一个防护屏障,这使得原告难以在蒙大拿州起诉机器人或者其所有人。如果机器人的所有人是外国人,那么可能没有任何国内的法院可以受理被机器人所伤的原告的诉讼请求。

此外,把机器人当作财产的做法会在诉讼程序领域内产生众多复杂而又难以预料的后果:在异籍管辖权上没有公民资格的机器人不会为长臂管辖所考虑,亦不会成为不方便审理法院原则分析的对象,它们也不会因毁灭证据而受到制裁,也没有参加诉讼或辩护的能力。此外,我们制度中没有任何可以把机器人归入诉讼程序的机制,也不存在任何能够使机器人诉讼能够被提起、阻碍机器人诉讼或者促进机器人诉讼的法律选择偏好、其他程序性原则、制定法或规则。

因此,就目前来看,起诉机器人与起诉一辆在十字路口撞倒你的汽车的做法别无二致。就后种情况而言,你一般会去查明汽车的所有人并起诉该人。如果损害是由公司造成的,那么结果会截然相反。在公司造成损害的情况下,控诉并非针对公司股东,而是直接针对公司。形成这一差异的理由是多方面的。首先,公司的独立存在形式提供了一种责任限制,有助于激励人们对公司和整个经济活动的投资。公司赔偿责任的范围(通常)仅限于公司资产,而不及于公司股东的资产。在某个大公司购买股票的股东仅需要担心失去其购买股票的价值,而无需担心诉讼当事人用股东的资产来履行对公司作出的判决。把对公司的诉讼与对公司股东的诉讼分开对待的第二个原因是为了诉讼简易性。例如,将诉讼程序适用于公司的做法是相对简易、平价和直接的。而把诉讼程序适用于每个持有公司股票的股东的做法则恰恰相反。

上述讨论揭示了把机器人当作财产的做法的尺短寸长。在本体论方面,在诉讼上把机器人当作财产的做法是直观的,因为它们是财产。它们是可以被购买、出售、启用、停用和修改的事物。因此,有观点认为,机器人就像所有的动产一样,在诉讼中把机器人和其所有人相区隔的做法是毫无意义的。但有人提出反驳,认为机器人可能是一种不可思议的新型动产——一种能够或者即将能够以有意义的方式自主行动的财产。值得注意的是,一些机器人似乎能够做出一些无法以任何直接的方式追究到其所有人身上的决定。由此导致的结果是,人们可能无法判断在他们旁边行驶的汽车究竟是由人类驾驶的,还是由自主机器人驾驶的。有人可能会认为,这使得机器人成为一种新型的财产类别。我认为这未必会立刻对机器人能否被销售产生影响,但可以肯定的是,机器人自主暗示着一种超越传统的非自动化汽车可能享有的本体论地位。

这一本体论上的矛盾已在一定范围内显现。目前,人们对把机器人当作财产的做法毫无争议,大多数机器人与更为传统的机器之间并无殊异。然而,如果机器人变得日益自主,它们作为财产的诉讼地位亦会慢慢成为历史。

技术的进步可能会使在诉讼上把机器人当作财产的做法日益与现实脱节。也许机器人在某些基本层面上无法形成(在对人管辖权上与某个法院建立联系或者在某个地方确立住所的)意图。但值得注意的是,机器人能够在某些情境下以某些方式行动,而在这些情境中,认为机器人具有意图的做法会是直观的,并且有一天这种做法或许会大受欢迎。这会从根本上使我们在诉讼上把机器人当作动产的做法土崩瓦解。

机器人不能被当作动产来对待的主要的功能论上的原因在于,在现行理论框架内,这种做法不仅会使受到损害的当事人难以获得赔偿,并且成本高昂。自主机器人的广泛运用可能会带来新的经济效益,但永无止境的机器人故障和由机器人引发的不幸事故亦将随之而来。法律必须就下述问题给出答案:谁应当为机器人引发的事故和涉及机器人的诉讼买单?

诉讼程序是上述答案的一部分,因为具体原告如果不能通过诉诸法院来获得救济,那么纵使有再多的实体法救济也无济于事。把机器人当作财产的做法将使自主机器人的所有人能够更为心安理得地调度来自遥远州或国家的机器人工人,而不必担心在机器人可能造成损害但于其不利的法院打官司。而原告将会发现其难以就近寻求救济,政府则会发觉针对外国机器人的征税和监管困难重重。在诉讼上把机器人视为财产以外的其他事物可能会使遭受损害的当事人更容易就其损害获得赔偿。

但需要指出的是,把机器人当作所有人财产以外的事物的做法也存在巨大弊端。尽管这一做法可能更易于排除管辖权上的障碍和解除法律选择上的限制,但它也会限制原告可获得的赔偿数额。正如以下几个部分所要表明的那样,机器人诉讼中程序价值的权衡通常是在求偿的难易和赔偿的多寡之间展开的。

(二)公司的变体

另一种处理机器人诉讼的模型是把机器人当作公司来对待。跟机器人一样,公司生来就为人类(直接地者间接地)所拥有,为人类所管控,并可以为了广泛的目的而存在。纵使我们不把机器人当作公司来对待,机器人仍可能会如公司一般日益频繁地与法律打交道。正如其他人已然指出的那样,“把每一个合成智能裹入它们自己所属的法律公司之中”的做法是简易而经济的。因为,把机器人“作为其所属的法律实体的一项资产”的做法将使资产和责任相区隔,从而避免“[某一]公司因某一[机器人]的灾难性失误而破产。”尽管把机器人裹入公司中的做法显然有利于机器人的所有人,但这种做法却使得因机器人的灾难性失误而遭受损害的当事人无法获得赔偿或者只能获得有限的赔偿。实际上,这些当事人所遭受的不幸不仅会使机器人所有权更为优越,而且还会助长机器人试验大行其道。

像对待公司那样对待机器人的做法的主要魅力在于,民事诉讼程序早已建立起了一套处理公司诉讼的完备而高效的制度。譬如,在异籍管辖权方面,公司是其设立地和“主要营业地”所在州的公民。类似地,在联邦事项管辖权方面,机器人可以被认为是其生产地和主要活动实施地所在州的公民。

但有必要指出的是,从公司法的角度来看,把机器人当作公司的做法毫无意义。这种类比在两者的成立、决策和责任方面都是失败的。公司一定是遵循州公司法而设立的。至于机器人,没有迹象表明其必须遵循这些过程。我可以在我的车库里制造一个机器人,而不必知会政府或者斟酌建立一种新的法律实体。但我却无法在没有政府参与和高度意向性的情况下设立一家公司。

众所周知,公司享有的权利和保护均是由各州有条件地根据众多通常是错综复杂的要求和规则赋予的。相比之下,机器人没有也不可能有类似于公司的内部治理结构。因此,公司决策规则无法适用于机器人,共同问责规则(common accountability measures)亦无用武之地。

同样地,由于机器人与政府之间没有公司与批准其设立的政府之间存在的那种特殊关系,将处理公司的诉讼手段适用于机器人诉讼不免有些方枘圆凿。

另一个与公司模型相近的做法是把机器人当作子公司来对待。子公司是独立于作为其所有人公司的法律实体。随着时间的推移,民事诉讼程序已经发展出诸多针对子公司的处理模型。譬如,对人管辖权原则通常会区别对待子公司与母公司和某一法院的联系。然而,有一些方法可以揭开子公司与母公司之间的面纱,并将这两种联系视为同一来源。

按照目前子公司诉讼程序的机理来塑造机器人诉讼的做法的主要魅力在于,它提供了一种内在的方法用来审查母公司对子公司的管控力度以及子公司相对与母公司的独立程度,并为不同的情形设置了相应的程序和法律后果。比如,当母公司把其子公司视作关联企业的一部分,原告可以累计该母公司的管辖权联系。同样,法院也可以测试机器人的活动是否超过了自主阈值,或者所有人是否有效地控制了机器人。根据机器人在该频谱上所处的位置,法院可以将机器人视为单独的管辖权实体(如真正的子公司),也可以累计管辖权联系起来(如实质上并入母公司的名义子公司那样)。

尽管把机器人当做所有人的子公司的做法很诱人,但仍不可取,其原因有二。第一个原因是审查和确定所有人对机器人的管控力度十分困难。对于子公司,法院可以通过审阅电子邮件和备忘录来审查其是独立行事还是受母公司控制行事。而对于机器人,类似的审查则需要对复杂的、动态的且往往难以捉摸的代码——解释这些代码本身就并非易事——进行分析。例如,如果有人调试机器人的神经网络让其选择在温暖而潮湿的气候中寻找工作,这是否表明该机器人受到所有人的指示在佛罗里达州工作?纵使机器人的代码得以用上述方法分析,但这样做也要耗费大量时间,而且还需依赖收费极其高昂的专家协作工作。在许多案件中(如一起普通的交通事故案件),原告不太可能仅仅为了确立法院对机器人的管辖权而在案件的初始阶段承担这些费用。

除了难以在实际案件中根据机器人的行为来界定其自主程度外,另一个造成子公司式的做法未尽人意的原因是它依然把机器人视作公司(子公司按照定义也属于商业实体)。鉴于以上(成立、管理、税收和监管方面的)理由,把机器人类比为公司的做法无法满足本体论和功能论框架的要求。

(三)替代实体

在代理法中,如果本人委托代理人代表其行事,那么就形成了代理关系。代理人在约定的代理关系范围内执行事务。本人对代理人招致的法律责任负责。实体法把代理人的行为归责于本人。同样地,代理人的管辖权联系也归责于本人。例如,在现代对人管辖权的分析当中,代理人代表本人与蒙大拿州发生联系可能会使本人受到蒙大拿州法律的约束。

代理法在程序上的作用在于,它为法院审查何时可以把某个人的行为归责于另一个人提供了判定依据。是否允许把代理人的行为归责于本人取决于代理范围以及代理人是否自始至终都在事先商定的范围内行事(若是,则允许归责;反之,则不允许归责)。

代理人模型可以成为机器人诉讼的基础,它承认机器人代表某些人(它们的所有人)行事,但它们也可能会超出其所有人的意图和授权行事。比如,某个生来就有复杂机器学习进程的机器人可能有一天会从事一些其所有人不曾预料的(很可能无法预料的)事务,而这些行为不应当归责于其所有人。

把诉讼上对代理人的处理方式适用于机器人诉讼的做法面临的基本难题在于,代理人和本人必须自愿地就建立代理关系达致合意。除了为建立在合意上的法律责任提供行为规范基础外,代理关系的建立还划定了代理授权的范围(从而也划定了本人法律责任的范围)。但机器人对于这些事项无能为力,包括同意成为代理、达成双向协议、协商授权范围、解除代理关系、重新商谈代理关系条款等。由于成为代理人同意的缺失,机器人的代理范围将不存在任何行为规范或实践上的边界。机器人的任何行为都将归属于本人。这将使代理人模型陷入基于财产的诉讼模型的窘境,即无法为机器人在本体论中的中间地位及其能力范围的解释提供进一步的分析工具。

其他替代实体也基于同样的原因未能满足本体论最低限度的要求。例如,机器人不应被类比为特许经营者,因为它们没有能力同意与特许权人创设合同规定的关系。同样地,不能把机器人视为分包商或独立承包商,因为它们无法以任何有意义的方式与其所有人订立合同。最后,由于机器人无法确定自己的工作范围,在诉讼上把它们当作雇员来对待的做法是行不通的。

对机器人的所有人来说,基于合同的模型可能是诱人的(如允许约定有利的补偿和协议管辖条款)。但它们不能作为机器人诉讼模型的基础,因为机器人不具备替代实体模型的行为规范和实际诉求所必需的内在反馈机制和谈判能力。

(四)奴隶

另一种可能的模型是奴隶,尽管这一模型令人感到极度厌恶。美国内战前的法律对于奴隶的法律地位制定了许多精细的规则。这些规则规定了奴隶起诉和被起诉的能力以及法律责任的承担。

所有这些规则都建立在可恶的道德以及概念的矛盾之上:尽管奴隶被当作财产来对待,但他们具有某种能动性。甚至连奴隶制最为坚定和最为盲目的捍卫者也承认,奴隶能够并且确实经常作出自己的选择。这给奴隶的法律规制提出了难题——作为财产,奴隶的法律责任最终都是奴隶主的法律责任,但作为代理人,奴隶又可以从事与奴隶主无关的行为。奴隶被当做可以通过遗嘱和合同转移的财产,但当被指控犯罪时,奴隶也会被视为人(毕竟,真正意义上的财产不可能犯罪)。奴隶无法成为诉讼案件中的当事人,但却可以为了他们的自由而提起诉讼。作为动产,奴隶无法拥有财产,但他们却可以(在严格限制下的某些情形)拥有独立的资金。奴隶不能独立订立合同,但奴隶主(有时)会受到奴隶所订立合同的约束。

值得注意的是,乍看之下,这一描述及其内含的矛盾与机器人极度契合。机器人与奴隶有几分类似,它们虽然属于财产,但也能够作出(一些)自主决定。这是一个可怕而异常的契合——机器人和奴隶都是为人类所有人服务的动产,都被界定为没有法律和道德保护的准人类。

尽管奴隶模型从某些方面来看是一个合适的模型,但我认为法院应当拒绝把机器人类比为奴隶,并且不应把该模型纳入考虑。事实上,美国内战前的奴隶制法案不应被作为任何事情的典范。因为这些法案在道德上令人反感。让我们把这些法案埋在历史的废墟之中。

(五)未成年人、欠缺行为能力者和动物

当然,还有诸多其他可能的模型。但它们更站不住脚。例如,我们可以把机器人类比为未成年人或欠缺行为能力者。具体来说,他们都有一定程度的自主性,但都不及大多数成年人。诉讼规则通过指定可以代表未成年人或欠缺行为能力者起诉和起诉的人来解决这一差异。然而,有的成文法又规定未成年人和欠缺行为能力者拥有独立于其监护人的司法地位。简言之,诉讼程序在概念上把未成年人和欠缺行为能力者同监护人相区分,但在诉讼事务上他们仍须受到监护人的管控。在机器人诉讼中,机器人同样也可以兼有独立性因素(如管辖权问题)和管控性因素(如法律责任问题)。

上述模型尽管在某些方面很诱人,但终究未能满足本体论和义务论最低限度的基本要求。机器人不是未成年人,也不像未成年人。它们不会长大成人。即使它们可以,机器人的所有人也不是机器人的父母,他们没有特权,也无需肩负抚育下一代人的责任。同样,父母和社会之所以给予欠缺行为能力者以特殊的关照,是由于他们的基本人道使然,而这种人道是无法惠及于机器人的。因此,当涉及诸如缺席判决或诉讼和解的批准等情形时,把对未成年人和欠缺行为能力者提供的保护和关切扩大适用于机器人的做法是极其荒谬的。

机器人诉讼的另一种模型是把机器人视作(危险的)动物。在动物的主人须对动物负责方面,机器人与动物有些类似,但法律也承认动物会自己行动并造成损害。这个模型在其他法律领域(如侵权法领域)兴许是有效的,但它对由机器人引发的程序问题并无助益,因为民事程序未对涉及动物的诉讼确立特别规则(动物仅为动产)。

(六)浮士德式交易

尽管以上所有模型都未能就机器人诉讼作出行之有效的解释,但它们对我们了解现存的非人类诉讼中暗藏的浮士德式交易是极富意义的。每个模型都以各种各样的形式在便利执行和限制赔偿之间称斤约两。譬如,把机器人视为财产的做法会使得起诉附近的机器人及其国外的所有人困难重重,但一旦胜诉就能让原告就该所有人的资产获得完全的赔偿。与此相反,把机器人当作子公司的做法则会使对附近的机器人提起诉讼更为容易,但原告的赔偿仅能从作为子公司的机器人身上获取,而不能从所有人身上获得。这会给被机器人侵害的当事人制造不必要的困难。依赖现有模型来指导塑造机器人诉讼会迫使我们不得不在诉讼的便利性和获偿的简易性之间作出抉择。考虑到机器人的所有人可能获得的新经济利益以及机器人可能造成的众多损害,这种浮士德式交易是不可取的。

幸运的是,无论是从概念上或者规范上来看,我们都没有必要达成这样一种交易。若我们能尽早且果断地为机器人诉讼选择一种诉讼模型,那我们就有机会突破以往局限,塑造一种全新的能够同时为受害人提供获得法院审判和寻求赔偿的诉讼模型。

反对上述提议的意见认为,制定偏离常规诉讼结构的特殊机器人诉讼规则对机器人的所有人来说是不公平的。这种诉讼规则还会潜在地抑制经济活动(阻碍机器人的应用)和创新(遏制机器人技术的研发)。

这些意见很重要,但并不具有决定性。尽管诉讼规则普遍地适用于所有当事人和各种类型的诉讼案件,但在跨实体和跨个人的行为规范中仍有诸多例外。因此,尽管这些规范很重要,但我们一次又一次地认识到,当有特定的诉讼需求和漏洞需要弥补时,这些规范可以并且应该被违反。

机器人诉讼就是这样的一个例子。正如前面所指出的,机器人的所有人未来可能会比普通的民众拥有更强大的经济实力。因此,机器人的所有人将会拥有比被机器人侵害的原告更多的手段来为鞭长驾远的诉讼案件进行辩护。否定原告获得赔偿的权利可能会导致他们对机器人充满敌意,从长远角度看,这可能会使机器人的所有人和整个经济在公共舆论和立法上付出更为惨重的代价。本文余下部分将考察,剔除浮士德式交易后的机器人诉讼所须满足的必要条件。

四、建议方案、时机、难题以及灰色地带

上一部分研究了既有非典型人类诉讼模型能否适用于机器人的问题。研究的核心观点认为没有一个模型能够与机器人诉讼完美契合。所有模型均无法达到本体论、义务论和功能论的最低限度的要求。没有一个模型是理想的答案。但我们必须作出选择。为了推进并消弭可执行性与可救济性之间的浮士德式交易,本部分认为,我们必须把机器人视为一种全新的诉讼类别,并有选择性地部分地借鉴现有模型中的真知灼见。例如,我们需要精心构建一套以机器人为对象的新管辖权原则,以补充以人为对象的旧管辖权原则。为此,我们必须制定一系列新的标准,规定出于法律选择的目的如何确定机器人的住所,机器人及其所有人之间如何分摊法律责任,以及依赖于如何理解意图、人格和独立代理的众多其他程序规则。唯有把机器人从现有诉讼框架中剥离,我们才能摆脱原有的浮士德式交易。

本部分建议的解决方案并非毫无破绽和确定无疑的。尽管如此,该方案还是提供了一个可行、灵活且务实的框架,以应对不断变化的技术能力以及有关如何将机器人融入到日常生活中的新兴社会规范。

(一)解决方案

上述部分均已表明,程序法的处理可以并且有时应当与实体法的处理相区分。例如,在宪法第一修正案上,教堂和联邦政府受到的待遇可能会有云泥之别,但它们都遵循相同的辩护规则提起诉讼。与此同时,在实体合同法中它们可能会在受到同等待遇,但却服务于不同的程序目的。

简言之,我们在许多领域都认识到了将实体内容从诉讼程序中抽离出来的价值。因此,在诉讼中对机器人采用不同的程序处理方式并不需要改变我们对机器人的征税和(实体法上的)监管方式。合同法或许会也或许不会为机器人的合同订立制定单独的规则。侵权法可能会也可能不会为机器人过失和故意确立特别的认定标准。同样,合同法规则可能会借鉴也可能排斥机器人侵权法规则的意见。这里提出的程序性建议与实体法规则应该如何对待机器人的问题无关。该建议是基于机器人带来了独特的诉讼难题,而应对的最佳策略便是创制一套独特的解决方案。

这套独特的解决方案不能完全依靠任何一个现有的诉讼模型。相反,我们必须根据现有模型的优缺点发展出一套新的综合性方案。这套综合性方案必须要考虑机器人特殊的本体论地位,以及各种实践层面和政治层面的价值判断(简单来说,既要鼓励机器人技术创新,又要保护被机器人侵害的人们)。为此,有必要就重新审视诉讼程序的不同方面,并对机器人带来的各种挑战量体裁衣。

在公司出现之时,民事诉讼程序就曾如此行事。法院本可以像对待个人、政府机构或其他既有模型一样对待公司。有一段时间,法院试图将公司纳入当时既有模型之中。但这种妥协迁就的做法的缺陷很快便暴露无遗。简单来说,公司与个人或政府机构根本不同(本体论的理据)。它们不应该获得同等的尊重(义务论的视角)。此外,把它们当作个人或政府机构来对待会破坏重要的诉讼价值(功能论的观点)。

结果,法院和立法者展开了长达数十年的研究,并精心构建一系列着眼于公司在美国经济和社会中的独特属性和功能的诉讼规则。例如,国会曾反复修订异籍管辖权条款以重新定义公司的公民资格。当前,与个人不同,公司可以同时拥有两个州的公民资格。这是一个荒谬的结果,直到人们认识到这不过是对正在进行的有关公司获得联邦法院管辖论辩的政治妥协罢了。同样,联邦最高法院也在如何将公司融入常规的诉讼结构与如何将公司从常规的诉讼结构中区隔开来之间不停权衡。此外,还有大量程序规则和制定法也都是专门针对公司制定的。

在上述研究过程中,立法者和法院为公司制定了许多特殊的诉讼规则,但也有许多诉讼规则未被触及。公司面临的诉讼挑战使得针对每个法律原则、法律规则、法律条款逐一分析的方法十分必要。我们必须逐一评估,以决定对它们进行修正或保留。这是一项长期工程。

同理,法院和立法者也必须尽快对大量的诉讼规则进行重新评估,以期为机器人诉讼创制例外规则。当然,这种做法极其繁琐,且可能会造成新的理论混乱和复杂性。但如果采用把机器人诉讼套用于某个现有模型的替代做法,则无异于缘木求鱼。

(二)时机问题

时机选择也是一个问题。我们应该何时启动这样一项工程?有人可能对于机器人在遥远的将来会带来新的程序问题深信不疑,但对于现在是否是解决这一问题的时机则心存疑虑。或许,时机问题最好留给实体法去斟酌。有人可能认为,除非未来某一天立法者认为机器人能够拥有财产,否则在诉讼上区隔机器人与其所有人的做法没有任何实际意义,因为说到底,原告无论如何也无法从机器人身上直接获得赔偿。

尽管上述论点在某种程度上是直观的,但无论是抽象层面还是具体层面都无法成立。抽象层面,这种观点假定实体事项应优先于程序事项。该论点认为,首先实体法上必须先承认机器人的人格,之后程序法才能据此构建机器人的诉讼规则。但需要指出的是,鲁莽地坚称实体事项优先的观点是毫无必要的。诉讼程序关注的是实体规则的实施,而不论实体规则的内容如何。被机器人侵害的原告理当能够如被公司侵害的原告那样,主张适用侵权法的相关规则。因此,如果机器人提出了新的管辖权挑战,那么程序法可以去解决这些挑战,而不必等待实体法中的侵权法作出修订(同样,侵权法也没有必要等待程序法的修订就可以创设新的机器人殴打规则)。

除了实体法与程序法之间抽象的理论争鸣外,还有一个具体的理由可以反驳上述认为在机器人能够拥有财产之前诉讼程序保守不变的观点。事实上,即使机器人没有自己的瑞士银行账户,原告依然可以从机器人身上获得赔偿。因为没有任何理由阻止对机器人劳动所获得的工资或收入的扣押。例如,我们设想一辆在某个州运输货物的机器人卡车,它在该州造成了损害。对此,原告可以主张获得该机器人未来运输货物所产生的收入的一定比例,直到判决被完全履行。同样,一位胜诉的原告甚至可以取得机器人卡车本身的所有权。这台机器人卡车很可能是其所有人在受诉法院的管辖范围内唯一有价值的资产。因此,对于时机问题,纵使实体法本身未对机器人的法律责任作出调整,也没有任何理由阻止诉讼程序就这些问题展开处理。

此外,加密货币(cryptocurrency)的兴起打破了围绕资产控制来制定规则的传统思维。加密货币不存在关于谁来管控、使用、花费和积攒它们的内在条件。因此,机器人卡车可以积攒比特币(如通过完成送货),也可以花费比特币(如用于加油和维修),而不必等待法律允许其以自己的名义持有财产。

更为重要的是,法律(无论实体法还是程序法)不应该等待技术创造事实,然后简单地对新事实作出反应。法律必然与新技术的塑造相伴相生,因为技术创新者、企业家和社会在创造和使用新技术时,都会时刻考虑到法律权利和法律责任。因此,时机问题可能被错置了,因为无论诉讼程序是打算创制新规则,还是选择坚持当前把机器人视作财产的做法,有关机器人含义的法律建构都在持续进行。

(三)难题和灰色地带

除了时机问题,本文建议的创制一种新型的机器人诉讼规则的解决方案还存在众多难题。与此相关的是,还有大量的灰色地带和暧昧之处,使得在诉讼上把机器人当作财产以外的其他事物的任何尝试复杂化(不管这一新型诉讼规则本身有多大问题)。

首先,本文定义和讨论的机器人均为物理客体(physical objects)。但有人可能会质疑这种把机器人定义为复杂算法的物质体现的观点。譬如,他们可能会指出,“机器人”这一术语常常被用于非物理的程序,而这些程序从未在物质世界中与人类互动。显见不争的是,我们在互联网上遇到的复杂精细的程序也可能会展现出类似于自动驾驶汽车所展现的自主。例如,一个没有明显物理载体的虚拟助理可能会了解你的旅行线路,预测你的需要和喜好,并自动在你从未到过的小镇上预定你新近最喜爱的沙瓦玛餐厅。

尽管如此,强调机器人的物理属性(与纯粹的算法相对)仍是重要而合理的。装载物理外壳的机器人强行把它们自己展现在我们面前,而这是纯粹的算法无法做到的。不管我愿意与否,我都可能在离家外出的路上碰到自动驾驶汽车。与此截然相反的是,我通常需要采取肯定的步骤才能够与云端内的算法接触。例如,我肯定选择了启用前面提到过的旅行助手。这一选择为合同关系的各项事务奠定了文本和法律基础,并很可能包含协议管辖条款。由于我未曾与偶然邂逅的自动驾驶汽车订立合同,也就不可能与其就协议管辖条款进行谈判,我是否有权请求赔偿将取决于以物理联系为基本前提的管辖权原则。由此看来,坚持把机器人定义为复杂算法的物质体现会在管辖权层面上产生深远的影响。机器人不是纯粹的代码。它们是体现为能够与外部世界接触的物理外壳形式的代码。这使得它们迥异于非物理性的算法。

第二个反对意见同样是定义上的。机器人究竟需要具备多大程度的自主性?毕竟,可以预见的是机器人的自主范围是非常宽泛的。一方面,机器人可能仅在特定的情形下短暂地实施少有的自主行为。例如,有些飞行无人机可能内置故障自动防护装置,如果它们在与人类控制者之间的无线电通信线路出现故障或者中断之时会自动返回发射地点。而另一方面,我们可能会想象这样一些自动驾驶卡车,它们能够在很少或者根本没有人力投入的情况下运转多年,并且它们还能够根据无人批准或者审查的提货单在仓库之间来回运送货物。在上述自主程度的范围内,诉讼程序应该如何划线以适当地定义机器人?这是一个棘手的问题,它无疑会受到技术进步与我们对机器人的社会理解的冲击。首先,本文(内含于本文使用的机器人定义之中)给出了一个人类中心的定义:那些展现出的自主性近似于人类、与人类旗鼓相当甚至超越人类的机器人,应当与那些仅展现出最低限度自主性的设备相区别。笔者认为,不久就会出现这样一些机器人,对于它们来说,多大程度的自主性才算足够这个问题很容易回答。但毫无疑问的是,总会有一些机器人处于某个介于无自主(no autonomy)与完全自主(full autonomy)之间的狭缝之中,理性的人对此也可能会有不同意见。尽管如此,处于中间灰色地带的机器人的存在并不会破坏通过在自主机器人和非自主设备之间划出一条合理的界线而完成的重要概念和规范工作。

(四)对未来的展望

到目前为止,我们主要关注的对象是机器人被告。但问题是,它们能否作为原告提起诉讼吗?它们能否作为原告的一分子提起诉讼?或者它们能否在没有非机器人诉讼当事人(non-robot litigants)的参与下作为原告的全部提起诉讼?这些问题似乎很微不足道,但却指出了更大的隐忧:蠕变(creep)。

出于诉讼目的把自主机器人视作财产以外的其他事物的做法具有高度的投机性并且充满疑问,这无疑是危险的。在程序上区隔机器人与其所有人的做法,也可能会为出于其他目的而区隔机器人与其所有人的做法创造基础。因为,赋予机器人财产以外的其他程序地位可能会为机器人取得财产以外的其他实体地位拉开序幕。或许,这一实体地位是某种拥有基本权利和宪法权利的拟制人。基于此,机器人可能基于其程序上的地位,以一种缓慢、无意且隐秘的方式,成为实体权利的享有者。

这并非不切实际的幻想。类似的事情此前已经发生过。公司在积聚实体权利之前的很长时间内就是在程序中争取其独特的地位,而当前它们正在寻求过往仅仅适用于个人的宪法保护。

程序地位的变化可能会为实体权利的取得奠定基础,这使得有关机器人在我们的法律制度中的地位的程序法探讨迫在眉睫。尽管很多内容属于猜测,但考虑到我们高度路径依赖的法律制度,现在无关紧要的决定很可能会在未来造成难以想象的严重后果。

结论

机器人在共有世界中的崛起对我们的征税方式、监管机制以及如何看待责任、故意和权利都有着巨大影响。所有这些实体问题迟早都需通过诉讼解决,因为法律和规则无法自我实施。实体法已经在积极回应自主机器人,而诉讼法却并没有相应地解决这些棘手问题。

解决这些问题需要大量的猜想、持续不断的调适以及承认自己的错误。它还需要重新思考程序法的诸多方面,以应对机器人诉讼带来的独特挑战。因此,本文并非是对机器人诉讼问题的最终解答,毋宁是在呼吁学者们对我们一元化的诉讼框架中每条法律原则、法律规则、法律规定逐一进行分析,以便确定需要调整的地方。这项研究工作是实践性的、政治性的和哲学性的,并且最终就像一辆自动驾驶汽车在高速公路上直冲你而来一样不可避免。

相关阅读

1.郑志峰、李佩艳:人工智能对劳动法挑战及其建议探索

2.杰克·巴尔金:基于信息的治理——美国宪法能否回应大数据时代的挑战?

3.新书|韩旭至、李辉等译:《人工智能与法律的对话2》

推荐书目

微信号 : DigitalLaw_ECUPL

探寻数字法治逻辑

展望数字正义图景

数字法治战略合作伙伴:理财魔方

北京市竞天公诚律师事务所上海分所


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存