查看原文
其他

新型权利论坛 | 对机器人“法律人格论”的质疑

解正山 暨南学报哲学社会科学版 2021-09-21


作者 | 解正山(上海对外经贸大学法学院副教授)

原文标题 |《对机器人“法律人格论”的质疑——兼论机器人致害民事责任》

首发于暨南学报(哲学社会科学版)2020年第8期

网络版略有删减




原文提要

快速发展的人工智能技术使机器人越发具有自主性并呈现出某些道德或法律的能力。鉴此,不少法律学者主张授予这些人工智能实体法律人格以使之成为法律主体。然而,这种实用主义的法律立场忽视了智能机器人与自然人以及法人间的本质差异,赋予它们所谓的权利无论是在道德层面还是在法律层面上都是值得商榷的,主张机器人承担自身“行为”责任更是不可能。相反,将智能机器人视为“产品”并通过优化现有责任法框架来合理分配机器人“行为”责任才是现实的选择。




一、

问题的引出


现今,自动驾驶汽车商用前测试正在如火如荼地进行,机器人投资顾问则已开始帮助金融消费者作出投资决策,机器人“棋手”甚至还多次赢得了与人类棋手的较量。在此背景下,国内外不少学者主张授予这些机器人法律人格或主张将其视为法律主体,他们的理据主要包括:(1)人工智能技术已经或将要使机器人呈现一些所谓道德的或法律的行为能力;(2)具有人形且自主的机器人已具备社会交往能力;(3)人类法律既然能把法律人格授予人类婴孩、丧失心智的成年人以及公司或庙宇等实体,那么机器人享有法律人格也无不妥。那么,究竟是否应授予机器人法律人格以便其享有权利、负担义务,进而解决高度自主的机器人造成损害时的道德与法律责任问题?这不仅关乎“人”与机器人关系的法律确认,也涉及机器人法律地位与“行为”责任,是人工智能技术演进中应予解决的难题。


二、

为什么不应授予机器人法律人格


(一)机器人不可能成为权利主体

首先,机器人与“人”具有本质差异,既无法区分善与恶、 对与错、好与坏等复杂的道德观念,也不要指望它们拥有难能可贵的同情心。较之于“人”,机器智能充其量是一种演绎智慧,它们的感知能力、学习能力以及由此形成的自主性不过是对人类行为的模拟。无论机器人多么智能,其限度必然是不得等同或超越人类地位,因为一旦对人类主体地位构成威胁,它们就会失去存在的正当性与合法性。


其次,以公司法人这一非“人”实体具有享受权利、承担义务的主体资格为理据论证智能机器人应获得同等法律待遇也是站不住脚的,这一论据不仅忽视了公司法人与智能机器人的差异性,而且没有意识到机器人“权利意识”觉醒带来的风险。公司虽在形式上具有独立人格,但并未真正脱离“人”的控制或干预,其意思能力很大程度上取决于“人”的意思能力,这意味着承认公司法人的独立人格不至危及“人”的主体地位。而且,较之于公司自主的虚拟性,智能机器人已具有全部或部分独立于人类的自主性,一旦在法律上强化它们的独立地位,恐将无法确定它们如何表达使用人的意志以及谁能控制它们。实际上,无论人工智能系统多么复杂、智慧多么高级,它们终究只是作为“工具”而存在,反映的是人类技术能力的进步。



“法律人格论”者还借用动物权利之例证来论证机器人享有权利的正当性。然而,所谓动物权利更多是人类基于自身利益或同理心而给予动物某种程度的道德关怀,它们在法律上的客体地位不曾有过改变。机器人更是如此!进一步而言,如果机器人能够享有法律权利,那么它们可享有什么样的权利?通常,权利的概念根植于人类的道德世界。这决定了权利概念及其体系与“人”的密切关联性。不难想象,人类立法者承认机器人享有原本专属于“人”的那些权利时将遭遇怎样的挑战!


(二) 机器人履行义务/承担责任的非现实性

一般认为,公司等非“人”实体获得人格不在于它们的伦理性,很大程度上是因它们财产与责任的独立性。鉴此,有论者提出可通过法律拟制让人工智能系统像公司那样,不仅能拥有财产而且还可作为被告应诉,自己承担责任。可问题是,谁负责“出资”以构成机器人的财产与责任基础?需要设定最低的财产额度吗?“出资”人是否以出资额为限承担有限责任?即便不考虑立法技术上的挑战,仅从生产者或用户的立场看,这也是不现实的。因为,要求他们履行“出资”义务势必增加他们的经济成本而且也不具操作性。额外的成本负担不仅会打击人工智能开发者的创新热情,而且也将浇灭用户使用人工智能的兴趣,没有市场需求的支撑,人工智能技术的开发者自然就会失去技术创新的动力。更重要的是,若机器人真具有了权利意识而且还具备了承担责任的基础,那么这对“人”而言是祸是福?人类准备好接受一个拥有法律人格且具有公司无法比拟的自主性的新角色了吗?


从刑事责任能力的角度观察,部分学者所认为的机器人能为其自主“行为”负责更是不可能。首先,如上所言,机器人很难对善恶、好坏进行道德判断,因而很难在是非、对错之间进行抉择,也不可能理解法律禁止的以及法律允许的行为的真正意涵。其次,当机器人意志自由程度等同甚或超越“人”或公司的意志时,那么此种失控物可能会对人类利益造成损害甚至威胁到“人”的主体地位。最后,对于一个无法成为道德主体的机器人而言,其不会因失去自由而感到痛苦并因此痛改前非,或经由司法审判与道德谴责从而对自己的错误行为感到羞愧。如果不能对机器人的错误选择与行动施加有效的刑事制裁,那么就更不用说让其他机器人“感知”并“意识”到它们未来作出相同或类似错误“行为”的风险所在了。



既然难以像公司等非“人”主体那样具备责任能力,那么可否退一步,赋予机器人类似于人类婴孩般的法律地位?同样没有可行性!人类法律承认未成年人或暂时丧失自由意志的精神病人以及医学上的植物人仍都具有法律人格,根本原因在于他们是“我们中的一员”,认知能力存在不足或障碍并不妨碍他们与正常人一样享有尊严并获得尊重,更重要的是,他们具有培养完全人格的潜力。然而,较之于人类上述特殊成员,机器人作为工具而存在的本质规定性决定了它不可能具有培养完全人格的潜力,况且,法律人格与法律权利的基础更多在于人性而非认知能力。


总之,机器人不不可能具备人类那般的理性,难以真正地理解权利与责任的意涵。说到底,机器人仍在民法“物”的范畴之内,虽具备了部分类似于“人”的功能或行为,本质上仍是“物”之属性的产品,它们的所谓“智能”体现的仍是人类技术能力本身。毕竟,人工智能技术的根本出发点在于:提高技术工具为人类预设目标服务的能力而非令其成为“我们”当中的一员。如果说人工智能技术使机器实体具备了某些道德的或法律的能力,那么充其量也只是它们提高了服务人类生产、生活的能力,而不能把这样的智能表现理解为构成了主体资格的一般要件。


三、

产品视角下机器人的“行为”责任


(一)机器人致害“行为”的归责难题

类型上,智能机器人引发致害事故无非两种情形:一是由警示缺陷、设计缺陷、制造缺陷造成的,用户未尽合理注意义务亦可能产生致害事故;二是机器人自主决策模式下的致害行为,即致害事故不是由警示缺陷、制造缺陷或设计缺陷等产品缺陷以及用户未尽合理注意义务引起的,而是机器人基于自我学习所带来的意外副产品。


第一种情形下,鉴于与机器人有关的责任都是人为错误的结果,因此,自可适用现有产品责任与侵权责任框架,要求生产者承担产品责任或由用户承担侵权责任。只是,人工智能时代,受害人或将面临如下挑战:机器人所依赖的“算法”越复杂,受害人就越难证明其中的特定错误以及错误与损害之间的因果关系,因为算法对普通人而言就是一个“黑箱”,有时甚至连技术创新者都无法解释致害事故的真正原因,更不用说让受害人去破解机器人的算法黑箱进而证明机器人是否存在缺陷以及该缺陷与损害之间的因果关系!生产者利用责任豁免条款进行抗辩也将增加受害人的证明难度。



第二种情形下的归责问题更具挑战性。鉴于机器人自主行为往往是机器学习的结果,因此,即使是最谨慎的生产者恐怕也难以预见那些已具备了与现实世界互动能力的智能机器人所导致的风险,不管这种结果是否是设计生产者本身所期望的,它都将给现有责任框架带来挑战。一方面,在技术层面上,机器人根据自身经历而作出的自主行为及其风险已非生产者所能预见或控制,而在现有产品责任框架中,他们仅对可预见性风险负有警示义务或合理注意义务。此种情形下,机器人的生产者或用户能否以机器人自主行为不受其控制而请求豁免承担责任?传统侵权责任归责时惯常适用的因果关系链条是否会因机器人的高度自主行为而被打破?另一方面,若豁免机器人的生产者等当事人此种情形下的责任,又该如何向受害人提供救济?


(二)作为产品的机器人之民事责任分配

作为一般原则,智能机器人的生产者应为产品缺陷所致损害承担严格的产品责任。只是,较之于普通产品,智能机器人具有高度复杂性,其所依赖的复杂“算法”或致使被侵权人难以证明机器人是否存在缺陷。而且,即便能够证明,受害人恐怕也得负担高昂的诉讼成本,譬如委托专业技术人员对产品缺陷进行证明。机器人脱离人类干预的自主行为的责任分配更会让法院左右为难。因此,作为回应:


第一,首先应要求生产者等“算法”控制者遵从一套以人为本的伦理或法律准则,包括将人的保护置于最优先地位且应避免“算法”构成对不同人群的歧视等;其次,还应要求生产者能够解构“算法黑箱”并对依赖该“算法”而实施的行为或决策负责。


第二,未来立法可考虑创设或指定人工智能监管机构并由其负责制定机器人等人工智能产品的国家或行业技术标准,要求生产者确保机器人难以被终端用户重置或确保它们不遵从危险性指令,包括将旨在阻止机器人伤害人类或其财产的安全措施嵌入产品之中、警示用户何时应进行必要的维护、保养与检查以及应在何种情形下进行“人-机”切换等。



第三,可考虑将机器人是否存在缺陷以及该缺陷与损害之间的因果关系的证明责任分配给生产者。生产者证明产品缺陷存在与否的意义并不在于否定自己的责任,而是基于如下考虑:(1)若机器人存在产品缺陷,那么判令导致缺陷的那一方当事人最终承担责任自无异议;或当(2)致害事故非由产品缺陷或其他人为因素而是机器人自主行为造成的,那么生产者就应成为第一责任人,但其可要求参与机器人设计、编程、软件供应等环节的当事人共同担责。此种“共同责任”无须纠结于应把错误或不法行为的每一个细节归属于哪一方,一旦确定了责任,裁判者即可要求所有参与方公平均摊责任或根据各自所获利益多寡分摊责任。


作为对内部责任共担机制的补充或替代,还可考虑建立一种类似于自我保险的赔偿基金,由机器人设计、编程、生产等环节的当事人根据产品特性及风险因素共同筹资建立。将保险安排引入机器人致害事故的责任框架中也是一个值得考虑的方案。

 

四、

结语


人工智能技术的蓬勃发展已使人类立法者面临着一项重要挑战——是否允许一个在法律上作为主体而非客体的“类人”群体的存在?笔者认为,无论机器人未来多么智能,它都不可能也不应该让其拥有“人”一样的自我意识与自身目的,其所发挥的仍应是智慧工具价值。作为法律上的客体是智能机器人存在的合法性与正当性基础,以此为前提进一步优化机器人的民事责任框架才是更是现实的选择。



长按可扫描二维码下载阅读原文



延伸阅读


王彬 | 司法决策中的效用考量及其偏差控制



音 频 | 张玉洁

图 文 | 邹雅嘉

审 核 | 闫月珍



点击阅读原文可下载原文

: . Video Mini Program Like ,轻点两下取消赞 Wow ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存