查看原文
其他

曹险峰: 人工智能具有法律人格吗 || 《地方立法研究》

曹险峰 地方立法研究编辑部 2021-09-15


 作  者  : 曹险峰(吉林大学法学院教授、博士生导师,吉林大学理论法学研究中心研究员、吉林大学司法数据应用研究中心研究员)

 来  源 《地方立法研究》2020年第5期,因篇幅较长,已略去原文注释。


随着人工智能的迅猛发展,法学研究及实务中开始出现了承认人工智能具有法律人格的观点。从民事法律人格的构成要件来看,弱人工智能不具有法律人格所需之独立意思,不能从事独立行为,也不具有独立的责任财产;从法律人格的功能意义而言,人工智能无法类比法人,赋予其法律人格并不具有实质意义。因此,人工智能不能也不该具有法律人格。在尚未进入强人工智能时代的今天,探讨人工智能是否具有法律人格,不具有实质意义。

 关键词 人工智能 法律人格 民事主体 民事责任


 一、问题的提出 二、人工智能可以被赋予法律人格吗 三、人工智能应该被赋予法律人格吗 结论



人工智能具有法律人格吗


一、

问题的提出


如同蒸汽时代的蒸汽机、电气时代的发电机、信息时代的计算机与互联网,人工智能的蓬勃兴起意味着人类即将步入智能化时代。2016年,日本成立了人工智能技术战略委员会以发展“研究和发展目标以及人工智能产业化的路线图”。作为全球首个发布 AI(人工智能)全国战略的国家,加拿大于2017 年的财政预算详细介绍了一份五年计划——《泛加拿大人工智能战略》(Pan-Canadian Artificial Intelligence Strategy)。2018年5月,印度政府智库发布《国家人工智能战略》,旨在实现“AI for all”的目标。英国政府在2018年发布了《人工智能行业新政》,欧盟相继发布了欧盟及其成员国《人工智能合作计划》,加快建立“欧盟人工智能联盟”。2019年2月11日,美国总统特朗普签署了启动“美国人工智能倡议”的行政令,使人工智能成为实现“美国优先”战略目标的重要举措。作为中国的应对措施,2017年7月20日,中国国务院印发《关于新一代人工智能发展规划的通知》,明确提出把人工智能发展放在国家战略层面系统布局。工信部又于 2017年12月发布了《促进新一代人工智能产业发展三年行动计划(2018-2020 年)》。在2018年政府工作报告中,强调指出要加快新兴产业发展,推动人工智能等研发应用,培育新一代信息技术等新兴产业集群壮大数字经济。2019年的《政府工作报告》又首次提出了“智能+”的发展策略,明确指出要“深化大数据、人工智能等的研发应用,壮大数字经济”。全国人大常委会则进一步把与人工智能相关的立法项目写入立法规划。

面对蓬勃发展的人工智能大势,既有法律体系如何应对,就成为一个不可回避的重大问题。以自动驾驶汽车交通事故责任为例,从法学界既有研究来看,对于自动驾驶汽车交通事故责任主体的认定,大致有四大类观点:第一类是由消费者一方(自动驾驶汽车使用人)承担责任,代表学说有“交通事故侵权责任说”“参照雇主替代责任说”“参照动物侵权责任说”;第二类是由制造商一方承担责任,代表学说有“产品责任说”“一般过失侵权责任说”“参照电梯侵权责任说”;第三类是引入责任保险制度,采纳社会化的救济方法,代表学说有“参照疫苗事故侵权规则说”“参照核事故侵权责任说”;第四类是由自动驾驶汽车以其独立法律人格承担责任。前三种观点以既有体系与规则加以应对,第四种观点则以建立新的规则体系作为应对方案。如果从规则的哲学观念透视,前几类大致对应的是客体论,第四类对应着主体论。客体论认为,尽管人工智能是智能的,但其智能与人类理性相距甚远,只能视为人类的工具或财产,相较于人类的主体地位,其只能居于客体地位;而主体论者认为,对于强人工智能而言,其具有强大的学习能力与自主性,会一直“进化”,应赋予其一定的法律人格,作为独立的民事主体,甚至承认其为刑事责任主体。作为主体论的注解,欧洲议会2017年立法建议应赋予强人工智能机器人以“电子人格”(electronicperson)身份;俄罗斯“格里申法案”对弱人工智能套用“法人”拟制原理,赋予有限权利能力为“准主体”。

在弱人工智能时代,探讨强人工智能是否具有民事主体资格、犯罪主体资格等问题仍显得过早,但鉴于强人工智能应具有法律人格之观点不绝于耳,故本文拟从民法角度出发,对主体论进行反思与批判,以就教于大家。


二、

人工智能可以被赋予法律人格吗


“讨论智能机器(人)是否可以被赋予法律人格或法律主体的问题,首先需要厘清的是,什么是‘法律中的人’?”

“传统民法的主体制度设计首先要求主体具有独立性,也即只有符合独立性标准的人才是民法意义上的人,才能具有民事主体资格。”这种独立性往往体现为独立意思、独立行为、独立财产与独立责任。就组织体而言,独立意思意味着组织体要具备独立于设立人的自我意思或意识;独立行为意味着能以自身行为践行自我意思;独立财产意味着财产的占有、使用、收益与处分皆在组织体自身之上,不与设立人财产混同,既区别于其他组织、自然人、国家等主体,也区别于组织的设立者或其成员的特别财产;独立责任则稍显复杂,虽然现代法上的法人往往以股东的有限责任为特征,但应该看到,有限责任并非与法人制度相伴而生,独立的法律主体也并非一定以(设立人或成员的)有限责任为充要条件。从民事主体的准入条件来看,人工智能并不符合。下面分述之。

其一,人工智能不能从事完全自主的独立行为,即使有,其范围也极为有限。以L4-L5自动驾驶汽车等为代表的强或超人工智能,其自主性(包括自主进行决策)和学习能力是其核心特征。“完全的自主性意味着新的机器范式:不需要人类介入或者干预的‘感知-思考-行动’”,智能机器人的深度学习主要依靠的是复杂的程序算法与输入数据应用,虽然在一定程度上其行为由程序员事先编排的数据代码控制,但基于其深度自主学习能力,在强大的数据支撑之下,它是如何学习的、学习到了什么、基于何种标准或意识做出了相应的决策,则处于“黑箱”状态,其行为范式至少会部分脱离程序员的预先设定。但以上描述不过是对人工智能自主性与学习能力的过高评价。人工智能所拥有的自主化决策能力,乃至自我学习与再创作过程,并不能超出机器程序编写者的理论预设,其本质仍是人类就人工智能可能面临的各种情况的可能对策的预先安排,并通过机械语言与算法予以落实的产物。因此,人工智能的大部分行为实质为预先设定、体现了编程者意图的行为,非为自主行为。同时,“所有计算机语言都必须解归到‘0、1’代码进行基础运行的‘硅基’技术前提,彻底限定了‘算法’万变不离其宗的对人类思维模拟能力的极限:它只能是编程者刻意所能达的,对人类思维可以言表的步伐中适合通过‘0、1’二进制换算的更小部分的表达,它不可能是编程者刻意所不能达的、碳基的人类大脑思维中那更为深邃的不可言表部分的表达”。这也就是说,即使随着技术的发展,基于“黑箱”理论真的产生人工智能的完全自主行为,其范围也必将极为有限,并存在“天花板”。

其二,人工智能不具有法律人格所要求的独立意思。具有独立的意思,是考察能否具备法律人格的首要条件与核心,“只有意思能力及决策机制标准才是判断民事主体适格性的实质标准”。从类型上看,民事主体从事民事活动可以被分为交易活动与非交易活动两大类。就交易活动而言,主体的独立意思常体现于民事法律行为与意思表示之中,动机、行为意思、效果意思、表示意思在其中发挥着巨大作用,法律效果赋予的前提不是或重点不是意思的自主,而是意思的存在。无论如何“拟制”,人工智能在此点上也无法理解并考量动机,无法理解并考量法律效果,无法理解并考量行为的意义与决策的代价。“行为”这个范畴包含着下列概念:手段与目的、取与舍(评价)、成功与失败、利润与亏损。所以,当AlphaGo战胜人类优秀棋手时,其本身不会理解为什么要下棋,下棋本身是什么?就非交易活动而言,主要是指侵权场合,以自动驾驶为代表的人工智能,无论是否将其作为独立责任主体看待,它也无法了解侵权行为的意义、后果、法律责任,更无法因为发生过事故而提高注意义务,无法因可能面临关机甚至销毁等责任手段而改变行为模式。但这并不是因责任的承担而提高注意义务,法的教育功能、预防功能无从发挥。我们可以猜测的是,在人工智能的眼中,这是且仅仅是一个样本与数据而已。事实上,即使作为倡导“电子人”的《机器人民事法律规则》,也指出机器人的自主性可以被界定为在外部世界做出独立于外在控制或影响的决定并实施这些决定的能力。这一自主性具有纯技术本质,而且其自主性程度取决于机器人被设计成的可与其环境进行交互的复杂程度。因此,强智能机器人的所谓“自主性”,应主要从技术层面来理解。即使不考虑人工智能大多数行为皆可被预先设定或限制,仅就其真正能自主决策的部分而言,其自主的也仅仅是行动本身,行动的意义、行动的伦理性、行动的动机与缘起、行动的经济后果、法律后果、后果对决策的意义、决策的效用与伦理性的抉择等,考虑的是且仅是设置程序与算法的人工智能背后的人。因此,“感知-思考-行动”下的“自主性”,仅仅是对于行为的自主,其感知的是外部环境,其思考的是该如何行为,行为的“意思”则不在其列。故从独立的意思角度而言,其与自然人为代表(或代理)的法人的独立意思相距甚远,无从以此佐证应赋予其法律人格。

其三,就独立的财产与独立的责任而言,主体论者主张通过赋予人工智能以财产,并辅之以保险等作为保障措施,以证成独立主体存在的可能性;并通过行为能力的有限性、权利义务的有限性、责任(能力)的有限性来证成智能机器人法律人格的有限性。实质上,这并非某一主体论者单一的结论观点,而是肯定人工智能具有法律人格的必然结论。肯定独立主体的地位,一个重要的意义就在于“独立行为—独立财产—独立责任”。但如此理解,则会有如下推论无法厘清:当赋予智能机器人以独立财产并由其承担独立责任时,由于其本身不具有自己的财产,其财产只能来源于人的资产的分割与特定化,这种资产的特定化当然就是人工智能的独立财产。但此时应注意的是,财产独立的意义何在?一般说来,独立财产往往与独立责任相勾连,当赋予人工智能以独立人格下的独立财产时,由于“资产特定化的实质效果是让本应承担责任的人逃避法律责任”,故此时主体论者需要解释为何将人工智能背后的人的责任有限化。又由于“背后的人”往往为责任财产已经特定化的法人,故此时需要考量的是,“背后的人”为何能通过不断的资产特定化而达致责任有限化?难道智能机器人法律人格的确认,是为了责任的有限化?!显然,仅凭发展智能机器人有利于社会发展这一理由,无法证成责任诸层特定化的正当性。当赋予智能机器人以独立财产,但并不承担独立责任时,则需要回答,此时为何要赋予其法律人格?一个没有独立责任、独立意思的法律人格,仅有其自身还不能花费的财产,又有什么意义?

综上可以看到,既有的法律体系、制度与规则,或主要是以自然人为中心而构建的,无法妥帖容纳人工智能作为新类型的民事主体。


三、

人工智能应该被赋予法律人格吗


从历史长河来看,相异法律体系承认了相异类型的主体,包括正常生物人、非正常生物人、超自然人、动物、无生命物、法人。但“非人主体”主要是实用主义的功能性产物,其“常常是在具体情形中的具体拟制,更类似于诉讼资格而非法律人格,其权利或责任往往仍落于具体的人”。故从今日视角来看,只有自然人(生物人)与法人是作为法律人格享有主体主旋律而存在的。

从“法律中的人”的发展历程来看,展现的是从“人为非人”到“人为人”,再到“非人为人”,及至“此人与彼人”的画卷。

始于罗马法的人格理论,最为重要的特征之一便是人本身与人格的分离。在罗马法上,生物人要作为完全的权利义务主体,需要具有自由(status libertatis)(的身份)、市民(status civitatis)(的身份)和家族(status familiae)(的身份)。社会发展至封建社会,封建经济关系取代了奴隶制经济关系,社会中个人的身份等级发生了深刻的变化。1789年8月26日,法国大制宪会议颁布了著名的《人权宣言》。《人权宣言》第1条便宣称,“人们生来并且始终是自由的,在权利上是平等的”。法国大革命时期的立法在私法领域中也得到具体的体现,其所达到的高度是《法国民法典》第8条的明确规定,“所有法国人均享有民事权利”。这一规定引申出一个重要含义:有资格成为法国民法上的法律主体的是一切法国人。经此,近代民法改变了罗马法上“人为非人”的状况,“人为人”实践的确立,实现了自然意义上的人与法律意义上的人的统一,革命实现了“从身份到契约”的历史性转变。“《德国民法典》认为每个人(mensch)都生而为人(person),对这一基本观念的内涵及其产生的全部后果,我们只有从伦理学上的人的概念出发才能理解。对我们的整个法律制度来说,伦理上的人的概念须臾也不可或缺。”“作为《德国民法典》基本概念的人,是通过其权利能力来表述的。”民事权利能力制度的设置的一个重要目的还在于使法人进入民事法律关系,使之成为民事权利主体变为可能与正当。在《德国民法典》制定之际,虽然个人主义思想仍占有主要阵地,但德国民法的立法者已经受到经济共同体思想与社会连带观念的影响,并因为当时的商业活动已经非常发达,在社会经济生活中,企业团体正发挥越来越大的作用,法典的立法者无法忽视这一现实存在,遂承认了法人的主体地位。因此,德国民法上的人只是形式上“人”的概念,它的内涵“没有它的基础——伦理学上的‘人’那样丰富。在伦理学上的‘人’所具有的所有特性中,它只具有唯一的一个:权利能力”。可以说,权利能力是德国民法高度抽象技术化的产物,是适应德国民法整个以法律关系为轴心的体系的必然选择,其获得承认是以牺牲“人格”或法律上的“人”的宏大的历史内涵与人文主义思想为代价的。在民法走向现代法的进程中,民法对于人的态度也发生了相当的变化。关于“法律人格”发生了“从自由的立法者向法律的保护对象”“从法律人格的平等向不平等的人”“从抽象的法律人格向具体的人”的转变,在其背后则是“从理性的、意思表示强而智的人向弱而愚的人”的转变。以劳动法、消费者权益保护法从民法中分离为表征,形成了“此人”与“彼人”之分。

从民事主体的变迁历程中可以看到,随着法人制度的承认,伦理性人格便从台前走向了幕后,民事主体的范围亦呈现出扩张趋势。但如此一来,是否意味着人工智能可以类比法人进入民事主体范围的逻辑,具有独立的法律人格?本文的答案是否定的。

为何要赋予法人以法律人格?这是一个非常宏大的命题。从价值的角度说,法律承认自然人具有法律人格的立场与赋予法人以法律人格的立场之间存在重要差别:自然人法律人格基于现行人道主义的法律道德观念而确立,它是人类尊严和人类有受尊重权利的必然产物。法人法律人格是一种法律技术机制,是一种模式、一种方式,借此开展各种法律关系,以达到某一集体目的。因此,法律承认自然人的人格与承认团体的人格具有完全不能等同的意义。

从现有研究来看,学界多认为,就人的组织而言,是否赋予其法律人格,则完全取决于经济生活的需求以及法律运用技术的发展,亦即,“法人制度的出现纯粹是经济发展的需求导致法律技术进步的结果,是一种经济生活的客观现实与法律技术运用相结合的产物”。“市民社会中的法人, 首先在于经济上的合理性而非哲学上的合理性。”当有限责任与法人制度挂钩后,“公司存在的合理性不能从自然理性中寻找,仅仅能够从减少风险而吸引和鼓励投资的积极性方面去解释”。个体一方面有组成组织体的需求,但面对无限责任时,个体则会因风险非个人所能控制而阻碍组织体的建立,故以个体的有限责任作为平衡点,就可能成为必然选择。同时,为防范有限责任的滥用,现代法又以“刺破公司面纱原则”“公司资本认缴义务”等作为补充防范手段。

那么,为何对于法人的这种解释不能套用到人工智能身上,可能的答案在于:

一方面,法人与自然人具有天然的联系,而人工智能则没有。作为法人的组织体之所以能够通过拟制人类而成为法人, “其根本原因是组织体本身是自然人的目的性集合,或目的性财产的集合。即便财团法人,也是为实现人类捐赠目的而成立的成员隐现型组织体。正是作为组织体成员的自然人的前提性存在,赋予了组织体被拟制为主体的历史的正当性”。其实,不仅作为组织体法人的目的指向始终是自然人,进一步来看,作为组织体的法人无法亲历亲为,必须通过自然人的代表(或代理)从事民事交往,通过自然人的理性响应法律的行止要求。所以,无论法人与自然人存在多大的差异,两者内部都存在着实质关联,共处于“人类中心主义”的背景下与环境中。与此相对,人工智能仅在被制造出来那一刻受到制造者影响,之后,人工智能的智能则是程序设计和分布式程序之间的相互作用所涌现出来的“整体性智能”和“整体性意愿”,不再依赖制造者。因此,公司法人依然从属于人类的范畴,而如果承认机器人的法律主体资格,其也应该是非人类的范围。因此,基于以法人比照自然人从而可成为法律主体,从而吸纳人工智能进入法律主体范围的思路,仅仅看到了形式上相似的一面,完全忽略了法律图景中的“人类中心主义”这一主线与底线。

另一方面,法人制度及其有限责任的承认,有其实践需求,而承认人工智能具有法律人格的则没有。法人概念虽然始创于德国民法,但组织体主体化的实践早在罗马法时期就已经开展了。在《法国民法典》中,个人是直接面对国家的,而个人与国家间存在的各种团体,均被有意忽略,民法典不赋予社团或财团以主体资格。不过,经济共同体并没有因法律之忽略而消灭,随着商业活动之频繁却有渐强之势,终于推动了《法国商法典》对商业组织主体资格的承认,嗣后,民法典也直面经济共同体存在的不可改变的现实,于1978年1月4日经78-79号法律修正了民法第1342条规定:“除第三章规定的未登记商业联合之外的商业联合,自登记之日起具有法人资格。登记以前,参加商业联合的个人之间的关系应遵守合伙契约及适用于契约及债务的法律的一般原则。”由此,法国民法才正式承认了法人民事主体的地位,此时自法典制定之际已逾百年。《德国民法典》首次在立法上采纳了“法人”这一术语并规定了相应的制度规则。及至今日,法人制度已经风靡全球,成为或正在成为一个公理性的存在。应该看到,作为组织体的法人获得承认,有其历史必然性。按照马克思所言,“人是一切社会关系的总和”,在社会生活中,个人与个人之间要产生关联,个体参与到组织体中与社会发生关联,也是关联的一种必要形式。作为人以及财产的集合体的法人,适于成为交易主体,故法人制度纯粹为社会经济发展需要的产物,“商业团体一开始就带有经济实用的特点,适应了个人发展和社会积累财富的需要,是经济发展不可少的经济形式”。与此相对,人工智能所带来的法律问题,运用既有制度足以解决其现在面临的法律问题。当从事交易活动时,人工智能作为其“背后的人”的工具,其自主所为行为推动或视为“背后的人”所为;当从事非交易活动时,对“背后的人”课以法律责任(例如,针对自动驾驶之产品责任或过错推定责任),足以解决问题,赋予其法律人格如仅为限制“背后的人”的责任,则通过法人股东的有限责任、责任保险、赔偿基金等一样能达到相同目标。未见必须承认智能机器人独立法律人格的迫切需求与理由。


结语



在弱人工智能时代,人类在夸夸其谈地强调要赋予人工智能以法律人格时,浑然不顾人工智能的想法;当人工智能强大到要求平等的时刻,人工智能存在本身会迫使人类不得不承认其具有法律人格;当人工智能强大到足以忽略“机器人三定律”时,可以想见,法律人格的准入条件就由他们来决定,那时人类需要努力论证的是,为什么要赋予人类以法律人格!

当然,对于人工智能人格的否定,并不意味民法可以忽视科技发展、时代进步而故步自封。恰恰相反,更明智的应对方法,应当对人工智能的设计程序进行提前规范,尽量避免发生恶意的安全事故和伦理危机,让人工智能更好地服务人类,防止其演变到人类无法控制的地步。坐而论道,莫如起而行之,良有由哉!








责任编辑:刘   诚

副主编:谢进杰

主编:黄   瑶

----------------------------

公众号学生编辑:古   亮




袁曾:人工智能法益位阶研究

高绍林、张宜云:人工智能在立法领域的应用与展望

李 晟:人工智能的立法回应:挑战与对策

《地方立法研究》2020年第5期目录与摘要



《地方立法研究》投稿网站:http://dflf.cbpt.cnki.net/


: . Video Mini Program Like ,轻点两下取消赞 Wow ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存