查看原文
其他

乔芳娥|人工智能对民事主体地位的挑战与应对——以未来强人工智能的出现为视角

乔芳娥 上海市法学会 东方法学 2022-11-11

乔芳娥

华东政法大学博士研究生

要目

一、比较梳理:人工智能的研究现状二、挑战分析:人工智能与民事法律主体三、理论探析:人工智能有限资格主体赋予结语


随着对人工智能伦理学、哲学等研究领域的不断深入,法学研究也发现人工智能领域的别有洞天之处。面对人工智能这样一个全新领域,其与法学的相关研究,作为一个新的学术增长点,在短时间内形成了可谓爆发式的增长,学界开始广泛关注人工智能与法律的问题。现今人工智能对侵权责任法、劳动法、民事法、著作权法等领域带来前所未有的挑战。现有研究也将人工智能视为“物”或人类工具,但随着强人工智能的发展,仅仅将其视为客体的做法已不合时宜。因而本文在梳理现有研究基础上,探究人工智能发展对民事主体地位的挑战以及法律应当如何应对,进而主张应当随着技术的发展赋予强人工智能有限的民事主体资格。

当前,随着人工智能技术的发展,智能手机成为人类的忠实助手,自动驾驶汽车为我们提供乘车服务,工业机器人代替人类活跃于车间,机器人保姆则照顾着我们的父母与小孩,人类生活将会发生翻天覆地的变化。人工智能作为科技发展的结果,对社会的影响力越来越大。

人工智能作为呈指数级发展的技术,其可通过智能进行自我完善,以类似人的行为活动,这时的AI将可能远超我们的理解。AI发展的迅速性以及其带给人们生活的种种影响,使更多专家学者和一些企业投资者开始关注这个领域,因而近几年关于它的谈论越来越多,其中一个重要原因在于其可能带来的巨大社会变革。

随着社会的不断发展与进步,人工智能将会更多地以“类人主体”的形式活跃在现实世界,这必然要求如何从法律上界定人工智能的法律地位。对于人工智能的法律地位问题我们应当如何看待?其行为引起的法律纠纷是否可以用现行法律予以解决?而我国也于2017发布《新一代人工智能发展规划》,将其提升到国家战略发展高度,明确提出确立人工智能法律主体以及相关权利、义务和责任。至此,我国立法已经开始关注人工智能。此种背景下,民事诉讼法应积极响应这一精神,直面人工智能提出的挑战。唯有如此,才能更好地推动时代潮流的前进。

根据现有法律规定,人工智能被视为“物”,关于人工智能的案例可以适用产品质量法第43条的规定。看似关于人工智能的问题在我国已经通过法律可以解决,人工智能对我国现行法律并无多大影响。但随着人工智能“学习”能力的增强,它会依据深度学习算法的方式对外部环境进行快速判断,进而模仿人类行为。这意味着人工智能已经超越传统认为的计算工具和对行为的简单模拟,而开始拥有自我学习、总结甚至创造的能力。此种情境下仅将人工智能视为“物”似乎并不合理,因而本文试图从“人”的角度分析人工智能应具有的法律地位。

一、比较梳理:人工智能的研究现状

人工智能研究现状的域外窥视

如日本之“帕罗”的户籍认可,在2010年11月7日,其获得户籍,并将发明人登记为它的父亲。这意味着日本在赋予智能机器人主体地位上迈出了巨大一步。就一般理解而言,只有基于出生的自然人才能在一定程度上存在父亲或者说只有真正意义上的自然人才能获得户籍。但日本认可机器人具有户籍显然其已不将机器人视为通常所言物品或工具。再例如美国之“驾驶员”的规定,美国“驾驶员”的规定是对传统意义上驾驶员定义的颠覆。正如我们所认识的那样,只有人才能被认为具有一定资格和能力进行汽车的驾驶行为,即只有生物人才能作为驾驶汽车的主体。美国将自动驾驶系统视为“驾驶员”是随着智能技术发展所做的调整,是为适应人工智能技术发展做出的前瞻性规定。这一做法一改传统认知,将主体范围扩大至人工智能系统本身,从而使人工智能摆脱工具桎梏,而获得类“人”的主体地位。此外,还有欧洲议会之“电子人”决议,2016欧盟率先提出立法动议,决议明确规定应该将复杂的自主机器人视为“电子人”。同时决议建议为自动化机器人设立登记册,赋予其劳动权等特定权利和义务,并建议为“电子人”开立资金账户以使其享受劳动者的相关权利履行相关义务。明确对具有“电子人”身份的精密机器人,应让其承担因其引发的损害责任。从欧盟的动议中可以看出其倡议将最精明的自主机器人视为享有权利承担义务的主体。即该动议主张可以赋予具备条件的机器人主体地位。

从上述各个国家关于人工智能主体地位之规定可以看出,目前部分国家对人工智能主体身份予以认可。尽管确定人工智能主体地位需要经历漫长过程,但从现有国家规定来看,已经开始关注其法律主体地位问题。

研究现状的中国视域

国内对有关人工智能问题的探讨在20世纪80、90年代便已开始,但关注的领域只涉及专家系统等以知识为支撑的领域,近年来学者逐渐将研究视角放置于对其法律地位的探讨。张保生教授在2001年最早直接论述人工智能与法律关系,从法律推理与它的关系角度探讨了该法律系统的历史、发展动力以及实际价值。同时近年来,学界广泛讨论应当是否应当保护机器人的权利以及其享有权利的类型。南京师范大学梁志文教授认为人工智能创造物可获得知识产权保护;中国社会科学院甘邵平教授认为机器人享有权利的障碍在于技术和伦理两个方面;袁曾认为应当赋予其有限法律人格。可见,国内学者开始关注该技术发展带来的法律问题。

目前国内学者关于人工智能法律问题研究主要集中于两方面,第一方面,趋向于以法律作为外部框架,探讨面对人工智能产生的法律问题如何通过现有法律予以规制,法律该如何吸收人工智能时代中的各种问题。在这一研究中,学者将关注点更多放置在目前的弱人工智能阶段,由于现阶段的AI已经开始渗透到生活的很多方面,对人们的生活已造成一定影响,且法律问题也已经形成。因而对该阶段产生的具体问题通过对现有法律的适用、解释可较为容易的予以回应,也较为容易的将现阶段产生的问题纳入法律框架之中予以调整。因此现阶段学者主要关注对弱人工智能相关领域的问题,如人工智能创造物的知识产权保护问题,无人驾驶汽车相关问题研究(如责任承担),人工智能的刑事责任问题、侵权问题等。对于这一系列问题,虽然技术上尚有很多新问题,但仍基本上可纳入现有法律体系中予以处理。第二方面,有部分学者将研究视点放于强人工智能和超人工智能上,企图探讨在机器深度学习能力不断强化背景下,机器可以通过自身对外界环境的学习而对相关数据进行深入理解,而不囿于程序员最初编写的程序限制,这种基于数据“喂养”的人工智能,通过对大量数据进行分析而不断完善自身、不断适应外部环境变化,能进行自主学习从而摆脱对人类的依赖。基于此,有学者认为当强人工智能出现时,由于其自我完善能力加强且人类对其干预减少,此时是否应该赋予人工智能相应的人格和权利义务,即其在技术促使下能否具备主体地位。对这一问题的研究不同于上述第一方面,该问题开始着眼于人工智能对法律主体产生的冲击与挑战,而不仅仅是人工智能对法律产生的影响。

根据现有法律规定,人工智能被视为产品,是“物”,发生涉及人工智能的案件时可通过适用产品质量法规定,将相应的责任归于厂家。然而沈建铭在硕士论文中首次谈到人工智能的主体资格问题,其从权利能力的角度对其进行了论证。目前国内对人工智能法律地位问题探讨主要观点有以下五个方面。

1.工具论

学界大多数人认为,人工智能只是一种智能化软件工具,其不像现有主体具有法律人格。人工智能无法判断其行为可能引发的后果,更无独立财产承担行为的责任,最终的法律后果只能归于人类本身。人工智能的意思表示只是反映了使用者即时的真实意思,所以其不可能具有独立的法律人格,它只是一个执行使用者指令的智能化软件工具。但人工智能这种智能化软件工具与普通的工具又很不相同,一般工具只是人体部分功能的复制和延伸,而其则是对人智力的模拟、延伸。但不管人工智能多复杂,智能性多高,它的本质属性仍是一个“物”,是人类使用的工具而已,所以虽然我们称其为人工“智能”,但它实质上只是一个工具。

2.法人论

该说认为独立的法律人格者必须同时具备两个条件:物质要件和法律确认要件,自然人、法人及其他非法人组织据此都具有独立的法律人格。人工智能不可能成为自然人,因此,有学者指出,伴随技术发展,可依据法人和其他非法人组织赋予人工智能相应的法律人格,这就意味着它具有了民事权利能力和行为能力,并能独立承担责任。可见从使用者之视角,赋予人工智能法律人格能为其提供良好的保障,但是,如果交易过程中产生纠纷,问题不能归咎于使用者,而涉及人工智能的责任问题时,交易另一方则必须与人工智能交涉,其结果往往是难以保障交易另一方的利益。首先,起诉人工智能必须确定它的居所或住所,而人工智能在某些情况下只是一些软件程序,因此很难确定它的居所或住所,交易另一方当事人的利益难以得到保障;其次,如若人工智能体被恶意删除从而永久性消失,或通过加密手段被置于其他无法进入的装置中,此时逃避责任轻而易举;再者,人工智能使用者可能会采取不正当手段,使向对方的求偿目的落空,如将人工智能体所有的财产转移,或使其破产。类似的问题仍会不断涌现,而不解决这些问题,赋予人工智能法律人格将是一种十分不可行的冒险行为。

3.电子奴隶论

从法人论的不足出发,有学者认为可以从行为能力视角阐述人工智能,而忽视它的权利能力。正如奴隶在罗马法上所处的地位一样,奴隶是人其可以根据自身具有的意志进行独立思维,并在意思指导下进行相应行为和判断,但因对其权利能力的限制,使其行为的后果无法直接归属自身。这一观点虽然能够解决人工智能承担责任的难题,但也能看出观点将否认赋予电子代理人独立人格。电子奴隶论将人工智能等同于罗马法上的奴隶,实际上只是另一种工具论而已。

4.电子人论

传统的工具论无视人工智能的智能性,简单地把人工智能视为一种工具,电子奴隶论虽然解决了人工智能无法承担法律责任的问题,但实质上仍是将其视为工具,而法人论虽然冠以电子代理人之名称,但又无法解决电子代理人行为责任问题。于是有些学者主张中和法人论与工具论观点,赋予人工智能所谓的“电子人”身份。该理论将人工智能体分为两类:具有法人资格,能独立承担责任并具有民事权利能力和行为能力的人工智能;具备工具性质,无法对自身行为负责的人工智能。那么,如何才能使人工智能可以独立承受其行为的法律后果呢?电子人论认为可以设立一个登记注册机构,由用户将一定的财产交付给该机构,作为承担人工智能行为责任的财产基础,如此其便具有了可承担民事责任的能力。一旦人工智能做出错误行为,则交易另一方可以直接追诉人工智能,并就其名下的财产要求赔偿,人工智能就像一个有限责任公司,从限定责任角度承担因自身行为所引起的法律责任。所以,如果人工智能体的使用人将其登记注册为一个独立的法人,则其便具备了对自身行为负责的法律主体资格;反之,如果人工智能体的使用人没有将人工智能登记注册为一个独立的法人,那么该电子代理人的使用者必须为其行为负责。

5.有限人格论

该观点认为应当紧跟技术发展脚步赋予人工智能主体资格,但同时指出基于人本位之考虑必须限制其人格。

从上述关于人工智能国内研究现状可以看出,目前就人工智能研究主流观点为将人工智能视为工具,在工具论中所不同的只是责任承担之方式。但就目前关于人工智能研究趋势来看,近两年的文章从民事实体法角度对人工智能赋予主体资格之探讨逐步增多。虽就现阶段而言,人工智能之发展尚未达到赋予其主体资格之程度,但基于对技术发展之信心,赋予人工智能主体资格亦非不可能之事。

二、挑战分析:人工智能与民事法律主体

人工智能在运作方式上更为根本的改变在于其一定程度上具有某种智力,且这种智力在特定方面超过人类。此种情境下,我们便无法将人工智能称为完全意义上的人类工具,我们更不可能对人工智能予以贬低,因为这将涉及人类本身对自身的评价。一般认为人之所以为人,是因为其具有其他物体不具备的智力能力。而当人工智能拥有这种和人的智力相类似但非完全与人的智力相等同的智力时,何以人工智能不能被称为是人?这便引发关于人工智能地位的问题。

目前有学者依据发展强度将人工智能分弱、强、超三个阶段。所谓强人工智能是指具有一定的自我意识有时能依据外界环境自主作出调整某种程度上能与人类智能相似的人工智能(其本质在于其依据自身数据独立思考从而处理遇到的不同事物)即具有自我意识与身份认同具备普遍学习和自我适应能力。所谓超人工智能是指在对数据进行大量分析的基础上具有自我进化能力从而在智慧水平上远远超过人类的智能体。就人工智能发展阶段而言且不论在超阶段其对人类主体地位之挑战,但当技术发展至此人工智能将与人类相媲美进而在技术发展的未来达到超越甚至取代人类主体地位的程度。该种论调主张的人类主体地位让位于未来的超人工智能实质挑战人类最基本的道德伦理因此关于这一论调在理论与实践中均遭到了强烈反对。但对强人工智能的发展而言对其的探讨并非是考虑其与人类本身在体力等方面的优势而是其显现的思维优势并将此种思维优势通过特定的方面显示出来。因此,就本文而言只就强人工智能对现行民事实体法主体之挑战进行探讨。

我国民事实体法上的法律关系主体主要是自然人、法人和其他组织。众所周知,作为主体的自然人由生物学上的人发展而来其法律地位地赋予是天赋人权的结果而法人是以生物学上的人和财产为核心的组织体其他组织至少在一定意义上是以其目的性财产为要素的。现今法律对主体的认定可以看出中并不能纳入人工智能就基础意义而言其不具有生命更无财产。所以当前法律关于主体规定的相关内容并不能够适用于人工智能。人工智能不能受现行法规制主要可从下述两方面阐述。

人格制度的历史局限性

从传统法律人格制度的历史发展来看该主体范围只包括自然人、法人和其他组织。法律人格制度的起源最早可以追溯到古希腊时代的城邦公民身份使一个人获得一种成员资格(Membership)亦即在政治活动与公共事务的参与中获得某种最低限度的权利。现代法律人格理论的雏形形成于古罗马时期发展于18世纪左右,基于人人生而平等的自然法思想现代的权利能力制度建立起来。最具代表性就是法国在1789年《人权宣言》中为:“在权利方面人们生来是而且始终是自由平等的”,人无论高低贵贱享有同等法律主体地位。19世纪《德国民法典》更进一步提出了权利能力概念。《德国民法典》将生物人抽象为法律人赋予法律人以抽象的权利主体资格并以此确立了法人人格制度。纵观人格制度的历史法律主体范围未跳出人类的框架。在传统法律人格制度中主体的基本属性是享有权利、承担义务的法律资格是以意思表示为核心的行为能力和责任能力其“意志”是决定法律关系主体的关键因素。随着科技的发展进步人工智能也会发展出自我意志—即便这种意志是人类预设的。传统的法律人格制度将法律主体局限在人类范围的做法已经不适应社会的发展适用传统的法律人格制度不能很好地解决社会矛盾与社会纠纷。

强人工智能超出规制范围

自主性的机器在当前主流的学习算法、深度学习算法学习模式下不需要编程员对其进行一步步编程而是机器根据数据在既有数据中通过对数据的分析、判断组成一组新的规则从而处理机器的既定目标。可见智能机器依赖于数据对很多复杂和通过人类自身行为无法进行的一系列行为予以完成其通过自身不断学习认识外界。此外,人类决策系统受限于人类自身认知局限人类无法在有限时间内分析所有与问题相关的知识并在此基础上做出最佳的选择,而只能在所有可能性中选择人类认知能力范围内的最为满意的答案。而智能机器与人类脑力认知的不同在于其运算能力显著突出,以优于人类计算能力数亿倍的计算能力实现对数据的分析和判断,这会使得其可能超脱于之前的概念、经验法则、智慧等因素,从而选择人类可能未曾选择的解决方案。正是智能机器人的此种独立行为能力,使得人类设计者虽然在一定程度上可以制造智能机器,但是其行为可能并不在人类行为认知范围内。

进一步而言,人工智能可能会“打破”原先设定的规则体系,以超出其预定规则的方式行为。在人工智能机器早期的测试阶段,虽然一定的测试环境对保证智能机器的一定安全性具有相应的影响,但在之后的学习和经历中,新数据的输入将会影响其行为和决策,进而予以调整和适应,从而使其超出预先规则运行。需强调的是,所有可能性并不能在测试阶段便考虑进去,对某种情形之下的特定情况的处理只能依赖于智能机器根据自身行为做出自己的判断。显然此种情况下的智能机器做出的行为超脱于设计者或制造生产者的预期。

虽然人工智能尚处于发展的初级阶段,但可以预见在技术强力推动下,强人工智能阶段的到来是科技发展的必然趋势。强人工智能的出现导致人工智能体在一定程度上可能出现独立于程序开发员意志,根据自身做出相应行为的现象。如英格兰麦格纳科学中心的捕食者机器人Gaak在没有人看管时,从墙壁的缝隙中爬出逃脱,最终到达高速公路上。这个例子说明人工智能学习和适应环境的能力很强,可能根本不需要程序员帮助。如若人工智能体通过自身收集到的信息、对外界环境的感知,掌握相应技能从而调整自己的行为,此种情况下,人工智能基于自身行为做出的相应后果可能其程序的原始设计者及生产者自己都未曾预料到,此时传统以过错为原则的侵权责任对于这一具有自主判断和分析能力的智能机器无法适用。在一定程度上强人工智能下的智能机器是脱离于人类控制者之手,人类并未直接参与对其的控制过程。如自动驾驶汽车中的高度、完全自动,无人驾驶汽车驾驶中人类使用者并不参与,人的身份从驾驶员直接转化为乘客,其不需要对汽车的驾驶行为进行一定注意义务。在此种情况下,过错归责体系将无法适用于现有的使用人。使用人不具体参与智能机器的使用过程中,只要人不对智能机器使用本身进行干预,使用者的合理注意义务将由使用人方转至具体人工智能本身。可见如果智能技术能发展至强阶段,可能导致现有归责体系无法对其进行规制。

由上可见,人工智能在民事实体法领域应对人工智能发展将出现困境,尤其在技术发展的未来,人工智能自主能力的增强将使现有法律无法对其规制。基于对技术发展的信心,未来人工智能的发展可尝试在限定条件的情境下赋予其主体资格。

三、理论探析:人工智能有限资格主体赋予

由于人工智能具备一定学习能力,使传统意义上工具说的看法被推翻。现今作为工具使用者的人类可以被作为人工智能的分析对象,它改变了人类与其工具之间的单项服务关系。这就使我们不得不考虑人工智能与人类的关系究竟是怎样的,在人工智能法律问题上应该如何进行回应。尤其人工智能发展迅猛,如自动驾驶汽车等人工智能技术的发展使得人工智能在一定程度上脱离人类控制,那么此种脱离人类控制的人工智能的地位如何?其应该拥有法律人格吗?假如应当拥有,其正当性何在?

随着对人工智能研究的不断深入,强人工智能的出现使我们不得不思考,在人工智能与人具有相似行为时我们应该如何看待人工智能与人的关系?是将其视为人类创造物或者使其具有类似“人”的人格?就现有研究而言,关于人工智能地位问题,形成两派观点。吴汉东教授认为:“不应赋予人工智能独立地位,它的发展受制于主体且尚不具备取得法律地位的条件。”郑戈教授也认为:但对于机器人以何种方式承担责任,最终都应归结于人这一主体,无须另辟他径。显然,其主张人工智能无独立法律人格。另一派认为,尽管从责任承担角度,法律人格看似多余,但从责任归结角度,赋予人工智能法律人格会使责任归结变得更加简便。袁曾认为,人工智能应被赋予有限法律人格。笔者赞同该种观点,这是解决其所带来的法律问题的必然选择。如自动驾驶汽车,在发生交通事故时,汽车制造商与其使用者之间将会因责任承担问题发生分歧,从而带来责任归结难题。但笔者同时认为,赋予人工智能有限法律人格并非是万全之策,人格只存在是否应具备的说法,而无对其限制,对人格的限制说到底是对其行为能力约束。探讨人工智能的法律人格问题重点是其当事人能力而非行为能力,这是两个不同层面的问题。因此,本节试图探讨应否赋予人工智能人格。

人工智能主体资格的理论基础

1.伦理基础:以人为本的理念设计

美国科幻小说家艾萨克·阿西莫夫于1942年第一次明确提到“机器人学三法则”的构想。1950年在作品《我,机器人》中提出“机器人学三定律”。又于1985年《机器人与帝国》中,提出了作为“机器人学三法则”前提的第零定律,即:机器人必须保护人类的整体利益不受伤害。可见机器人学三定律是从保护人的角度而言,强调对人的保护,人工智能的最终发展是为了人的利益,人工智能应始终坚持以人为目标。

从公众角度看,人们普遍将人工智能作为弥补人类智能不足的一种重要工具,而非将其发展为整体上与接近甚至超过人类的主体。在研发过程中,应当基于这种定位限定其应用范围不失为一种不二选择,尤其应限制它的自主程度和智能水平。质言之,人工智能问题的根源,并不在于它能否真正超越人类,而在于它是否安全可靠,人类是否对其拥有充分的控制权。虽然人工智能发展迅速,但相较认知能力,人类智能也有自己的优势,即便如此,也可以充分发挥其在信息存储、处理等方面的优势,使其在某些领域和社会事件中成为人类的得力助手和高级智囊,但最终的决定权仍在人类。无论人工智能在何种领域、层面、程度发展都应将人类作为终极目标。

只有以人为本,才能使技术发展更为易于为人接受,才能使人工智能技术发展更为符合人类预期。虽然人工智能在技术发展支撑下可实现自主行为,但仍需注意人类是根本目标,不考虑人的主体地位人工智能技术发展很难取得进步。对人工智能担忧之学者因考虑人工智能发展若不加限制将会在未来取代人之社会主体地位,从而产生抵触情绪,对人工智能技术发展忧虑多余期待。因此人工智能技术发展因遵循伦理道德始终以人为根本目标,但这并非直接否认人工智能主体地位之存在可能性。

2.社会基础:透过现象看本质

关于人工智能应否被赋予法律人格,郑戈教授认为,即使欧盟已提出“电子人”概念,但对于机器人以何种方式承担责任,最终都应归结于人这一主体,无需另辟他径。这是从责任承担的最终结果角度出发的。但如果从责任归结“过程”的角度出发,赋予人工智能法律人格对责任的归结难道没有任何意义吗?答案是不言而喻的。从简化责任归结过程而言,赋予AI法律人格实有必要。在责任归结层面,赋予人工智能法律人格前提下的责任归结结果更有利于保障人类权益。

首先,人工智能作为虚拟主体具有真实性。虽然人工智能作为是以某种程序或软件为支撑的主体,但其并不虚无缥缈。如智能机器人虽是在某种程序支配下进行行为,但其是肉眼可见的存在。软件或程序的支撑并非是否定现实世界的强力理由,而是其的延伸和扩张。人工智能可以控制汽车实现无人驾驶,人工智能可以应用在工厂代替人类劳动,人工智能可以唱歌跳舞娱乐大众等。所以说,人工智能具有真实性,其依靠硬件设备活跃于人类生活之中。

其次,部分人工智能已具备独立于人类意志的自主行为能力。人工智能已经实现了自我行动的功能,可以产生对于自身行为判断的自我意志。反对赋予AI法律人格的观点认为,人工智能没有独立意志,其只是执行预设程序的是人类创造的产物。它的产生基础虽是有着人类意志的因素,但人类诞生的基础又何尝没有自然意志的因素呢?人类的物理组成何尝不是来源于物质的自然,但并未有学者会认为人类无自主意志。单纯以人工智能存在的前提是人类智力活动,并不能成为否定其具有自我意志的理由。

最后,基于人类的需要。从人格的发展可以看出,法律人格的范围正在呈现逐步扩张的趋势,从“人可非人到非人可人”。从主体的发展过程可以看出主体已经超越物种之间的差异,从“人到非人”,物种之间的差异不再是主体地位获得的障碍。从罗马法上关于人的划分可看出不同群体之间实力的变化也是影响主体地位获得的重要因素。现今,法律主体的含义已不限于自然人之范畴,任何拟制主体的最终都是为了保障人类利益的实现。从民事主体地位的发展过程看,任何对主体地位的赋予都为满足人类自身的实际需要。主体地位并不是随着技术自身的发展而得到确立的,在技术发展过程只有不断满足人类的需要才能逐渐获得主体地位。即任何主体地位的获得都需要经过人类的赋予,需要人类进行接收。所以最终意义上关于人工智能主体地位的获得只能取决于人类的态度,取决于人类是否能够对其获得主体地位予以接受。当人工智能被赋予法律人格后,就可以直接将责任归结于人工智能。例如在人工智能控制无人驾驶汽车撞人的交通事故中,事故责任就可以直接归结于人工智能,从而更有利于保障人类的利益。

人工智能有限主体资格之赋予

人工智能是科技发展过程中必然出现的技术成果,目前关于人工智能主体地位的探讨,是否赋予其人格争议颇大。就笔者写作本篇论文而言,主张赋予人工智能主体资格具有伦理、哲学、现实等基础。因此就笔者上述论证存在欠妥之处,但就主张资格赋予之观点,本节将对具体赋予人工智能主体资格之几点思考陈述如下:

1.运用法律拟制赋予人工智能法律人格

发展中的人工智能在具备一定自我意识之后,其发展将会给传统法律人格制度带来前所未有的挑战。而法律往往是滞后的,所以如何及时建立健全人工智能法律人格制度已经成为重大课题。世界范围内也开始尝试赋予人工智能主体资格的尝试,如欧盟立法动议中的“电子人”规定。从目前各国关于人工智能立法动态而观,我国也应该制定相应的法律应对人工智能对主体制度发出的挑战。根据我国民法典第2条的规定,现有法律主体中并不包含人工智能,对其的规制尚未有法律提及。这就使得当有关人工智能的纠纷发生时无法可依,法律无法应对因人工智能发生的新型法律关系和新纠纷。现实情况给我们提出了要求,必须首先对人工智能的法律人格加以规定才能更好地解决社会矛盾与社会纠纷、更好地保障人类的权利,实现以人为本的社会生活。

在赋予人工智能法律人格之后需要进一步思考的问题便是人工智能的主体资格作为与民法上规定的责任主体的资格一样吗?更确切地说是人工智能是否享有与人一样的权利或是对人工智能享有的权利进行一定限制?这是我们探讨人工智能主体资格的同时需予以思考的问题。

要正确处理人工智能与人类以及它们相互之间的法律关系,那么运用法律拟制立法技术赋予人工智能法律人格便是前提要件。现有法律主体中的自然人或法人或其他组织,其之所以成为法律规定的主体,均是因法律的规定而确立。即它们之所以能成为法律关系中的主体,最根本的原因在于由法律赋予并由法律对其人格进行确认。如果没有法律的承认,无论人类个体还是社会团体都无法具有法律人格,不能独立进行法律行为。现有主体概念都是一种人类经由法律的拟制行为,法律人格拟制从法律方法的角度而言是一种立法技术。

2.建立人工智能登记备案制

为使得人工智能在现实社会中更好地被监督,通过建立人工智能登记备案制,或许对建立人工智能法律人格和维护人类合法权益将提供重要的保障。在法人制度其符合学法律规定的设立程序便可取得相应资格,如我国公司法第6条、第7条中的规定,公司申请设立登记并领取营业执照。众所周知,法人申请营业执照的行为其主要目的是为法人获得主体资格的状况予以确认。同理,为更好地规制人工智能在现实社会中的实际运行及责任分担机制的建立,考虑到社会现实情况,人工智能要想在法律上获得其主体地位,也应该借鉴法人制度的相关形式,通过法律确认的方式建立人工智能的登记备案制。一方面,法人登记备案制方便国家对其进行监管,考虑人工智能有其特殊性,其也应受国家监管。利用备案登记制,国家及社会将会更加方便地对人工智能相关主体进行监管,人工智能的登记备案制将成为监管的重要依据。另一方面,登记备案制有助于通过登记在册的相关资料明确其背后人类主体的利益,保障发生纠纷后的人类合法权益。

3.构建人工智能法律责任制度

为有效保障人类的合法权益,从构建人工智能法律责任制度出发,建立连带责任机制或许是较为合理选择。为了更好地保障人类的权益,因人工智能无独立财产,当发生侵权行为时,人工智能应该如何归责?因人工智能技术本身的特性,导致其运行过程不可避免受人类控制。人工智能的运作程序对普通人甚至大多数立法者、和司法人员而言仍是一个“黑箱”,人们只能看到它最终可能出现的结果,对于具体产生结果的行为甚至运作过程却无法知晓,因此只能从人类主体出发探寻责任承担主体。

联合国教科文组织与世界科学知识与技术伦理委员会的报告(2015年)探讨了机器人制作需要不同专家和部门合作的情况下,机器人的某次操作失灵的具体责任人问题。随着技术不断发展,机器人自由和自主性不断增强时,解决机器人责任承担问题变得尤为重要,报告采用责任分担的纠纷解决机制。另一种解决办法就是考虑到智能机器人做出决策的自主性和一定条件下能够独立作出相应决策,从而让智能机器人自己承担责任,体现让行为者负责的原则。

从行为意志上看,人类预设的前行为决定了人工智能的某些行为意志根本上要归结于背后的人类。当人工智能因为采集数据而侵犯了个人隐私、商业机密或者国家秘密时,从监管者角度分析,对于人工智能的处理难点在于它的开发与研究问题,而不是人工智能本身。人工智能因其不具备控制自我行为的能力,所以责任的负担要归结于其背后的人类主体。在判断责任主体时,主要是根据人工智能的登记备案证书。

总之赋予人工智能法律人格地位,将会使智能产品的权利归宿、侵权责任归结等系列问题迎刃而解。当然,为了更加有效地解决人工智能带来的问题,还需进一步研究人工智能的未来发展和人工智能是否可能“异化”为超人类主体,法律应当紧随技术发展步伐,为人工智能发展提供明确指引的同时使其更好地服务于人类社会。

结语

任何科技的发展都不以人的意志为转移,法律应该为人工智能技术的发展保驾护航,更应该通过法律手段对其运作进行规制。强人工智能的出现,并不是让人们立即进入人工智能所主宰的世界,也不是人类与人工智能形成激烈冲突的“西部世界”,而是人机和平共处的和谐世界。正如有位作者所言:“作为一种面向未来的研究文章所做的预测可能是完全错误的,人类一思考,上帝就发笑,在未来也许表现为人工智能在发笑,但我们却不能因此就放弃思考”。当然我们需要肯定的一点是人工智能中的“智能”只是人的智能的延伸,是人的智能转化为机器智能的同时又使机器智能为人所利用。科学技术总是人类文明进步中最活跃、最革命的角色,该技术在为人类的生产生活带来巨大便利的同时也加大了人类危害自身的可能性,这便体现了技术的负面性与风险的不确定性之间的联系;同时随着技术发展传统社会治理体系无法应对技术过度发展带来各种社会问题,这便体现了法律的确定性与风险的不确定性之间的背离。对于智能革命中的风险,我们应该通过法律化解风险、吸收风险,而不能逃避它、否定它和阻止它,应将风险社会置于法治社会背景之下。众所周知,法律制度总是呈现出一定的滞后性,尽管如此对法律问题的思考应是前瞻的。我们应充分认识到现行法律对人工智能时代规制呈现出的不足,进而探索与科技发展相伴而生的法律制度,为人工智能的发展创造健康有序的发展环境。

往期精彩回顾

邹鹏|法治的中国话语流变

课题组|法治乡村建设的重点和难点——以某区农村基层组织负责人违纪违法犯罪问题为样本

课题组|全面依法治国新格局下涉众型案件刑事裁判涉财产部分执行路径探析

课题组|国家治理现代化视野下检察建议规范发展实证研究

孙紫轩 陈思彤|论纪检监察治理体系和治理能力的现代化——运用习近平法治思想推动新时代纪检监察工作高质量发展

《上海法学研究》集刊2021年第5卷目录



上海市法学会官网

http://www.sls.org.cn


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存