查看原文
其他

郑文革:人工智能法律主体建构的责任路径|中国应用法学·法学专论

郑文革 中国应用法学 2023-08-28


《中国应用法学》是最高人民法院主管,中国应用法学研究所主办的国家级学术期刊,在2021年正式入选CSSCI来源期刊扩展版目录,成为自2017年以来新创办法学期刊中唯一当选的刊物。

郑文革

南京航空航天大学人文与社会科学学院讲师,计算机科学与技术学院(人工智能学院)博士后研究人员


 编者按 法学专论

《中国应用法学》的办刊宗旨是“沟通理论与实务,繁荣应用法学研究”。本刊始终遵循应用法学时代嬗变的必然要求,坚持聚焦人民法院审判执行工作中的重大问题,服务司法决策和国家立法。应用法学的理论力量,正是来自于服务审判执行工作大局的实践要求。为进一步促进法学理论研究成果向实践智慧的转化,本刊专设“法学专论”栏目,融汇专家学者有关应用法学最新发展的鸿文大作,在理论研究与司法实践之间搭建融会贯通的桥梁。本栏目秉持“以文会友,依法结缘”的宗旨,诚邀海内外司法同仁与专家学者为中国应用法学的发展集思广益、贡献力量。特此编发南京航空航天大学人文与社会科学学院讲师郑文革撰写的《人工智能法律主体建构的责任路径》,以飨读者。



人工智能法律主体建构的责任路径


文|郑文革 

(本文刊载于《中国应用法学》2022年第5期)

内容提要: 人工智能的类人属性引发了人们对其主体性问题的思考,哲学和传统法学上的主体性主要以自由意志为支撑,目前人工智能远未达到自由意志的程度。当下人工智能法律主体的建构应围绕强人工智能进行,其主体性的本质是责任,需要为人工智能构建一种以责任承担为基础的特殊财产性法律主体。当人工智能因不可归责于他人的行为造成损害或伤害时,需要承担相应的民事或刑事责任,如果有第三方行为介入作为共同原因力,则与人工智能一起共同承担责任。为落实责任承担,需要为人工智能建立特殊的财产制度,人工智能强制保险、雇员薪资、储备基金、图灵注册等方式可作为财产来源,行为监视、算法修改、数据删除、物理销毁等可作为辅助的责任承担方式。

关键词:人工智能  法律主体  法律责任  财产制度


文 章 目 录


一、主体性的概念 

二、人工智能法律主体地位的可能性

三、人工智能法律主体问题的核心

四、人工智能法律主体建构的具体路径

结语


01主体性的概念


主体性的概念是二元论世界观的产物。在古代哲学中,由于人类改造自然能力的欠缺,人对自然充满敬畏,万物有灵,主体的概念并不是特指人类。自康德始,欧陆哲学的主体性通常与人的自由意志和理性紧密相关,康德哲学中的“人为自然立法”,确立了人的“主体性”原则。康德“主体性”原则的确立反映了人的自我意识觉醒在文艺复兴以后所达到的最高程度。自我意识觉醒,人才会以理性的尺度对现实对象展开批判,去创造新世界。哲学上的主体性主要源自于人的自我意识和主观能动性,体现了人作为主体的自为、自觉和自由。


法律主体是指在法律关系中享有权利或负有义务的人,通常又称为权利主体和义务主体。法学上的主体性以哲学上的主体性为基础,因此主观意思在法律关系中具有决定性作用,民法便是建立在主观意思表示的基础之上。法律主体的制度建构一般有自由意志和责任承担两个层面的考量,自由意志主要用于论证自然人作为法律关系的主体,从哲学的主体到法学的主体再到具体法律中对法律主体的规定,自由意志都是主体的核心要素,自由意志意味着法律主体可以根据自己的意思选择自己的行为,目前绝大多数法律主体都可以满足这一要求。责任承担主要用于论证法人或单位等作为法律关系的主体,法人的出现其实是为了解决有限责任的问题,法人的主体地位则是民事法律责任承担的特殊制度建构,团体人格是用作区分团体有无民法上独立财产主体地位的纯法律技术工具,既无社会政治性,亦无伦理性。我国刑法目前对单位犯罪主体的认定更多的是基于功利主义的理论基础且受到刑事政策的影响,法人犯罪的刑事责任理论依据就是新派刑法理论的“以人的自由意志为基础的刑法是完全错误的,刑法的任务在于保卫社会,为了防止犯罪对社会的侵害,应当充实社会政策”。可见,我国设定单位犯罪的初衷亦是责任承担。据此,自然人法律主体兼具身份性和财产性,既有自由意志的一面,也有责任承担的一面,而非自然人法律主体仅是以责任承担为基础的财产性法律主体,没有意志和伦理的属性。故而有学者认为人工智能具有财产方面的意思能力和责任能力,但不具有人身性人格,其自主行为背后体现的也是多方主体的意志,以财产性人格的进路将其拟制为电子法人,既是可行的,也是必要的。


02人工智能法律主体地位的可能性


法律上的主体性自始就是一种制度安排与设计,自然人并非一直当然为法律主体,古罗马法就曾经将奴隶排除在法律主体的范围之外,奴隶是会说话的工具,可以自由奴役、买卖、惩处,是法律关系的客体,无法享有罗马人的法律主体地位。古罗马法有所谓“人格减等(人格变更)”制度,完整的人格权包括自由权、市民权和家长权,丧失自由权沦为奴隶者,为人格大减等,丧失罗马市民权而成为拉丁人或外国人者,为人格中减等,丧失家长权而成为普通家庭成员者,为人格小减等。此外,瑞士1992年《宪法》认为动物为“存在体”,苏黎世地方法律规定受虐的动物存在拥有律师的权利,从9世纪到19世纪的西欧,有超过200个记录在案的动物被审判的案例。2014年新西兰北岛霍克湾地区的尤瑞瓦拉(Te-Urewera)国家公园获准为法人,2017年新西兰国会又赋予具有特殊民族信仰地位的旺格努伊河(Whanganui River)以法律人格,西方法制史上也曾多次出现过将河流等无生命主体作为法律主体对待的情形。纵观人类的法律历史,自然人从来就不是法律主体的充要条件,现代法律上自然人也并不是唯一的主体,法人作为一种法律拟制,同样可以具有法律主体地位,其意思能力则由相关的自然人补足。


因此,成为法律主体的考量因素不仅限于自由意志或自然人,法律主体的范围是开放的,是由社会发展的需要而决定的。故而有学者认为,人工智能革命也可尝试在法理学上纳入法律位格的拟制传统,根据物种位阶的规范主义立场,现代法人制度通过“位格加等”把人为设置的团体组织提升到具有一定法律位格的地位。“智能机器人”概念是对“智人”概念的模仿和拟制,人工智能概念是通过“位格加等”把机器人提升到自然人的法律位格。无论是从法律史的梳理,还是从当前法律规范的考察,抑或是法学理论的分析,人工智能成为法律主体均有其可能性。诚如马克思所言:“社会不是以法律为基础的,那是法学家的幻想。相反地,法律应该以社会为基础。”人工智能有无必要成为法律关系的主体取决于社会生活的需要,而不是囿于传统的法律主体判定规则。


人工智能的法律主体地位更多是一种法律决断,而且是我们最终必须作出的决断 ,换言之,即目前是否有赋予人工智能主体地位的必要。人工智能主体地位的必要性,可以从反面进行考量,即如果法律上不给予人工智能主体地位会给法律的理论和实践带来什么样的问题。由于目前人工智能不具有自由意志,故而核心的问题就是责任承担,即人工智能的责任风险,目前人工智能造成的损害已屡见不鲜,国内外人工智能造成人类伤害的新闻时常见诸报端。人工智能所造成的责任风险会给传统的法律责任理论带来困境,在以过错责任为主的侵权法领域以及主客观相结合的犯罪领域,当人工智能因为自己的原因造成损害,由于无法以存在过错对相关的传统法律主体进行追责,传统的法律责任理论在处理人工智能相关责任时显得捉襟见肘,承认人工智能具有某种程度的法律地位则是处理类似问题的较优路径,这一法律决断随着人工智能法律实践的不断深入而愈显重要且必要。


法律是社会关系的调节器,调节的方式便是基于法理和社会现实的各种法律制度设计,当新兴的事物不但在法理上满足了理论论证的要求,同样在现实中产生了迫切的待决问题,新的制度化设计也将有认真思考的必要性。承认公司的法人地位会带来经济效益,承认河流、公园等自然物为法律主体具有很大的政治、社会和经济意义,同样地,赋予机器人以法律人格是减少与其有关的违法和不道德行为的一个良好解决方案。承认人工智能的主体地位不但会延展法律的主体制度设计内涵,而且会妥善解决在各种社会生活场景中产生的各类道德问题和法律问题。因此,没有先验理由不给予真正自主的机器某种正式的法律地位,使它们像公司和某些信托机构一样成为法律上的“人”并可以参加诉讼。


03人工智能法律主体问题的核心


在赋予人工智能法律主体地位时,应当满足法律主体的一些基本要求,并兼顾社会实践的需要。人工智能的主体性首先应当考虑的问题就是自由意志,如果产生了自由意志,那么主体性的问题将迎刃而解。在人工智能自由意志的产生尚需时间的情况下,主体性的考虑必须以功能论为基础,即人工智能可能在主体功能领域发挥多大的作用,这是人工智能主体设计的最直接参考。人工智能主体功能的发挥主要体现于其在法律责任漏洞填补上相较于传统法律责任理论的巨大优势,因而可以说,人工智能法律主体问题的本质和核心其实主要是法律责任承担的问题,人工智能引发的各种困境尤其是法律责任漏洞最终基本都可以通过责任分配得到解决。


纵观人类的法律制度,法律主体的内涵一直是开放的,法律主体经历了从自由人到自然人再到自然人与拟制人并存的发展过程,每一步的变化都与社会变迁息息相关,也和责任承担密不可分,尤其是法人的主体地位则是直接基于有限责任的制度设计。法律从某种程度上来说,也是以责任承担为基础的一种社会规范建构,法律的绝大部分规范和制度设计都是通过责任承担来最终落实的。在整个社会关系体系中,责任的基本价值趋向也在于对自由的保障。没有法律责任作为最后一道防线的保障,权利被侵犯、义务不履行没有相应的法律后果,那么法律最终也不过是一纸空文。责任的概念在法律理论中的重要性一直被忽视,有学者认为,在“权利本位论”逐渐暴露出自身理论缺陷、日益难以应对社会乱象的今天,倡导一种以有限政府理念为基础的“责任本位论”作为一种替代性的法律理论。因此,以责任承担为基础赋予人工智能以法律主体地位在理论和实践上都有其支撑。


04人工智能法律主体建构的具体路径


(一)赋予强人工智能法律主体地位


人工智能是对人类智能的模仿,根据其模仿的程度,可以大体将人工智能分为三个层次。第一层次是弱人工智能,在这一阶段人工智能并未接近或达到人类的智能,只能够在某一方面做到很好,例如下围棋、语音识别等,除了这些特定领域,人工智能则无能为力。因为这一阶段的人工智能并没有自己的意识,它只是机械地重复人们之前做过的事情,可以熟练做到之前人类所做的事情,但是这种重复是单一的无意识重复,这种熟练也是某一领域机械重复的结果,熟练的广度和深度都有所欠缺,所以本质上来说这一阶段的人工智能跟真正的智能还有很大的区别。可以说,目前绝大多数的人工智能都处于这一阶段。第二层次是强人工智能(又称通用人工智能),在这一阶段人工智能已经接近人类智能,能够在很多方面熟练从事原本由人类从事的工作,强人工智能通过深度学习可以进行一定程度的思考,能够在各种常见领域根据具体情形提供当下问题的解决方案。尽管如此,强人工智能仍然是对人类智能的深度学习,建立在对人类智能的深刻学习理解和高度模仿的基础上,缺乏自主意识。这个阶段的人工智能不擅长处理抽象问题、理解意义、举一反三以及处理完全非结构化或开放式的任务。第三层次是超人工智能,这一阶段的人工智能发生了质变,一些未来学家预测的“奇点”已经来到,人工智能机器转变成为有自主意识的能够独立行为的机器人。此时的人工智能机器不仅拥有自己的自由意志,而且在智能的各方面都将超越人类,当然这一阶段是一个猜想的阶段,它的到来可能需要一定的时间,也可能永远都不会到来。


在弱人工智能阶段,人工智能仍然处于低级的工具性阶段,自由意志的缺位和社会功能的单一化导致了法理上主体理论基础的不足,此阶段的人工智能只是单功能智能体,并不具有法律主体资格认定的形式要件,因而不能认定其法律主体地位。在强人工智能阶段,全面模仿人类智能行为的外在特征使得其具有了法律资格认定的形式基础,如果因此发挥了某一特定社会功能,深入地介入了社会关系中,那么可以在一定范围内承认人工智能的法律主体地位。有学者总结了强人工智能的五个特征:(1)交流,被认为是定义智能实体最重要的属性;(2)内部知识,指的是实体对于自身的知识,这和自我意识相似;(3)外部知识,是指关于外部世界和事实真相的事实数据;(4)目标驱动的行为,标志着随意或任意行为和有意行为之间的差异;(5)创造力,包括发现新的理解方式或行为方式。强人工智能由于具备以上五个特征,可以进行以前的程序所不能的、自主性的、创造性的判断和行动,人们很难控制AI会如何进行自主性地、创造性地判断,并作出怎样的行为。AI的这种特性,导致其蕴含着产生事故的危险性,失去了可预见性,催生了责任的空白,即在使用AI的情况下,原告难以举证,使得过失和因果关系缺位,因此催生了法律层面上不存在责任者的问题。还有学者总结了机器人的三个特征,即机器人是互动的、自治的、适应性强,因此会对法律主体资格和法律责任问题产生影响。因此,人工智能主体地位的建构应围绕强人工智能体设计一套以责任承担为核心的法律主体制度。


(二)人工智能是特殊类型的法律主体


人工智能的法律地位在法学理论界一直处于争议之中,主要有否定说和肯定说两种观点。否定说一般认为,人工智能并没有特别之处,只能被作为法律上的客体对待。人工智能不具备心理认知意义上的意志,它自身并非是一种目的性存在物,且不具有自律性,人工智能无法承载法。人工智能超强的智能蕴含巨大的风险,必须处于人类的支配和控制之下,只能是法律关系客体而非主体。鉴于人工智能的智能性和自主性,可以将高度智能化的人工智能作为客体中的特殊物,予以特殊的法律规制。有学者指出当前人工智能法学研究出现了违反人类智力常识的反智化现象。概念附会现象严重,不少成果只是基于“AI+法律”的任意性组合,“泛人工智能化”研究正在产生大量学术泡沫,其中人工智能法律人格问题是个彻底的伪问题,没有任何法制建构和法学研究上的借鉴性。针对否定说的批评,有持肯定说的学者甚至专门撰文回应,并称之为“伪批判”,认为在人工智能时代的刑法学研究中存在不同观点和争议完全正常不足为怪。对人工智能刑法学探讨研究的前提应是对所涉对象、前人成果及相关概念全面了解,理性、客观地提出自己的见解,论述应实现逻辑自洽、自圆其说并言之成理。不应开展“为批判而批判”的“伪批判”。“伪批判”主要包括混淆概念型、移花接木型和自相矛盾型三种类型。肯定说一般同意在法律上赋予人工智能主体地位,但是为人工智能建构何种类型的法律主体则有不同的意见。总体来说,目前理论界存在电子人格说、代理说、有限主体说等观点。电子人格说是欧盟的建议,2016年,欧洲议会向欧盟委员会提出报告,要求制定民事规范来限制机器人的生产和市场流通,其中第50条的(f)项建议:从长远来看,要创设机器人的特殊法律地位,以确保至少最复杂的自动化机器人可以被确认为享有电子人(electronic persons)的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格(electronic personality)。代理说认为,人工智能是人类的电子代理人,人工智能的意识表示被视为与之相关联的人类的意识表示,人工智能的行为由作为被代理人的人类来承担最终责任,甚至有学者认为人工智能是研发者、制造者和使用者的法律行为。有限主体说认为,应该赋予人工智能某种特殊的法律地位,例如美国学者瑞恩·卡洛建议创建一个“介于人与物之间的新类型的法律主体”,赋予人工智能“中间法律地位”,使之具有部分权利能力,即根据某些领域的法律可能具有权利能力,但在同一时间若依据其他领域的法律,也可能不具备权利能力。此外,还有主张赋予人工智能类似自然人的完全法律主体地位和类似法人的拟制法律主体地位。


既然作出赋予人工智能法律主体地位的决断,否定说的观点自然不可采,对比肯定说的几种观点,完全主体说、拟制主体说和代理说的说服力相对较弱,电子人格说和有限主体说有异曲同工之妙,因此人工智能的主体地位应当以二说为基础进行建构。现在已经很清楚,为了民事责任的目的,承认机器人为法人不是一个哲学问题,不可以通过检查数字设备的特征并询问它是否与人类足够相似来回答这个问题。相反,承认机器人可以承担责任需要一个符合侵权法一般原则和目标的功能性解释,即补偿和威慑。人工智能不同于自然人,其主体性不应包含伦理成分,当前有关人工智能伦理性的探讨多属理论设想,不应作为人工智能法律主体设定的考量因素,故而有关人身性质的主体性不可赋予强人工智能,人工智能的法律主体建构应该立足于财产责任的承担。人工智能也不同于法人,法人的意思和行为最终都需要相应的自然人来完成,通过法律的拟制把自然人的这种意思和行为转化为法人本身的意思和行为,这种意思和行为都是独立的和完整的,因而法人的法律责任具有独立性和完整性。而人工智能仅具有一定的意思能力和行为能力,可以作出一定的自主性行为,人工智能的法律责任相应地也不具有独立性和完整性,即某些情况下人工智能不具有独立承担所有法律责任的能力。总之,人工智能是一种既不同于自然人也不同于法人的特殊类型法律主体,这一类型法律主体没有伦理属性,主要承担财产性法律责任,并且其承担的财产性法律责任是有限制的。


(三)人工智能承担法律责任的条件


法律责任的承担通常要求责任者存在过错,在法律有特别规定的情况下,责任者无过错也需要承担责任,即过错责任和无过错责任。过错的存在与否是一种主观状态的判断,前提是被判断者具有过错能力,即意识到自己负有某种注意义务并决定是否履行这种注意义务的能力。当前讨论的人工智能并不具有自由意志,无人知道所谓“奇点”何时来临,是否会来临, 人工智能现阶段很难意识到自己行为的意义,不具有意识上的自觉也就不具有过错能力,因此人工智能的责任无法用通常的过错责任或无过错责任进行表述,人工智能法律责任的性质是一种法定的严格责任,即由法律明确规定人工智能在某种条件满足时必须承担特定的法律责任。换言之,机器人和其他人工智能体将对它们所造成的伤害或损害负严格责任,以此作为应对其行为日益不可预测的一种方式。 


人工智能承担法律责任需要满足特定的条件,当存在设计缺陷、制造瑕疵、说明指示或警告不充分的时候,人工智能的设计者、制造者、销售者需要对人工智能的行为承担责任,当人工智能处于使用者的监控之下时,使用者需要对人工智能的行为负责。只有在以下情况发生时,人工智能才可能对其行为承担责任:(1)人工智能造成损害或伤害;(2)造成损害或伤害的所有责任都不能归责于一群人或分配链中的某一人。有时候,当这些情况发生时,人工智能的行为完全按照预期进行,但是仍会造成损害,也应该承担责任。总而言之,当人工智能造成的损害完全不可追溯且不可归属于他人之时需要独立承担法律责任,人工智能承担法律责任是果,其不可归责于他人的“自主”行为造成损害或伤害是因。


(四)人工智能法律责任的类型


法律中最常见责任类型是民事责任和刑事责任,民事责任主要有侵权、违约两种,刑事责任则由犯罪产生。人工智能能否成为犯罪主体进而承担刑事责任一直存在争论,否定说认为人工智能本质上是人类辅助工具,不具有法律上的人格属性,其行为不论是依照预先设定的程序运行还是脱离程序设计的自主运行,都欠缺法规范遵从能力的意志性,即使客观上造成法益侵害后果,同样不具有刑法上的可归责性。肯定说认为,从刑法上的行为理论来看,应当认为具备足够决策能力的人工智能可以实施刑法意义上的行为。现代罪责理论由于逐渐开始排斥“自由意志”这样的形而上学概念,因而完全可以容纳人工智能的罪责。当智能机器人在程序设计和编制范围外实施严重危害社会的行为时,智能机器人具有辨认能力和控制能力,因而具有刑事责任能力,应当独立承担刑事责任。人工智能在人类活动中扮演越来越重要的角色,就像公司一样,对公司和人工智能施加刑事责任的理念之间没有实质性的法律区别。刑法的功能已不单纯是惩罚犯罪人,改造犯罪人、补偿受害人已逐渐成为刑法的重要目的,人工智能犯罪问题则完全契合刑法的这一理念转变,关注的不再是对人工智能的惩罚,不再考虑人工智能是否具有可刑罚性这样的抽象问题,而是注重对被侵害者的补偿,侧重于分析人工智能这一财产性主体如何最大程度地通过财产弥补受害者的损失。因此,人工智能承担刑事责任符合未来刑法的发展趋势,如何进行财产制度设计保障补偿功能的实现是需要重点考虑的问题。


在民事领域,人工智能造成的损害通常会被归责于其设计者、生产者、销售者或使用者等。例如,有学者认为人工智能产品不宜成为独立的责任主体,需要建立专门的伦理准则、登记公示制度与召回处置机制,确立生产者、销售者与使用者之间差异化的归责原则。然而人工智能不同于一般的产品,具有一定的自我行为能力,如果损害行为完全是在人工智能程序设定之外自主产生,这样的程序外行为具有很强的不可预见性,让上述主体承担这一风险极大的责任有失公允,由于举证困难的问题很多时候受害者难以得到有效赔偿,而且会在某种程度上降低人们研发人工智能的热情,阻碍科技进步。甚至有观点认为,分布式人工智能的特点会导致因果关系的失效,进而使得传统侵权制度很难处理涉人工智能案件。尽管如此,以侵权和违约为主体的民事责任大多是财产责任,与人工智能作为财产性责任主体具有内在一致性,人工智能作为民事责任主体可以有效化解相关主体可能承担的责任风险,稳定社会关系,同时可以通过相关财产制度设计使损害得到及时有效赔偿。


(五)人工智能法律责任的具体承担


1.责任承担模式


人工智能承担法律责任可以有两种模式,即共同责任模式和独立责任模式,前者由人工智能和相关责任人共担责任,后者由人工智能独立承担责任。以刑事责任为例,有学者认为,当强人工智能产品实施了严重危害社会的行为时,除了追究强人工智能产品的刑事责任外,负有预见义务和监督义务的设计者或使用者也有被追究刑事责任的可能。如果强人工智能产品的设计者或使用者既不可能预见危害结果的产生,也确实履行了监督义务,那么其可能不需要承担刑事责任,此为意外事件或由强人工智能产品独立承担刑事责任。在民事领域,当人工智能完全自主独立为损害行为时承担独立责任,当第三方有意识的行为介入,与人工智能的行为共同作为损害的原因力时,人工智能与第三方责任者承担共同责任。总结来说,当人工智能造成损害且无法关联于其他人员时,由人工智能作为法律主体承担独立责任;当人工智能行为与其他人员行为相关联并共同造成损害时,由人工智能与相关责任主体承担共同责任。


2.责任承担方式


人工智能作为财产性法律主体,财产是其承担法律责任的基础,必须为其建立独立的财产制度。至少,Al系统必须能够直接(作为一家公司)或间接(假设Al系统的许可方或被许可方代表Al系统行事)持有资产。除非原告能够强制执行一项成功的判决,以获得对所遭受损失的补偿,而且这种补偿通常是经济上的,否则授予人工智能法律人格的目的就会自始落空。在具体制度设计上,通过建立强制保险制度,每个具有人工智能功能的机器都需要买保险,以形成潜在的资金池,便于支付赔偿金。通过建立储备基金系统,人工智能作为一个整体会拥有一个独立单一的资金池,以备在承担赔偿责任时使用。甚至可以考虑建立人工智能雇员薪资制度或者税收制度,由相关主体对参与劳动的人工智能支付报酬或缴纳税金,并将此报酬或税金统一转付到相应的人工智能薪资税收资金池。还有学者希望建立一种图灵注册认证制度,让人工智能进行图灵注册认证,由人工智能的开发者根据其开发的人工智能特性支付相应的费用,认证机构评测其风险性并插入唯一的加密认证,人们只使用经过认证的人工智能,认证的人工智能也只和其他认证的人工智能沟通交流,当出现损害涉及认证的人工智能时,不考虑因果和过错,注册机构都将进行赔偿,图灵注册认证制度提供了一种以技术应对技术带来的困境的可能性。


在知识产权领域,对于能够独立进行创作的人工智能,可以赋予其财产性作者地位,同时对其知识产权作一定的时间限制,以获取知识产权财产收益扩大人工智能赔偿资金的来源。与此同时建立人工智能与特定法律主体共担责任的制度,让人工智能与其设计者、制造者、销售者、使用者或者其他相关行为人等共担责任。拥有了财产的人工智能便有了源头活水,在人工智能违法犯罪产生损害时,可以通过自己的财产承担法律责任。另外,一旦机器人技术的设计、销售或供应被认为是非法的,还可以采取以下措施:监视和修改(“维护”),除去网络空间中不连贯的成分,网络空间消灭(无备份删除)。在刑事犯罪领域,在财产赔偿外,有学者认为针对人工智能产品的犯罪,有必要在刑法中增设删除数据、修改程序、永久销毁等刑罚种类。此外,还可以通过算法公开、审慎监管等方式,让算法决策系统反映我们作为一个社会所珍视的价值观, 从源头上避免人工智能责任的产生。


05结  语


人工智能的发展让人们产生了主体性忧思,哲学上侧重于从主客观二分的角度理解主体性,核心是自由意志和主观能动性,法学的主体性以哲学的主体性为基础,以意志自由为核心建构法律主体制度的框架,同时兼顾法律资格和主体功能的考量。人工智能的主体地位问题产生于其类人智能的根本属性,加之其在社会生活中的作用以及对既有伦理的可能冲击,使得承认人工智能的主体地位既有理论的依据更兼具现实的意义。然而人工智能的发展存在一个渐进的过程,在完全具有自由意志的超人工智能产生之前,承认人工智能的法律主体地位应当保持谨慎的态度,对于弱人工智能应当作为法律客体更加合适,强人工智能法律主体建构应以解决现实中出现的责任问题为依归。就当下而言,所谓人工智能主体问题可以转化为人工智能的法律责任承担问题,而这种责任主要是财产性责任,只要为人工智能建构独立的财产制度,承认其特殊的财产性法律主体地位,这些问题便可迎刃而解。

*本文刊载于《中国应用法学》2022年第5期。因篇幅限制,注释等有删减,具体请参见期刊原文。

 -责任编辑:钟 莉-


往期推荐

●《中国应用法学》2022年第5期目录

●李占国:当前司法实践中影响公平正义实现的若干问题|中国应用法学·高端论坛

●李玉林:民刑交叉案件实体裁判规则研究——以合同效力、责任认定为中心|中国应用法学·法学专论

●徐卓斌:商业秘密权益的客体与侵权判定|中国应用法学·法学专论

中国应用法学

《中国应用法学》现设有“高端论坛”“本期特稿”“专题策划”“法学专论”“实证研究”“涉外法治研究”“法律评注”等栏目。我们将会持之以恒地提高办刊质量,汇聚起应用法学研究的磅礴力量,努力打造应用法学研究高端平台,共襄中国特色社会主义法治建设的盛举,迎接中国特色社会主义法治灿烂辉煌的未来!


《中国应用法学》投稿邮箱:

zgyyfx@163.com

《中国应用法学》订阅邮箱:

zgyyfx_issue@163.com


刊号:CN10-1459/D.

订刊电话:010-67555935

订刊传真:010-67107848(刘老师)


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存