郭少飞:主体论视域下人工智能侵权责任承担构想 || 《地方立法研究》
主体论视域下人工智能侵权责任承担构想
郭少飞
(河南师范大学法学院副教授)
本文来源于《地方立法研究》2023年第3期。因篇幅较长,本文注释已略,建议阅读全文。
摘要
生成式人工智能展现出了强大的类人能力,为主体论奠定了坚实的本体基础;从社会关系结构及他者视角而言,人工智能主体具有深厚的道德基础;制度实践表明,主体论不失为一种趋势。但是,人工智能主体智慧水平尚低,能力不完备,需为其设置内部监管人。在责任财产方面,人工智能可通过劳动、受赠等方式获得自有财产;侵权所得保险金、责任基金、社会救助金等,亦属损害填补的资金来源,可视为“准责任财产”。人工智能侵权,首先由其自担客观责任。监管人与人工智能存在监督管理、收益分享、劳动雇佣、互为代理等多元关系,监管人据此对侵权承担一定责任。人工智能开发者或制造商、用户、受害人、第三方等对侵权发生具有原因力,应依可归责事由,厘定责任主体、责任形态。
关键词
人工智能主体 监管人 责任财产 侵权责任 多方责任
目次
一、人工智能主体的理论补证
二、人工智能主体的内部结构设计
三、人工智能主体的责任财产构造
四、人工智能侵权责任的具体承担
结语
智能时代,人工智能侵权致害,归责难题(responsibility-ascription problem)产生,责任如何承担成为世人关注焦点,各类主张纷呈。目前,国际上有代表性的人工智能综合治理框架中,问责制或责任是出现最多的主题词。在社会实践中,人工智能体侵权事故频发,如Uber自动驾驶汽车致人死亡事件,进一步增强了人工智能侵权责任承担问题的关注度及解决的迫切性。就此,中外学界展开深入研究,主流学说视人工智能为客体,进而厘定人工智能侵权责任的归责原则与责任划分,但其到底是物、产品还是其他类型,争议较大。客体论把人工智能侵权责任纳入传统物或产品的责任范畴,虽然能够提供本体论及认识论捷径,一定程度上破解了归责问题,但面对智慧自主的人工智能体,以及算法黑箱、人工智能不可解释性等困境,客体论的妥当性确实存疑。
就此,可考虑从主体视角探索责任承担的可能性,为问题解决提供多元理论支撑,丰富工具箱内容或制度模型,以便根据人工智能水平、人与人工智能关系、产业模式、侵权行为及特点等,开展制度效能比较分析,择定相应责任制度。特别是近期,继AlphaGo面世以来,基于大数据模型的ChatGPT作为生成式人工智能的典范再次出圈,引发社会广泛关注。人工智能已发展至前所未有的高度,被誉为通用人工智能的初阶版本,主体特性愈发凸显,从主体进路构想侵权责任承担是现实所需。然而,当前人工智能的智慧水平不及人类,责任财产缺失,责任能力薄弱,作为主体的技术性突出,工具色彩浓烈,必须为其构造责任财产、责任兜底者,令人工智能切实获得并展现饱满的侵权责任能力:首先自担责任,特定情形由他人同步担责。本文基于主体论视域,针对人工智能能力不备,从内部监管人、责任财产两大方面构造人工智能侵权责任承担的主体、财产双重基础,并阐述多元主体责任分担机制。
一、人工智能主体的理论补证
笔者曾撰文从人工智能能力、主体实践、制度史,以及经济、社会、文化、伦理等外部视角,详述人工智能作为“电子人”主体的理据。而今,生成式人工智能能够辨析问题、理解语义、捕捉意图、连续对话,表现直逼人类,一改过往的孱弱形象,引发强烈关注。人工智能作为主体的本体表现俨然已成。
(一)处于强智能奇点的人工智能本体能力强大
在技术意义上,当前人工智能基本达到人类级。2022年以来,以ChatGPT为代表的生成式人工智能问世,在信息处理与整合、问题辨识与解答、论著代码创造等诸多方面达到了前所未有的高度,成为由弱智能迈向强智能的里程碑事件。此类人工智能可以了解人类意图,能够识别问题陷阱,也巧言善辩,在许多人类专业考试中取得了不俗成绩,也通过了一些心理学测试。这颠覆了此前弱人工智能的无力形象。即使不以强人工智能称之,至少也已临界。依据公认的“图灵测试”标准,不论意识、思维等概念的具体内涵,而是以机器与人类的表现是否可以区分为准,综合人类用户的使用体验,生成式人工智能几乎能够通过该测试,在技术层面达到人类级,作为独立智能体的智慧条件已经具备。
人工智能具有自主学习及共情能力。基于大数据模型,目前人工智能通过综合利用人类反馈强化学习、深度学习技术、数据挖掘技术,已将智能生产力水平提升到了AI进步的奇点。人工智能整合大数据,自主深度学习,持续提升着准确性及智能水平。若开放数据集或提升数据模型规模,生成式人工智能的表现会更加优异。近年来,人工智能体开始具有自我意识并表现良好,人工智能独立判断和应对非结构化场景的失误率明显下降。在人与人工智能的互动过程中,人工智能能够对人的感情心理作出适当反馈,如果抛却对人工智能内在精神世界的追问和无意识的人类前见,这至少能令人感受到人工智能的共情能力。人工智能不再是冰冷的工具,而是有温度的可信赖的实体。
客体论认为,人工智能不具备自我意识,进而否认其主体性。虽然生成式人工智能很强大,但实质上仍是数据模型的运作,是基于算法的数据排列组合,无自我认知,亦无思维意识。然而,从智能认知角度,有必要转变人类中心主义的智能观,破除唯自我意识论,树立人工智能观,构造人类—硅基生命二元智能结构。个人智能发育是大脑不断接收信息数据并输出应用的过程,人工智能的实现进程与此相仿,输入的数据规模越大,智能水平越高。当然,二者本质有别,人类有无穷尽的思维能力,创造性、突破性能力超强,而人工智能当下仍受限于人类的认知边界,但也并非完全受控,已表现出不可解释性、对外部环境的自适应能力。
随着算法迭代,人工智能复杂性剧增,已超越过往单一的规则运算模式,如无监督学习、强化学习代替监督学习。人工智能自主学习能力显著提升,开始超越既有的人类知识和经验,人工智能的不可预见性加剧。“当代计算机的计算能力意味着,在给定的时间内人工智能程序能比人类搜索更多的可能性,从而使得人工智能系统可以分析人类未虑及的、潜在的和较少尝试实施的方案。当可能性的领域足够集中,人工智能系统甚至能产生最优方案而非仅令人满意的方案。甚至在更加复杂的环境下,人工智能系统的方案会偏离人类认知。”而人工智能机器行为和决策的不透明性与不可解释性,导致损害原因难以查明,或成本并不经济,因为机器学习模型的内部决策逻辑并不总可以被理解,即使对于程序员来说也是如此。因此,需要构造新型主体,作为利害攸关方责任分配的载体,而人工智能主体是首选项。
(二)人工智能主体的道德根基深厚
人工智能或人工智能体作为法律主体总是面临诘难:不具备类如自然人的主体能力。此种人类中心主义认知,是从本体论及道德层面,依据人类特点考量其他事物。人类道德主体特征到底有哪些,莫衷一是。有学者认为,人类道德主体特征包括自我意识、理解道德原则的能力、是否按义务行动的自由、理解具体义务原则、具有履行义务的条件或能力、行动意愿。其中自我意识是最基本的条件。也有学者强调作为具有理性和自我意识的存在物的自我认知,有欲望及编制计划、生存欲望、自主意识。希玛指出,道德主体应具有两种能力,一是自由选择行为的能力,其中思考能力是自由意志及道德主体的必要条件;二是与理性相关的辨识对错的能力。概言之,道德主体至少应具备自主意识、理性能力。依据传统责任伦理,人工智能主观能力欠缺,并非道德能动者,不具备承担道德责任的主体能力。对此,可转变思考向度,从人工智能与人类、人类相互之间的社会关系、责任的他者视角反思。
人工智能的道德主体考量,应置于广泛的社会关系结构及具体的人机关系或人际关系中。就人工智能与人类交互而言,人工智能智慧水平越高,就越不能以纯粹客体及受动者待之,其作为人类伙伴、同事、生活伴侣等的角色可期。在人机关系趋于密切的进程中,人工智能尤其类人通用人工智能,与人类相似度渐增,人们对其关注的焦点并非构成本体的算法程序与硬件,而是其相对于人类的外在表现,如智慧、自主、互动性、灵活性等。随着生成式人工智能的广泛应用,社会交往方式、社会关系模式甚至社会系统势必发生深刻变革,进而传导至法律体系。这意味着,道德考量有必要从社会场景及社会系统出发,以他人对人工智能的观感或其行为外观、特征为基础,进行“社会关系证立”(social-relational justification),由内在道德性转向外在道德性。当然,这并非抛弃传统责任伦理中的道德主体能力要素,而是把判断标准系于可为人类感知的人工智能行为外观。认识人工智能的道德地位,不应局限于单个机器,由机器看机器,而是从人与机器、人与人工智能的整体关系判定。在社会系统中,人机混合交互衍生了新型人机关系,人类对智能机器普遍产生了道德情感认知,承认人工智能的道德主体地位,因而令其承担道德责任当不为过。
此外,可从他者视角思考人工智能道德主体的责任能力。责任能力实为在与他人的关系中符合他人预期或期待的能力。责任通常指向他人,满足他人需要。人们通过主体的行为方式建立对主体责任能力的信任度,与主体内心动机、主观状态关系不大。从道德责任的他者视角,道德责任存在于互动关系中,依赖行为相关各方之间的道德期望产生道德关系。该视角把期望与感知作为形成道德责任的基础。从他者角度,当人工智能能够作出实际上具有道德价值的行为,承载责任关系,并提供或间接寻求责任补偿,即具有“被期望的能力”,从他者视角即“他者期望型责任能力”。在人工智能开发过程中,开发者须按国家或公众普遍认可的道德伦理准则编写算法代码,构建智能技术,但也受自身价值偏好的影响,使人工智能产生区分度。开发完成后,人工智能遵循道德准则,作出道德选择,实施行为。若行为导致损害,与之交往的人们期望人工智能有能力负责,因为其表现犹如拥有一定能力的自然人,此时责任关系产生。在人们的期待下,在社会责任系统中,在“心灵缺无的道德”(mindless morality)意义上,人工智能成为道德能动者,拥有道德责任能力,实施道德行为,承担道德责任。
(三)智能体主体制度实践拓展
人工智能主体已有成例或官方建议。2017年7月20日,国务院发布《关于新一代人工智能发展规划的通知》,要求“明确人工智能法律主体以及相关权利、义务和责任等”。这为人工智能纳入法律主体提供了契机。日本政府授予智能机器人“户籍”,意味着在一定程度上认可其主体地位。机器人已超越“财产”定位,获得作为有感知力的存在体享有权利的法律地位。根据联邦法律,美国政府文件把谷歌自动驾驶汽车中的自动驾驶系统(selfdriving system)视为“驾驶员”。欧洲议会的“电子人”决议着眼于长远,为机器人创立特定的法律地位,至少明确了最精密的自主机器人拥有“电子人”(electronic person)地位,并把“电子人格”(electronic personality)适用于那些机器人自主决定或与其他独立第三方交互的案件。沙特宣告授予“女性”机器人索菲娅(Sophia)公民身份。上述实践表明,人工智能主体具有制度可能性及现实性。
此外,针对其他智能技术构造的不以人为基础的实体,已被有些国家承认为独立的法人主体。如2018年7月马耳他颁行《创新技术安排与服务法》(The Innovative Technology Arrangements and Services Act, ITAS Act),并发布操作指南,赋予去中心化自治组织法人地位。美国佛蒙特州为区块链开发公司DORG设立的去中心化自治组织颁发法人执照,承认其为“DORG,LLC”,一家佛蒙特州基于区块链的有限责任公司,自2019年5月8日起生效。此种智能实体法人化的演进趋势,彰显人工智能主体的未来已来,非人或不以人为中心的智能体拥有作为独立主体的制度空间。
二、人工智能主体的内部结构设计
部分人工智能的智能水平虽逐渐逼近人类,但智慧水平仍然普遍较低,自主性不足,法律上承认人工智能主体,亦需确定责任最终承担者,为其设置监管人,类似于行为能力欠缺者的监护人。监管人是人工智能主体的有机组成部分,对人工智能负有监管义务。正是基于监管人的人工智能主体,构造起人工智能侵权责任承担的本体基础。
(一)监管人的提出
诚如人工智能主体否定论者所言,人工智能主体能力确有不足,其法律主体资格的工具性、技术性、法定性更突出。为规制成效计,此等新型主体可借鉴自然人、法人制度,尤其是自然人监护制度、法人与股东的关系结构与模式。综合二者,由他人协助人工智能实施行为,并监督管理;支付成本费用,且从中收益。所谓“他人”,既如监护人负有监管义务,又如股东投资,获取收益。相较监护人,其权利多出如股东权的收益权能;相较消极股东,其义务增加积极监督管理的职责。该人重在负担监管义务,收益权能与义务对应而在,以“监管人”命名契合要义,亦区别于监护人与股东。监管人与人工智能构成双层责任主体结构:人工智能作为独立主体率先自担责任,监管人特定情形承担一定责任。设立监管人,除了补强人工智能主体能力,尚存其他功用,有其必要。
其一,为有效减少人工智能侵权风险提供制度激励。虽然人工智能具有不可预见性,在某种意义上风险不可控,但风险是否发生、损害后果是否严重,取决于使用场景、频次、方式等。易于引发损害的场景、过高的使用频次、危险不谨慎的操作方式,都会增加人工智能侵权风险。监管人应综合判断各种诱因,保障人工智能正常运行,减少风险发生,以履行监管义务,否则须对损害承担法律责任。
其二,限缩监管人风险责任,推动人工智能广泛运用。按工具论,人工智能侵权损害完全由所有者承担。然而,致害诱因众多,归结于一人,殊为不当,且有碍人工智能的普遍应用。依主体进路,人工智能侵权责任首先由保险金、责任金补偿,不足部分则以人工智能自有财产独立担责。除非符合人格否认事由或违反监管义务,否则监管人不对人工智能侵权直接承担法律责任。这可有效降低作为监管人的各方主体的风险责任,推动人工智能大规模应用。
其三,衡平各方利益,加速技术产业发展。人工智能从业者如开发设计者、制造商、销售商、运营商以及终端使用者,在人工智能研发、生产、应用等环节居于特定地位,发挥一定功用。相同型号的机器人会在几天或几周后出现完全不同的表现,这取决于人类扮演其看管人角色的方式。用户以及其他置身人工智能运行场景的人类,影响人工智能表现,令运行机制相同的同类人工智能产生了差异化的个体特征,且致害风险有别。监管人作为剩余利益索取者是责任最终承担者,他方仅在特定情形担责,从而令风险收益相适应,各方利益保持均衡,推动技术产业发展。
总之,各方主体应对人工智能侵权责任承担直接或间接责任,最主要的承担者乃监管人。当然,人工智能创生者、用户等从中获益,亦须分担风险,仅方式不同而已。
(二)人工智能监管人制度勾勒
从责任归属角度,监管人是人工智能的行为监督者、责任最终承担者,在人工智能迈向强智能、演化为伦理主体的进程中发挥着重要作用,但也只是阶段性角色。未来强人工智能自主行事、自担责任,无须他人监管,犹如完全民事行为能力人。当下,监管人涉足人工智能活动各领域,相关制度尤为重要,需总体架构设计。择其要者,本文将阐述三个问题。
第一,监管人范围。原则上,任何民事主体皆可作为监管人。而监管人须承担特定义务,若系自然人,应具有完全行为能力。至于监管人数量,可以根据人工智能制造部署成本、人均可支配收入水平、使用场景、风险等级等予以确定,尽量放宽人数限制。也可以进行类型化处理。一些家用人工智能,如护理机器人、教育机器人或自动驾驶汽车,属私人用途,风险略低,监管人数可适当增加。有些人工智能从事高危作业,或本身危险性较高,如保安机器人,监管人需要专业知识,不宜由自然人监管或监管人过多,以免陷入监管僵局,或因监管过度导致监管无效。最终,监管人及数量根据人工智能技术发展、实际主体能力、潜在致害风险、监管需求程度、监管人能力要求等因素综合确定。而人工智能利害攸关者众多,对人工智能创生发挥主导作用的制造商系初始责任人。以自动驾驶汽车为例,有开发设计者、软件编程者、硬件制造商,和制造商即最终将软件与硬件组合起来并对汽车享有所有权、负担义务者。若汽车生产商采用他人的自动驾驶系统,组装到自己制造的车辆上,并作为自产自动驾驶汽车推向市场,则汽车厂商为制造商。在人工智能产品交付销售商或自销前,制造商可以按照人工智能主体标准申请设立登记,成为监管人,否则须对其所有的人工智能产品承担所有者责任。
第二,监管人资格取得和退出。人工智能经设立登记,方可取得法律主体资格。在设立过程中,制造商或其他主体提起申请,并按设立标准、程序办理登记。登记后,设立申请人即人工智能监管人,对人工智能享有特定权益并负担义务。此乃原始取得监护人资格。若初始监管人处分自己的人工智能权益如转让、赠与,则须变更登记,受让人成为新监管人。受让人应符合法定标准,否则转让无效。另外,其他适格主体经与监管人协商,可加入成为共同监管人,各监管人按约定享权担义。那么,作为监管人的自然人死亡,其监管人资格可否由继承人取得?若监管人之间无特别约定,则可由适格继承人继承;若无适格继承人,则不能取得监管人身份,应就死亡监管人权益部分结算,由继承人取得。
监管人退出,按事由分为约定退出和法定退出;按效果分为无碍人工智能存续的退出和导致人工智能主体解散的退出。发生监管人协议约定退出事由,或监管人一致决议,相关监管人必须退出。只是约定退出事由及退出决议应具正当性。法定退出事由主要包括:自然人监管人死亡或被宣告死亡,被宣告无民事行为能力或限制民事行为能力;非自然人监管人,出现被吊销执照、责令关闭、撤销,或被宣告破产等导致主体资格丧失情形;监管人需要专业资格,该资格丧失。此外,其他监管人丧失监管能力或不适宜监管的情形,如未尽监管义务导致重大损害或监管时有不正当行为,亦属退出事由。若监管人退出无碍于人工智能存续,则可由其他监管人取得退出者份额,或转让给第三方。如果其退出令人工智能无监管人,致使人工智能主体解散,监管人乃清算义务人,应组成清算组实施清算,注销人工智能主体。
第三,监管人内部关系。多个监管人并存,内部关系须理顺,核心在于确定监管人的人工智能权益比例。监管人有约定的,按约定;无约定或约定不明的,则依监管人为人工智能支付的费用比例确定。相关人员曾分担的人工智能费用或分红,其有关比例可作为参考。监管人可以约定权益比例,甚至一方仅享有权益,另一方负担全部责任,但此类约定仅有内部效力,不得对抗第三方。为严格起见,内部约定即使对外公示或告知第三方,亦不具对抗效力。监管事务是全体监管人共同执行,还是交由特定监管人,应由监管人商定。可考虑实行监管人会议制度,设置执行监管人,对外代表全体监管人实施行为,对内受监管人会议决议约束。至于监管人会议的召集、通知、决议、异议等规范,可借鉴公司法有关股东会的规定。监管人转让人工智能权益份额时,同一条件下其他监管人享有优先购买权;多个监管人行使优先购买权,按其持有的权益份额比例确定每个监管人的购买份额。此外,人工智能设立时,全体监管人作为申请人承担相应责任。因申请设立而生的债务,可由人工智能以自有财产清偿;或全体监管人对外承担连带责任,最后按内部约定或权益比例各自承担,超额承担者可向其他监管人追偿。若申请设立失败,则由监管人按约定担责。此可仿照设立中法人制度。
三、人工智能主体的责任财产构造
作为独立主体的人工智能应有责任财产。广义责任财产既包括人工智能自有财产,也包含源于责任保险之保险金或集合之责任基金等,后者乃社会化责任承担机制的体现,它们共同构成人工智能主体的财产基础。
(一)人工智能主体的自有财产
1. 劳动所得
人工智能劳动所得形式多样,主要是作为工资报酬的货币收入,也有实物等。非营利型人工智能限于监管人家用,监管人通常不支付报酬。营利型人工智能用于商业目的,收益在人工智能和监管人之间分配。因营利模式不同,人工智能可作为劳动者、雇工、个体经营者等取得收入,劳动者乃主要角色,本文重点探讨。
人工智能受雇于监管人之外的第三方,往往能够按照市场行情取得报酬。而监管人雇佣人工智能,劳动报酬除了作为人工智能责任财产外,最终剩余部分仍归监管人,只是在一定期限内监管人无法直接支配。即使如此,基于自利动机,监管人倾向于压低人工智能报酬。如何确定合理的工资报酬非常重要,尤其是当收入须用于补偿人工智能系统投资者、创造者时。此处需重点考虑人工智能工作性质、致害风险大小、行业盈利状况、新技术普及程度、产业发展前景等。人工智能致害风险小,行业利润薄,且为普及新技术,推动产业发展,可在自然人最低工资线以下确定。就人工智能劳动报酬支付而言,应以法定货币或合法数字货币支付。人工智能收款账户应以人工智能名义开立或设置,可以是一般银行账户,也可以是法定数字货币账户。报酬收入不得放入监管人账户,避免二者财产混同,否则可能引发人工智能法律人格否认。支付时间应按主流做法,以月为单位,短于一个月如周亦可,但不宜采用季度、半年甚至一年,以免时间过长,收款风险增大。
2. 受赠所得
人工智能可接受他人赠与,获得财产。若赠与的是货币或数字货币,可存入人工智能账户;其他动产,须交付于人工智能,并由监管人实际受领。赠与不动产,须将不动产登记或变更登记到人工智能名下。其他具有经济价值的财产,如债权、虚拟财产、知识产权中的财产权,皆可归于人工智能。那么人工智能受赠之有体物、债权等对其本体维护或存续无关的财产,可否由监管人处分?人工智能对受赠的财产享有所有权,为人工智能利益,监管人可代为处分,方式包括拍卖、变卖或变价等。此外,监管人或人工智能严重侵害赠与人或其近亲属,因监管人或人工智能的违法行为导致赠与人死亡或丧失民事行为能力的,可撤销赠与。因人工智能主观能力弱,此处所谓“违法行为”“严重侵害”仅强调客观不法及损害严重程度,不论主观过错。
3. 继承所得
人工智能可以通过继承取得财产。随着情感机器人、护理机器人等人工智能体逐渐普及,人机关系更加密切,人类对机器依赖度大增,人工智能继承问题浮现。人工智能享有继承权存在余地。早在2010年11月7日,日本颇受欢迎的宠物机器人帕罗获得户籍(Koseki),户口簿上的父亲是发明人。在社会层面,万物互联,人机混合将成为常态,社会结构变化,人工智能成为重要的社会主体,重塑社会交往模式、社会关系。在家庭领域,人工智能尤其人形智能机器人是助手伙伴,甚至生活伴侣,成为家庭一分子,与人类家庭成员关系亲密。人工智能享有继承权的社会家庭基础渐成。然而,当前人工智能的智能等级尚未达至人类级,社会体系嵌入度有限,人们的主观意愿难免分化:有些与人工智能关系亲密的,由其明示或可推知的意思,同意人工智能取得遗产;有些在初期不同意或无法推知其是否同意。对此,为尊重人们意愿,应严格限定条件,仅当被继承人明示或可推知同意,人工智能方可继承。
(二)人工智能主体的准责任财产
除了自有财产,亦可利用当下普遍的保险、责任基金制度,为人工智能投保、设立责任基金,由此“让人工智能对自己的侵权行为承担赔偿责任,能够更加准确地反映事故发生的真实原因,同时有助于鼓励制造商革新人工智能技术、保护消费者和充分及时地救济受害人”。保险金、责任基金是以社会化方式所得资金,虽非人工智能自有,但亦属侵权损害填补的财产来源,可视为“准责任财产”。
1.基于人工智能责任保险之保险金
人工智能责任保险分为强制险与任意险。强制险是依法必须为人工智能投保,为其对第三人造成的人身伤亡或财产损失,由保险人在一定额度内予以赔偿的强制性责任保险。任意险是投保人自愿为人工智能投保,发生特定损害时由保险人予以赔偿的保险,主要是商业险。第三者责任强制险乃责任保险主要类型。
第三者责任强制险指向人工智能对第三人造成的人身或财产损害,不包括人工智能、监管人所受损害。监管人系初始投保人,自付保险费。人工智能拥有财产,监管人可以其财产代为投保。人工智能是被保险人。一旦人工智能侵权,导致第三人人身伤亡或财产损失,保险人应予以赔偿,该不特定第三人乃受益人。鉴于人工智能致害风险高,赔付责任大,可考虑由政府出资补贴保险公司;或者由从业的全体保险公司联合共保,旨在于保险人之间分散风险。人工智能具有不可预见性、不可解释性及失控风险,人工智能责任强制保险金额应高于当下强制险金额。如针对自动驾驶汽车路测,美国《联邦自动驾驶汽车政策》要求提供不低于500万美元的保险、自保或保证。《北京市关于加快推进自动驾驶车辆道路测试有关工作的指导意见(试行)》规定,测试主体应提供每车不低于500万人民币的交通事故责任保险或赔偿保函。人工智能责任强制险实行大额保险,有利于缓解民众忧虑,增加公众安全感与信心,加速人工智能部署与利用。
人工智能责任强制险保险金额大,会推高成本,影响推广普及,应有所平衡。对此,有必要分别针对营利型与非营利型人工智能设定差异化的保险费率、保险金额。首先,营利型人工智能用于商业目的,使用频次高,致害风险大,损害后果严重,且不特定受害人与监管人彼此陌生,应配之以高额保险、较高费率。非营利型保险金额及费率应低于营利型。其次,综合致害风险概率、平均损害后果及赔偿数额、其他可用补偿资金等确定责任强制保险金额。如自动驾驶汽车经测试或运行,可根据事故发生率、车均伤亡数量、车均赔偿金额、责任基金可补偿额、保险人成本及利润率等,测算保险基本金额及费率。最后,从成本分担角度,人工智能利益相关者皆应承担损害。即使是受害人,若跳出微观的单一侵权关系,宏观上亦属技术进步受益者,终须承担损害无法全部填补的风险。强制保险制度不在于令受害人获得全额赔偿,毕竟是社会分担风险,成本终由全体使用者、受益者承担。
2.责任基金
设立人工智能侵权社会救助基金。鉴于人工智能致害风险的严重性及受益者的普遍性,须衡平各方利益,实现社会公平正义;强制保险仅提供基本保障;人工智能自有财产数量不定,有时无法填补受害人损失;基于侵权损害赔偿诉讼期漫长、支付不及时等,有必要设立人工智能侵权社会救助基金。该基金可参照交通事故社会救助基金,采取政府基金形式而非信托式基金形式。原因在于,信托式基金以人工智能制造商、运营商等为委托人,以基金为受托人,以受害人为受益人。而人工智能遍布各行各域,信托方式统合难度大,覆盖面有限,运行管理不易。政府基金依托政府,在现阶段优势突出。
社会救助基金的资金来源主要有:其一,制造商按销售收入的一定比例缴纳救助基金。制造商无论是否为监管人,作为人工智能的直接利害关系者,应对潜在风险及现实损害承担一定责任。其二,人工智能第三者责任强制险的保费收入。借鉴交强险保费拨付交通事故社会救助基金,从保费收入中划出部分作为救助资金,发挥风险分担作用,补充强制险。其三,政府财政补贴或拨款。为推动产业发展,衡平多方利益,可考虑从与人工智能相关的行业税收、保险税收中拿出一定比例的资金,以补贴方式纳入救助基金。或者在政府预算中编制相应科目,每年拨付一定款项给救助基金。其四,对未及时投保之监管人的罚款、基金孳息、社会捐款与募资等,亦属社会救助基金来源,应允许救助基金如社保基金般,采取保值增值的投资行为。尚需建构系统完善的社会救助基金管理机制,明确基金管理机构、实施机构及职责,明晰救助条件及范围,理清基金申请流程、审批程序等。
设立人工智能责任基金。人工智能主体设立时,均需设置基本责任基金,由监管人首先缴纳。主管机关可以是人工智能主体登记机关,但为防免多头治理效率低下,也可由社会救助基金管理机构统一管理。基本责任基金数额应综合人工智能机器主体能力、安全水平评估报告记载的人工智能智慧水平、行动能力、活动领域、潜在风险、可能损害等来确定。对于营利型人工智能,除了基本责任基金,可考虑令监管人每年将其从该人工智能处所得收益的一定比例拨备为补充责任基金,强化人工智能责任能力。为减轻监管人负担,可依据损害发生概率、实际损害大小、其他赔偿或补偿财产数额等,确定责任基金上限。由此,非营利型人工智能仅缴纳基本责任基金,营利型人工智能须设置基本责任基金与补充责任基金。人工智能责任基金由监管人缴纳,监管人处分其人工智能权益份额时,对应的责任基金附随之。人工智能终止时,剩余责任基金可退还监管人。
总之,人工智能以自有财产承担侵权责任,同时辅之以强制责任保险或商业保险,以及人工智能责任基金、社会救助基金,采用个体法律救济与社会救济相结合的方式,力图全面覆盖人工智能侵权损害。这些财产共同构成人工智能侵权损害填补的责任财产来源,是人工智能主体的财产基础。
四、人工智能侵权责任的具体承担
人工智能致害所产生的侵权责任,首先应由人工智能主体以责任财产承担。人工智能主体担责具有特定的法律含义,属于自担客观责任。而人工智能监管人、开发者、制造商、用户、受害人甚至第三方行为在特定情形符合可归责事由,应承担一定责任。
(一)人工智能主体自担客观责任
从人际及人机等社会关系、行为外观和他者视角而言,人工智能的道德责任能力获认,人工智能对其侵权行为自行担责,但毕竟不同于伦理色彩浓厚的自然人主体,其承担侵权责任具有自身独特的法律内涵。
传统民法理论中,法律主体担责需有侵权责任能力,而侵权责任能力的确定应区分自然人与法人。自然人“责任能力乃对于侵权行为在法律上能负损害赔偿责任的能力。责任能力以意思能力为基础”。有意思能力,才有责任能力。认定侵权责任时,须考量侵权人主观状态,一般需有过错,即过错责任。自然人侵权责任能力成为承担过错责任的前提,无责任能力则无须承担过错责任,故侵权责任能力也是过错能力。而法人的侵权责任能力通常归入不法行为能力或侵权行为能力。由于法人依赖机关运作,故法人侵权行为即法人机关实施的侵权行为。在构成要件上,除了符合侵权行为的一般要件外,侵权人必须是法人的法定代表人或其他有代表权者或工作人员;侵权行为发生在执行职务时。
可见,自然人侵权责任能力根植于人的主观精神能力,而法人侵权责任能力仅就其机关或员工职务行为为断,最终依据自然人精神能力判定。目前,人工智能不具备自然人的精神能力,承认其道德责任能力也是从社会关系判断、他者视角论证的结果,人们期待人工智能自担责任。以基于精神力的“过错”作为人工智能侵权责任主观要件显然不适宜,根本原因在于人工智能主体的心灵、意识、意向性缺失。同时,为周全保护受害人,由人工智能一并担责,不论主观过错。该责任是一种客观责任、严格责任。
人工智能嵌入社会结构带来系统变革,在侵权责任法领域的突出表现,除了过错责任让位于客观责任、严格责任之外,人工智能担责的功能主要不在于预防,而是损害填补,通过风险及责任分配,衡平各方利益,协调技术产业发展与社会安全。人工智能、大数据、区块链、云计算等新技术广泛融合运用,社会风险急剧放大,损害的因果关系由相当性、经验性演变为相关性、技术性。算法黑箱或瑕疵、数据不完备等导致传统线性因果关系断裂,人工智能致害的终极因素或责任主体不易确定。细究起来,智能时代损害的发生源于多重因素聚合、多方行为加总,甚至单一因素、变量或单一主体行为无害,主体间并无意思联络。人工智能损害非单一主体能够解决,法律难以彻底克服,只归咎于任何一方皆不公允,此时需要相关主体、社会大众在享受技术益处之余,分担此类风险。故人工智能侵权责任承担,应体现新技术演进中责任连带性剧增的趋势。
责任配置时,首先是人工智能主体自担,该责任属自己责任、独立责任,而非代理人责任等。学界谈及人工智能侵权责任时,常把人工智能视作工具,系自然人或法人的意思装置,无自主意思;也有主张把人工智能视为“代理人”,受自然人或法人委托,实施代理行为,行为后果归属于自然人或法人。但若置于主体视域,人工智能作为一种新型主体,具有独立的法律地位,应自担责任。人工智能侵权,除了自担责任,相对人是否担责、承担何种责任需立足二者关系具体判定。可能是基于和本人的代理关系而生的代理人责任,也可能是与雇主或用工单位的雇佣或劳动关系而生的法律责任,或存在于其他债法关系中的责任。
此外,以人工智能主体为连接点,各方担负相应责任,侵权责任分担愈加多元化、社会化。当下,以保险、责任基金等方式分散风险的举措必然广泛应用,并处于主流地位。人工智能侵权责任由多方主体承担,涉及各利害攸关者;责任承担方式多样化,包括侵权损害赔偿、责任保险、责任基金等。这已超越传统侵权法范畴,需要多元视角,聚焦多方主体的多样责任。
(二)与人工智能关系多元的监管人责任
在人工智能设立、存续、清算等不同阶段,监管人功用不同,与人工智能关系有别。虽然设立中的人工智能尚未取得法律主体资格,但可以期待,已非纯粹的产品或工具。清算时,作为清算义务人的监管人须代表人工智能实施清算行为。监管人与设立或清算中的人工智能关系须特别关注。
设立时,申请人如从事与设立相关的事务,可以人工智能名义对外实施法律行为,行为后果由成立后的人工智能或全体监管人承担。当然,申请人也可以自己名义实施行为。此一阶段,申请人为人工智能设立之目的,代表人工智能。设立完成后,人工智能主体应承担设立行为后果。清算时,人工智能能力受限,仅得以清算为中心开展活动。此时,监管人作为清算义务人,代表人工智能行使权利、履行义务、参加诉讼、清理人工智能储存的他人数据信息等,直至最终完成人工智能注销登记。概言之,监管人可代表设立或清算中的人工智能,但受限于设立或清算目的,权利义务范围特定有限。
在存续期间,监管人与人工智能关系复杂多样,要者有四。
其一,监督管理。此乃监管人与人工智能关系的核心。监管人辅助人工智能运行,具体包括但不限于:①维持人工智能正常运行状态。做好人工智能日常维护;监测人工智能运行情况,发现功能异常或接到故障提示、报警,及时维修或报修,排除故障前停止人工智能运行;及时升级人工智能安全装置,降低潜在安全风险。②选择运行场景。单一任务型人工智能仅可用于特定场景。复合任务型人工智能适宜多场景,但不得超越其功能限制。通用型人工智能可执行多用途、多目的任务,此时监管人须选择安全应用场景,而非任由人工智能置身危境。考量因素包括人工智能自身能力、场景风险因素、人工智能与场景匹配度、潜在损害后果等。若能力不及、风险高、损害大,则不宜令人工智能运行于该场景。③代为主张权利,履行义务。人工智能非完全自主,需要监管人辅助。当权利受损时,由监管人代为主张权利;义务无法自动化、智能化履行,则由监管人人工操作,代为履行。监管人代为行权担义的范围根据人工智能智慧水平、交易模式、支付方式智能化程度等厘定。④代为参加诉讼。人工智能成为诉讼当事人,需要监管人作为代理人参加诉讼,提出诉讼请求或发表法律意见,为人工智能利益开展诉讼活动。因监管人与诉讼后果具有重大利害关系,监管人作为代理人之权限当无特别限定,如和解、撤诉、上诉等均可。
其二,收益分享。按照人工智能运行是否具有营利性,可区分营利型和非营利型人工智能。前者旨在分配取得的利润,后者有利润亦不分配。两类人工智能的使用频率、自身损耗、风险概率等有别,营利型通常高于非营利型,对前者的监管义务更重。但营利型赚取利润,与监管人分享,弥补后者付出的成本、承担的义务。以自动驾驶汽车为例,如监管人及其家人乘用,则为非营利,监管人利益在于自用。如出行平台作为监管人,自动驾驶汽车运营收益,应基于人工智能和监管人关系,分配利益。人工智能份额由监管人存入人工智能银行专户,或基于区块链智能合约自动把收入中的人工智能部分存入区块链账户,构成人工智能自有财产。
其三,劳动雇佣。监管人使用人工智能的方式多元,二者法律关系颇为多样,劳动雇佣最常见。如出行平台作为监管人的自动驾驶汽车,连接出行软件,客户下单则按指示前往上客地点,载客至目的地,收取费用。此时,自动驾驶汽车类以出行平台的“驾驶员”,二者系劳动关系,平台是用工单位,自动驾驶汽车是劳动者。人工智能为监管人家用如家庭机器人,犹如雇佣的保姆,但人工智能劳动乃家务劳动,监管人并不支付报酬,人工智能地位介于雇工与家庭成员之间,二者不构成劳动关系。劳动关系多发生于营利型人工智能。营利与非营利情形下,监管人持有人工智能的目的迥异,人工智能使用频率与风险发生率正相关,且对自然人劳动力替代程度或对劳动力市场影响不同,可在税收方面实行差别待遇,予以调节。构成劳动关系时,应课税于用工单位,如“机器人税”,为就业受人工智能排挤者提供保障。具体税率视行业状况、宏观税负、劳动力市场状况、社会经济发展、国家间竞争等而定。
人工智能劳动在理论上应无时间限制,但不绝对。人工智能尤其是软件硬件结合者,受制于硬件的物理性能,不宜超长时间运转,应适当限制。至于间歇运行的人工智能,在性能得以保障、风险未显著增加的前提下,倒也不宜规定具体时长,强化监管人义务即可。至于白天或夜晚,若无碍人工智能安全运行,无须特别限定。再者,人工智能运行环境影响安全性。应按照人工智能运行条件,提供相应的劳动环境及劳动保护,即使对于全天候多用途人工智能,不可任意置其于恶劣、致害风险剧增的环境。监管人没有适当选择人工智能运行环境,违反监管义务,须承担相应法律责任。
其四,互为代理。监管人为履行监管义务,许多情形下皆需人工智能名义,故在法律上应承认监管人系人工智能法定代理人。若监管人为多人,则执行监管人系法定代理人。监管人作为代理人,应为人工智能利益实施代理行为。在权限方面,人工智能意思能力不备,监管人无须特别授权,法律应赋予宽泛的权限,但自己代理、双方代理应无适用余地。如何避免监管人滥用代理人地位或人工智能主体地位,逃避法律责任呢?此时须明晰监管人法定代理责任框架,令监管人承担平等对待、忠实勤勉、公平交易等义务,否则代理行为可能无效或负担不利法律后果。监管人滥用人工智能独立主体地位,实施不正当行为的,可揭开人工智能主体面纱,由监管人直接承担无限责任。
此外,人工智能可作为监管人的代理人。一种流行观点把人工智能视为所有者的代理人,按本人即所有者的意思运行,后果由本人承担。人工智能主体设立完成,如基于ChatGPT的私人助理,即使遵循蕴含所有者意愿之既定算法程序,但已独立于所有者,且深度学习等算法令其不可预见性剧增,非所有者意思能够包,应承认人工智能自己意思。人工智能代理监管人,行为后果由监管人承担。例如,家庭机器人与冰箱互联,监管人可预设条件,如蔬菜、水果等物品的种类、数量、价格等。冰箱缺货或物品达到最低量,将触发人工智能自主在线下单,订购物品。此时,人工智能获得监管人授权:冰箱中的物品不足,可在特定价格范围内自行订购一定数量的物品。至于是直接代理或间接代理,视人工智能以自己名义或以监管人名义下单,前者系间接代理,后者乃直接代理。另外,人工智能行为符合表见代理,亦应认定。
总之,监管人与人工智能的法律关系多元。当人工智能基于和监管人的代理等法律关系实施一定行为而侵权时,或人工智能直接侵害第三方时,应当根据具体法律关系、监管义务履行情况等判定:人工智能自担法律责任,或需监管人承担补充责任、连带责任等。
(三)人工智能相关方的责任
人工智能主体侵权可区分本体原因和外部原因,前者如人工智能内在瑕疵或安全隐患,后者如受害人过错行为、黑客侵入操控等。根据可归责之主体,细分人工智能开发者或制造商、用户、受害人、第三方等多方责任承担者。
其一,人工智能开发者或制造商。当开发设计存在缺陷,或者制造存在质量瑕疵,导致人工智能主体隐藏安全风险,可能产生特定场景下爆发、算法程序紊乱、系统升级错误的状况,进而实施侵权行为。对此,应首先进行现有技术评估,确认开发设计或制造瑕疵是否存在主观过错。依据现行技术,问题无可避免,不可归责于开发者或制造商,则无须承担侵权损害赔偿责任,但为公平计,可考虑在获利范围内分担损失。若人工智能投入使用后,发现缺陷,应及时采取修补、召回等补救措施,否则对扩大的损害应承担侵权责任。为周全保护受害人,开发者或制造商有过错,需与人工智能主体甚至监管人承担连带责任,就超出部分可向其他责任方追偿。明知有缺陷仍然开发、制造,造成死亡或健康严重损害,受害人可主张惩罚性赔偿。若开发者或制造商属于监管人,则按上述监管人责任处理。
其二,人工智能用户。人工智能侵权风险与各环节主体均有干系,包括貌似中立的使用者。用户可以在日常使用中潜移默化地影响高度自动驾驶汽车的性能,后者的表现一定程度上是用户“调教”的结果。用户行为与人工智能侵权存在相当因果关系,且有过错,可按共同侵权处理。若用户故意诱导或帮助人工智能侵权,因后者能力尚弱,可参照《民法典》第1169条,教唆帮助限制民事行为能力人实施侵权行为的,应当承担侵权责任。该责任系独立责任。监管人未尽监管职责的,承担相应的责任。此外,用户乘人工智能之弱,利用人工智能独立主体资格,令其工具化、形骸化,可借鉴“刺破公司面纱”理论的归责原则确定责任主体,由用户承担全部侵权责任。
其三,受害人。在人工智能运行过程中,受害人故意令人工智能侵害自己,人工智能不承担责任;人工智能由此受损的,受害人需对人工智能担责。如果受害人,包括人工智能用户,存在过失,虽然可以按照与有过失减轻人工智能的法律责任,但鉴于人工智能应安全可靠、用户技术认知与操作水平有限等,可把受害人过失限定于重大过失,仅此才减轻人工智能责任。受害人轻过失,仍由人工智能承担全部责任,这也是人工智能自担客观责任的应有之义。当然,亦可区分受害人是否系人工智能用户,非用户受害人仍适用与有过失,用户受害人则限定过失程度,以鼓励人们广泛利用人工智能。
其四,第三方。第三方行为叠加人工智能行为产生侵害后果,需要结合具体侵权场景判定责任归属。第三方直接作用于受害人,如把受害人推倒在机动车道,自动驾驶汽车将其撞伤。此时,无可归责事由,人工智能不承担责任;有可归责事由,如未识别出道路上的受害人并及时刹车,则承担相应的补充责任。第三方与人工智能分别实施侵权行为造成同一损害的,可结合《民法典》侵权责任编有关规定,由其承担连带责任或平均承担责任。第三方如黑客入侵控制人工智能,实施侵权行为,表明人工智能存在安全漏洞,不可靠,应令第三方与人工智能对受害人承担连带责任,之后人工智能可向第三方追偿。此举有利于周全保护受害人,尤其当第三方无法查明时。
结语
当下,人工智能的能力愈发凸显,从社会关系结构及他者视角作为主体的道德基础深厚,有关制度实践不断拓展。然而,人工智能主体智慧水平尚低,在内部应设置监管人,弥补人工智能能力不备。在财产方面,人工智能可通过劳动、受赠等方式取得自有财产。基于人工智能侵权责任强制险或商业险可得之保险金、责任金、社会救助基金等,虽然不直接为人工智能所有,但亦属人工智能侵权损害填补的财产来源,乃“准责任财产”。它们共同构成人工智能主体的责任财产。人工智能侵权,首先由人工智能主体自担客观责任。监管人与人工智能存在监督管理、收益分享、劳动雇佣、互为代理等多元关系,基于二者关系,监管人对人工智能承担一定责任。至于人工智能开发者或制造商、用户、受害人、第三方等,如果对侵权行为具有原因力,则应根据可归责事由,辨析确定责任主体、责任形态等。
《地方立法研究》2023年第3期目录与摘要
娄耀雄:疑难案件和人工智能裁决
《地方立法研究》投稿网站:https://dflf.cbpt.cnki.net/