查看原文
其他

2019年第9期丨人工智能时代机器人权利及其风险规制

上海高院研究室 中国上海司法智库 2019-08-27
 

欢迎光临  决策参考  栏目

本栏目将通过大数据分析、调研课题及前沿学术问题研究等理论成果,服务于公共管理、社会治理、科学立法、民主决策。


编者按

2017年7月20日,我国政府发布了国家人工智能战略《新一代人工智能发展规划》,明确提出到2030年,我国人工智能理论、技术与应用总体达到世界领先水平,实现成为世界主要人工智能创新中心的战略发展目标。新规划在对人工智能理论、技术和应用作出前瞻布局的同时,还呼吁加强人工智能相关法律、伦理和社会问题研究,建立人工智能法律法规、伦理规范和政策体系。虽然此前国内部分学者针对人工智能技术应用中涉及的法律问题做过一些研究,但是不论从深度还是广度上看,均难以应对此项技术的迅猛发展带来的法律需求。本文立足社会应用现实和我国现行法律制度,结合技术发展趋势,借鉴前人研究的经验,针对人工智能技术在社会应用中已发生或可能发生的法律问题进行研究。

课题主持人简介

席建林    现任上海市闵行区人民法院院长、高级法官,兼职担任上海市法学会诉讼法学研究会副会长、上海市法学会财富管理法治研究中心副主任。学术研究专注于民事诉讼法方向,重点研究证据制度,近年来先后在《人民法院报》、《政治与法律》、《法律适用》等十余种法学刊物上公开发表论文六十余篇,多篇文章在全国法院系统学术讨论会及相关学术研讨会上获一、二等奖。主持并完成多项最高人民法院、上海高院重大调研课题项目,合著有《诉讼法的理念与运作》、《房地产法释义》等著作。

课题组成员:

顾飞    上海市虹口区人民法院商事审判庭法官

余聪    上海市虹口区人民法院审判监督庭司法行政人员

王梦熊    上海市虹口区人民法院民事审判庭法官助理


人工智能时代机器人权利及其风险规制


为网络发布方便之宜,已删除脚注


↓↓收听语音版请点击播放↓↓

语音版


一、人工智能时代机器人权利的

内涵及其限制

智能机器人是人工智能运用的一种表现形式和有效载体。本文倾向于采纳《人工智能与法律的对话》一书中对机器人的定义,即“一种显示生理和心理组织但在生物意义上不存在的结构化系统”,且该定义排除了现实世界中不运用任何组织的、完全基于软件的人工智能。现行体系下,人工智能机器人是否具有法律人格并不明晰,造成现实的适用困境。本文认为人工智能机器人具有独立思考的能力是与其他科技最大的区别,但人工智能仍作为工具存在,应仅具有有限的法律人格,具有有限的权利义务。

(一)权利属性:拟制性、利他性、功能性

1.拟制性:因机器人不同于生物学意义上的“人”,且在机器人社会化应用尚未真正实现之前,仍附带较强的工具性价值,立法上很难借助“人生而平等”“天赋人权”等自然法理念来保证机器人权利的正当性,因此“法律拟制”将是解决机器人权利来源的技术性措施,机器人作为特殊的法律构造,允许类推适用法人登记制度而创设机器人登记簿。此外,为了避免未来社会权利拟制所可能带来的机器人权利的迅速扩张,法律仅允许机器人权利的必要拟制、有益拟制。

2.利他性:从人工智能的发展过程来看,机器人的功能在于帮助人类更好的工作、生活,其工具性价值决定了机器人的天然利他特性,且受到人为编程、算法的影响,机器人本身很难产生利己主义的指令和行为。随着更多的人参与到机器人的互动中来,机器人的利他主义行为从小范围、低频率的合作关系上升为特定的法律关系。因此,机器人的利他权利属性既是人类应自身发展需求而赋予机器人的拟制权利,同时也是机器人利他功能的法律表征。

3.功能性:虽然机器人在运算能力上能够承载多种功能,但功能分化所带来的专业化优势远比全能型机器人更具市场竞争力,机器人的研发和应用分别朝向不同的行业、领域,例如医疗机器人、自动驾驶机器人、新闻撰写机器人、机器人管家等,这不仅是应对社会化生产的需要,也是机器人研发的必然趋势。机器人的功能差异不仅分化出不同形态的机器人,也造就了机器人权利的功能化属性,法律在赋予机器人权利过程中,必须考虑到机器人的具体功能,并据此实行有差别的权利拟制与保护机制。

(二)权利内容:基本生存权利及其衍生的知识产权

1.保障机器人生存的基本权利

其一,得到尊重对待的权利。得到尊重对待是一种道德权利,与法律权利相比,道德权利不是由法律规定的,更多地依赖于道德主体的道德水平。机器人应该得到尊重是消极的道德权利,也就是不被伤害或错误利用的权利,具体包括不可以奴役机器人、不可以虐待机器人、不可以滥用机器人,这也是一种最低限度的机器人权利概念。

其二,数据共享的权利与数据专有的权利。机器人的社会化应用在很大程度上依赖于大数据、决策技术和算法的交互应用,且“数据共享”是未来发展的主要趋势,故机器人的首要基本权利应当是保障机器人功能实现的数据共享权利。法律应一方面建立明确的数据保密等级与公开等级,另一方面积极推动各类数据资源的社会共享,肯定机器人的数据共享权利。此外,机器人的特有数据、专有数据因较强地保留了机器人的个体差异,因此认可个体数据的专有权利既是对机器人独特身份的保护,也是机器人分化出其他人身权和财产权的基础。

其三,获得法律救济的权利等。“无权利则无救济”,在缺乏法律救济权的情况下,任何侵犯机器人权利的行为都难以受到应有的惩罚,而稳定的惩罚机制是决定一条法律规则是否真正存在的主要依据。完整的权利保障机制包括实体权利和获得法律救济的权利,在私权领域,救济权可以转化为机器人及其所有人要求侵权人停止侵权、恢复原状、赔偿损失的权利,在公权领域,救济权则表现为机器人要求国家纠正或减轻侵权后果的权利。

2.机器人创作物的知识产权保护

本文认为,对于机器人创作物是否属于作品的认定,不应该只专注于作品本身的定义以及著作权法的相关规定上,而是应通过认证作品的本质属性和著作权法的立法精神来支持其机器人创作物的权利,也要从法哲学原理和原则为出发点,根据人工智能的特征和法律的发展方向来判断机器人创作物的归属问题。

首先,如果不赋予智能机器人创作物以可作品性,就意味着对于智能机器人的创作物,任何人都可以随意使用,这对于人工智能产业的发展以及更多新作品的产生必将产生消极作用。其次,如何认定智能机器人创作物以及对其加以知识产权保护,本文倾向于“二元系统”。该系统包含两条规则,第一条,如果人工智能的创作仰赖人类的介入,或当一个人工智能产品依赖于人类互动来创造新的内容或发明时,人类使用者就是作者或发明者,并与其在没有人工智能帮助的情况下创造了该内容或发明享受相同的知识产权保护;第二条,除了开关以外,机器人无需进一步的人类介入即开始创作,则机器人是作者或发明者,但是机器人作为创作者享有为期10年的著作权或专利权,过期后进入公域。上述两条规则,第一条旨在鼓励人类继续通过人工智能的帮助进行创作,承认在此种情况下人类依然为最终产品贡献了“独创性”,并以传统的著作权来保护人类作者;第二条旨在鼓励人类继续开发可以持久且自动地创作新内容的智能机器人,同时通过将这类创作以远远快于纯粹由人类创作作品的速度进入公域,最大程度使大众受惠。该“二元系统”将“通过人工智能创造的”与“由人工智能创造的”作品的权利予以分配,易于操作,也可以促进科学和实用技艺的进步。

(三)权利边界:“法律保留”下的限制性权利

提倡与限制机器人的权利应该是机器人权利研究的一体两翼,而且应该体现在机器人的伦理设计之中。从立法技术角度来看,“法律保留”虽不能明确机器人权利的具体内容,却能够在限定机器人权利边界上带来更好的效果,具体如下:

一是政治权利的法律保留。政治权利是“公民依法享有参与国家政治生活,管理国家以及在政治上表达个人简介和意见的权利”,关乎国家政治生活、政体以及治理形式等重大政治问题。因此,无论机器人如何影响我国的社会经济文化发展,法律都不能赋予机器人政治权利。二是自我复制权利的法律保留。机器人的自我复制,是指机器人非依据研发者和生产者的指令,自主生产人工智能产品的活动。目前,由于3D打印技术日渐成熟,机器人的自我复制会扰乱我国机器人市场秩序,降低机器人资源的社会配置效率,有悖于人类社会的发展规律,危及社会稳定与国家安全。三是紧急避险权的法律保留。紧急避险的内在逻辑是“两害相权取其轻”。对于机器人而言,当我国公民、社会组织或者国家的财产遭受损害危险时,机器人或许能够通过“两害相权”来规避其自身损害(专门的救援型机器人除外),但在公民人身正在遭遇危险的情况下,机器人的价值无法同人的生命健康价值相权衡。为此,对于涉及公民人身安全的危险活动,机器人不因功能差异而享有紧急避险权。

二、人工智能时代机器人风险特点

及现有规制路径

(一)人工智能时代风险特点之多维度解读

1.技术与制度风险的共生性

人工智能既是人类文明,亦有社会风险。它或是技术本身所带来的风险,也可能来自法律规则、科技政策等制度风险,共生性特点表现为技术性风险和制度性风险的共生。人工智能技术具有技术风险最明显的特征不确定性。“人正面临着一股自己根本无法控制的力量,与这股力量相比,人只是一粒尘埃罢了。”这即是人类面临的技术风险困境。制度风险方面,由于现行法律体系下缺乏对人工智能行业发展的法律指引,具体的制度规制亟待明晰,这些规则的缺失或者运转失灵都会引发制度性风险。

2.现实与潜在风险的共融性

人工智能发展已进入新阶段,科技的进步已经从“互联网+”向“人工智能+”转变。发展至今,已经带来一系列法律问题,例如欧洲议会之“电子人决议”,以便实现最先进的自动化机器人同人类一样的纳税缴费等民事活动,又如无人驾驶汽车,特斯拉公司无人驾驶汽车造成的全球第一宗致人死亡车祸事件,这无疑是对现有民法体系和刑事法律的挑战。发展过程中,技术的快速更新过程中会不断出现新的挑战,但是经验知识为基础的人类对这种潜在、隐蔽的危险毫不知情。因此,在人工智能道路的强劲迈步中,应以长远的眼光看待问题,兼具现实与未来忧患。

3.地域与时空风险的共通性

经济全球化、科技全球化、信息全球化不可避免地带来风险的全球性。2016年,联合国作为全球最重要的国际组织在发布的《人工智能政策报告》中,表达出国际应对方面对人工智能的关注,呼吁世界各国加强人工智能领域的技术研究和开发合作,针对人工智能技术发展带来的各种问题,共同寻求全新的思考方式与解决路径。另外从时间向度来说,人工智能风险是社会历史性的存在,风险对人类的影响无法完全用自然科学数据标准进行评定,从现存状况来看也许只影响一代人的生存,但事实上可能危害几代人。因此,面对人工智能革命,我们不能否定它、逃避它和阻止它,应在更加广泛地范围内展开讨论。

(二)人工智能机器人风险规制路径之伦理规范

1.人工智能机器人应用中引发的伦理问题

一般认为,人工智能机器人伦理是约束机器人研发者或研发机构科研活动的伦理规范,其实质是保障人类利益,促进人类社会的健康、有序发展。人工智能的发展极大提高了人工智能机器人在生活中应用的广泛程度,传统上机器人仅作为技术工具,但是陪护型机器人、宠物型机器人的出现不断冲击现有的社会理念、伦理机制,对社会环境和秩序产生影响。2004年,第一届机器人伦理国际讨论会在意大利举行,该次会议是首次集聚了多个领域专家来讨论机器人伦理问题的讨论会之一。在随后的日本国际机器人博览会,来自日本的机器人专家和业界代表签署了机器人版的“希波克拉底誓言”世界机器人宣言,以便更好地促进机器人在社会中的接受度。因此,如何在技术进步的同时提高社会整体的伦理标准,规范人工智能机器人伦理,进而完善相应的法律规范,促进整体社会道德水平的提升,维护社会的和谐稳定发展,成为我们不得不考虑的另一个问题。

2.人工智能机器人伦理规范与相关法律规范之间的关系

在发达国家,对人工智能的伦理研究早于立法研究,如欧洲机器人研究网络( EURON) 发布《机器人伦理学路线图》,韩国工商能源部颁布《机器人伦理宪章》,日本组织专家团队起草《下一代机器人安全问题指引方针》,美国国家科学基金会和美国航天局设立专项基金对“机器人伦理学”进行研究。此外,一些行业组织、公司企业也在伦理规范方面强化人工智能专家的专业责任。例如日本人工智能学会内部设置了伦理委员会,谷歌设立了“人工智能研究伦理委员会”,旨在强调科研人员的社会责任,并对合理研发人工智能提供指导。概言之,伦理规范的调整功能非常独到且甚为重要,例如,对智能机器人预设道德准则,为人工智能产品本身进行伦理指引;规定人工智能技术研发及应用的道德标准,对科研人员进行伦理约束。上述伦理规范为后续法治建设提供了重要法源,即在一定时候,伦理规范亦可转化为法律规范,实现道德的法律化。反之,机器人法律规范的制定也能在一定程度上弥补机器人伦理规范的部分缺陷,两者的衔接与沟通才是我国规制人工智能机器人权利风险的最佳模式,将极大提升机器人研发、审查、应用的规范性。

(三)人工智能机器人风险规制路径之社会监管

1.公权力主体:推行人工智能保险与人工智能储备基金

人工智能机器人的逐渐普及,数据网络平民化时代中,任何人都可能成为人工智能风险的制造者,传统的监管方式无法全面适用于人工智能的风险规制。因此,有必要以公权力主体倡导并推行人工智能保险与人工智能储备基金采取强制保险制度。由公权力主导的保险机制以较小的经济付出,获得保险共担风险的机会。此举既能够给受害人提供弥补措施,也不会打击消费者购买人工智能或制造商生产人工智能产品的积极性。该项制度可以作为智能机器人相关法律规范的配套措施,直接促进人工智能行业的良性发展。

2.社会主体:确保从业者主体责任与社会责任的两元统合

对于人工智能行业来说,从业者的主体责任可以说是内部责任,是该行业从业人员遵守法律、法规及相关的标准,为确保生产设施设备、员工、环境等利益相关者的安全而应尽责任的总称。具体包括两个方面的责任:一是经济责任。行业主体从事该行业的主要目的就是追求经济利益,通过人工智能产业活动创造价值而获取利润,同时也是该行业存在的社会功能。二是法律责任。虽然现行法律对机器人无明确规定,但是人工智能发展过程中涉及的其他法律如《产品质量法》、《标准化法》等仍是需要遵循的制度要求。此外,人工智能行业的主体应该更加重视企业的社会责任。所谓企业社会责任,乃指企业在谋求股东利益最大化之外所负有的维护和增进社会利益的义务。企业社会责任是企业对非股东利益相关者的一种积极责任,是融合了法律义务和道德义务、正式制度安排和非正式制度安排的统一体,是对传统的追求股东利益最大化原则的补充和修正。具体内容包括对雇员、消费者、环境资源、社区经济发展、公益事业和社会福利等内容的责任。

3.私权利主体:强化使用者安全教育

现阶段,人工智能产品带来的便捷性已经远远超过人们对其安全性的关注程度,相关的社会宣传也极少提到,但是事物的发展往往都具有两面性。科技进步的同时应加强对公众的安全教育引导,这种教育引导,首先是商家层面的,消费者会受到商家宣传的影响而对其产品的安全性进行评判,商家有义务在消费者接受宣传或者进行体验的过程中对其进行产品安全性的介绍与提醒;其次是消费者本身层面的,消费者需要提高对人工智能产品安全性的警惕,做好产品安全性的差异对比并根据自身的需求情况做好评估;最后是管理层面的,政府机构或者人工智能的行业协会等管理层面应该做好评估并及时向社会公布。同时还要以暗访、抽检的方式对商家服务人员的宣传情况和实际出售人工智能产品的质量及安全性情况进行检查,尽可能规范人工智能产品商家的行为,对社会大众的负责。

三、人工智能时代机器人风险

法律规制的前端思考

(一)法律规制的坚持原则

1.坚持适度原则。要科学预见人工智能可能带来的风险,树立正确的风险观和制度观,要通过法律的有效规制保证人工智能在良好有序的秩序下发展。同时要学会积极运用法律,对人工智能的规范应当适度,不要因噎废食,要在趋利避害的同时营造更好的创新文化。

2.尽可能全面规制。对于机器人需要用从研发阶段就开始实施合理、科学的监管和规制,实现全流程监管。譬如现在对于大数据的运用,任何人工智能要进入到大数据的收集和使用平台,都应该至少要保证“出发点是纯良的”。而等到智能机器人进入制造阶段以及使用阶段,则更应该有配套的法律条文对其行为进行规制。

3.立法前提是了解人工智能的科学规律。人工智能机器人本身就是集科学、工程等一系列先进技术成果为一体的产物,而鉴于大部分普通人类对人工智能机器人的制造方法、应用原理本身还存在着许多问题,更遑论对于人工智能的立法我们还处于准备、探索阶段。因此我们需要不断对人工智能所涉领域可能或者已经发生的问题进行分析,追根溯源以明确人工智能法律主体及相关权利、义务和责任。

(二)法律规制的价值导向

1.安全是人工智能时代的核心法价值。安全价值是对整个社会秩序稳定的维护,民法通过侵权法来保护交易安全和财产安全,刑法通过刑事责任实现社会秩序安全。同样的对于人工智能风险规制的安全规范也是我们在设计相关法律制度时需考量的核心问题,因为一旦将来某一天机器人自我意识崛起,高度自主、独立判断且不受人类直接控制的人工智能机器人甚至可能威胁人类的生存。

2.创新是人工智能法律的价值灵魂。特定的时代背景下,特定的法律制度会包含若干不同的价值取向,当代经济的发展是知识经济的发展,而创新又是知识经济的主要特征。人工智能的发展又是创新的必然结果,因此我们要时刻牢记创新这一价值,将其运用到政策制定与立法活动中。

第三,和谐是人工智能时代的终极价值追求。所谓和谐发展,是一种配合适当、协调有序的理想动态,这是一种涵盖内外延的目标系统,我们一直所追求的就是人的和谐、社会的和谐、自然的和谐,以及人与社会、自然的和平共存与进步。和谐价值在人工智能的发展过程中具有不可忽视的引导性功能。对于人工智能的研发是人类在探寻与社会、自然和平共存与进步中所进行的手段选择,要实现人类社会的和谐稳定离不开人工智能社会的良性健康和有序。

(三)人工智能机器人的归责要点

在机器人没有出现之前,法学界的研究与讨论大都围绕着“人”这一主体展开,在人工智能时代,当我们给予人工智能以有限的法律人格,将其类人化时,对于其的法律规制,则应综合考虑人与机器人之间的关系,并以此确立相应的归责要点。

1.豁免事项应作为事前情况首先确立。为确保个人交往中的公平竞争,使之免遭因他人的任意行为所带来的伤害,民法上规定了有条件的豁免,即“法律不强求不可能之事”。而刑法上传统的“法无禁止即自由”是从合法性原则和法治发展的必然结果总结而来的,其目的是为了保障个人免受任意公共行为的侵害,从而明确地根据刑法或法规中的具体规范承担责任。同样的,在对机器人的法律规制中,我们也应该首先明确建立起豁免的责任原则,至于此原则应该基于人来定义还是基于机器人来定义则需要进一步讨论。

2.严格责任应随着技术进步不断调整。严格责任一直是分配法律风险和责任的主要机制之一。就个人应该承担的严格责任已经论理成熟,不管是他们为自己的动物还是自己孩子的行为承担责任时,总可以找到与之对应的法律规范。但是在机器人领域,如何来明确严格责任似乎应该从技术理论的发展出发才更符合常理。无论其如何演变,人工智能皆是人类通过技术手段创造出来的物种,而技术的越成熟,机器人越“类人”,若在当下的技术水平下,出现了不应该出现的犯罪或者说侵权,那么其承担就应该是严格责任。

3. “个人过错”需要在个案中理性分析。大多数时候,责任并不是之前确定的,即当通过豁免和严格责任还是不能明确责任承担时,则需要在个案中理性分析。如侵权法中,当一个人有意去实施法律所禁止的错误行为时,对其应该承担的责任如何界定需要其通过不同的情况进行分析,相对应的,在涉及人工智能机器人的案件中也应该如此。

4.机器人责任也应纳入探讨范围内。前述有关豁免、严格责任以及个人过错的责任原则探讨始终脱离不开人和机器人,但是随着人工智能的发展,当有一天机器人跳出了人类给予的参数范围而拥有了自己的“思维”和“行为方式”时,再来考虑单纯的机器人责任已经为时已晚了,因此在考虑设定机器人规范时,也应该将以后可能出现的纯机器人责任纳入现在的研究范围内。

四、人工智能时代机器人

风险法律规制之具体设想

法律规定的责任是对不法行为产生的后果进行合理分配。现行法律责任的主体被设定为一个“人类行为人”,责任主体范围还不能够广泛到可以容纳机器人在内从而将法律责任分配给“机器人行为人”。因此,潜在的后果是,事故受害者没有办法通过行使求偿权获得损害赔偿或者损失填补。从这点出发,我们有必要在人工智能机器人类型化划分的基础上,探讨相应的民事责任与刑事责任承担。

(一)人工智能机器人的类型化划分

一类是具备认知学习能力和决策执行能力的多领域综合智能的人工智能机器人,将其界定为“弱人工智能机器人”(即人造机器或人造机器人),如无人驾驶车、无人机、生活服务智能机器人,这类人工智能不再是单一的感知记忆存储类的智能程序,而是可能具有机器人的外观,且兼具认知学习和决策执行能力,典型代表是沙特阿拉伯首个获得公民身份的索菲亚;另一类则是具备独立自主意识并能创新创造的超越人类智能的人工智能机器人界定为“强人工智能机器人”(人造人),未来这类人工智能极有可能具有人形和人性,不排除产生人工智能植入人体的“新人类”,尽管这些现在还仅存在于《机械姬》等科幻片之中。从弱人工智能机器人到强人工智能机器人,其自主性越来越强、人类干预程度越来越弱,其法律地位亦有所变化。

(二)人工智能时代机器人的民事风险与应对

1.适用过错责任制的弱智能机器人侵权行为

考虑到目前机器人发展的阶段性特点,即在相当长的一段时期内,首先应当考虑的是人类的责任,而并非机器的责任,这样也具有可适用性和可操作性。根据国务院2017年发布的《新一代人工智能发展规划》中提出“重点围绕自动驾驶、服务机器人等应用基础较好的细分领域,加快研究制定相关安全管理法规,为新技术的快速应用奠定法律基础”,由于规划中已经在提议对自动驾驶汽车立法,当观察和思考所有人工智能的规范时,这会是一个理想的切入点,故本课题首先将以自动驾驶汽车这一弱人工智能机器人为切入点,来探讨智能机器人侵权的法律规制方法。人是人工智能的总开关,而对于弱人工智能机器人来说,人类对其的影响如此之大以至于在界定弱人工智能机器人造成的人身或者财产损害赔偿时,我们首先应该要厘清人在其中扮演的角色,在此可采用“刺破人工智能的面纱”方法来判断责任归属。具体可分为以下两种情形:

一是基于研发者过错所产生的侵权责任。我国法律规定,因产品存在缺陷造成他人损害的,被侵权人可以向产品的生产者或者销售者请求赔偿,而生产者和销售者实际上构成了不真正连带责任,最后应由过错方承担责任。基于上述理论,当自动驾驶汽车等机器人造成他人人身或财产损害时,被侵权人可以向缺陷产品的制造商或者是对产品进行改造的第三方主张产品缺陷责任。如美国道路交通安全管理局于2013年发布《自动驾驶汽车的基本政策》对自动驾驶汽车测试事故的责任承担的规定,车辆在被第三方改造为自动驾驶车辆后,测试过程中导致财产损失、人员伤亡的,车辆的原始制造商不对自动驾驶车辆的缺陷负责,除非有证据证明车辆在被改造为自动驾驶车辆前已存在缺陷。此时的机器人存在的问题即产品在推出时并未实际解决的现存问题,那么被侵权人仅需证明有制造缺陷(比如说感应器存在的失灵)或者警示缺陷(比如未能合理告知消费者如何操作机器人或者错误的告知驾驶者应尽到的注意义务等),侵权人即可获得赔偿。

但是其中值得注意的是,既然智能机器人也是产品,当生产者能够证明侵权行为的发生是在将智能机器人投入流通时科学技术水平尚不能发现缺陷所导致的,可以免除严格责任。对此,将智能机器人投放市场,生产者一方面要购买保险防止意外,加强测试以保障安全,另一方面,对于产品投入流通时的科学技术水平尚不能发现缺陷存在的,须严格履行跟踪观察义务,一旦发现缺陷,必须及时将进行警示并将存在缺陷的机器人召回,没有及时警示和召回而发生损害,仍然应当承担上述侵权责任。

二是基于操作者过错所产生的侵权责任。除上述机器人可能本身存在的固有瑕疵外,对于机器人侵权还有一种可能即操作者在操作中存在的失误和问题,即当生产者生产的机器人不存在技术问题,销售者也告知了使用机器人需尽到的注意义务,但是仍然发生了侵权的后果,此时应该关注的则是机器人的实际使用人。德国《道路交通法》规定机动车持有人的道路交通事故严格责任独立于车辆的自动系统,驾驶员在车辆行驶过程中必须履行全程保持警惕、手不离开方向盘等强制义务,否则需要承担人工智能造成的损害。谷歌公司曾经使用奔驰汽车进行测试,则安全责任由谷歌公司承担,而非奔驰公司。

2.难以适用过错责任的强人工智能机器人侵权行为

随着人工智能的进一步发展,高度自主、脱离人类控制且独立运作并作出判断的机器人的出现将不再只是科幻电影的假想,如之前的阿尔法狗的胜利就是对这一类机器人出现并使用的最好证明。对于此类机器人侵权,传统的过错侵权责任原则难以适用,因为在实际运作过程中机器人是脱离人类控制的,即不存在主观“过错”一说。以上文所述的自动驾驶汽车为例,当未来自动驾驶的汽车发展到不需要人类使用者参与驾驶,也不需要使用者对行车情况和环境进行监视或紧急情况下进行操作时,此时发生的事故、造成的损害是无法诉诸过错侵权的,即使人类使用者事故时处在驾驶位上也不行,因为不存在主观“过错”。故对于未来强人工智能机器人侵权案件中,机器人的一些新特征可能导致使得事故的责任无法分配给生产者等既有的法律主体,尤其当出现不能合理推断出事故是由于设计、制造或者使用者的缺陷造成时,此时就需要法院解决人工智能系统的可解释性、可预见性以及因果关系等问题,这无疑是对司法提出的挑战。

在任何技术创新领域,法律制度面临三大挑战:第一,减少受害者人身伤害的数量和严重程度;第二,分配受害者伤害的费用;第三,激励创新。强人工智能的发展是大势所趋,探索和构建强人工智能机器人侵权责任是同时应对上述三大挑战的必由之路。为更合理有效地分配机器人造成的损害责任,本课题针对上述无法适用过错侵权责任的强人工智能机器人侵权的责任分担提出几种方案以供参考:其一,借鉴《侵权责任法》上关于危险责任的规定,让机器人的制造商或使用者承担严格责任。但此中严格责任适用的前提应该是完全自主的机器人发生事故、造成损害但是却难以将责任分配到既有的法律主体时,为了保障被侵权人的责任,法律或者法院可以强制执行此制度。此制度除可以基于公正、分配争议、风险分担原则保护被侵权人的权益外,还可以节约诉讼成本,免去证明当事人证明因果关系之累。其二,不断完善机器人的法律地位,甚至尝试赋予其完全的法律地位。历史上看,法律可以赋予公司等法人地位,甚至承认组织也可以享有一定的法律地位,现在我们也承认应该赋予机器人有限制的法律人格,那么在未来时机成熟时赋予其完全的法律地位可未尝不可。比如赋予其“电子人格”,让其享有权利承担义务。其三,设立强制保险制度和赔偿基金。现行的责任法律旨在有效地平衡对人身安全的关注与对创新效益的渴望。正如本课题前半部分所提到,设立一项完善的保险政策或储备基金来承担人工智能导致的责任,就不需要主张传统的责任诉讼,即由制造商或者所有人承担强制性的保险义务,针对机器人进行全部的强制保险,用以覆盖产品责任,另设赔偿基金也可以解决赔偿的分担问题。

(三)人工智能机器人涉刑事责任问题研究

1.理论分析:人工智能时代机器人主体行为的刑法规制

(1)行为人利用弱人工智能机器人实施故意犯罪

行为人利用弱人工智能机器人实施故意犯罪,该行为人既可能是智能机器人的使用者,也可能是智能机器人的研发人员。具体犯罪中,由于行为人不是“亲自”实施犯罪,因此容易出现认识错误的情形,具体分为无认识错误和产生认识错误两种情形。无认识错误情况下,无论是智能机器人研发者还是使用者,故意利用机器实施严重危害社会犯罪人行为的,应当将人工智能机器人品看作行为人实施犯罪的“智能工具”,所有刑事责任应当由智能机器人的研发者或使用者承担。此时体现的是行为人的意识,非机器人的自主意识。产生认识错误的情况下,具体分为对象错误、打击错误和因果关系错误的情形。其中,对象错误无论是从具体符合说还是法定符合说,结论都是一致的,即成立故意犯罪既遂。对象错误情形下与传统犯罪没有区别。在因果关系错误中,狭义的因果关系错误、事前故意、结果的提前实现等情形,也与一般传统犯罪并无区别。打击错误情形下,存在两种情况:第一,错误原因出现在行为人身上。例如,行为人利用“智能杀手”去杀人,但是由于程序设定失败或编程不合理等因素,“智能杀手”未能实现行为人的杀人意图,相当于行为人使用一把存在故障的手枪射杀对象,最终没有产生危害结果,此时应当以犯罪未遂进行认定。第二,错误原因出现在智能机器人身上。行为人预想的结果与现实的结果不一致,最终没有实现犯罪意图。例如,例如机器人接收指令杀害甲,但是机器人最终杀害了乙,此时程序并无差错,对于机器人发生误解而产生的后果,行为人构成故意犯罪未遂和过失犯罪的竞合。

(2)强人工智能机器人自主意识实施犯罪

当机器人通过深度学习产生自主意识后,会实施摆脱人类控制的行为,此时机器人的研发者或者使用者可能涉及到过失犯罪,具体应结合当时的机器人智能情况和社会科技的发展水平。对此,我们分别对“过于自信过失”和“疏忽大意过失”两种情况进行讨论。“过于自信过失”情况下,例如研发者已经预见到人工智能机器人的行为轨迹有可能超出人类控制范围,但是因概率非常低或者实现周期时间长等原因,轻信结果发生概率小于阈值范围,最终未采取防火墙等保护措施导致危害结果发生。“疏忽大意过失”情况下,例如研发者在人工智能机器人投放市场前,已经进行过了大规模检测,但是外界出现了新技术的更新,但是研发者并未再次结合新技术进行全面深度的检测,最终“没有预见”危害结果的发生,但是实际上如果全面检测是可以发现人工智能机器人存在缺陷的。

此外,法律不能强人所难,对于罪过形式还需要讨论意外事件和不可抗力。囿于一定地域内社会历史发展阶段与水平的限制,人类所掌握的人工智能技术可能无法彻底消除人工智能的安全风险,还需要等待技术的进一步成熟。在这种情况下,我们就不应当追究研发者和使用者的刑事责任。对于最终导致的危害结果,可以是意外事件也可能是不可抗力。如果行为人已经预见会发生危害结果,但是当时的技术水平无法阻止结果的发生,人工智能机器人自身的发展水平已经完全超出了人类技术的可控范围,就只能将此种情况认定为不可抗力。如果行为人无法预见、没有预见会发生危害结果,以致发生危害结果,应认定为意外事件。

2.可行方案:增设滥用人工智能罪和人工智能事故罪两个罪名

本文认为,现阶段追究智能机器人“背后的人”刑事责任才能从源头上控制人工智能给人类社会带来的风险,增设滥用人工智能罪可从故意犯罪的角度对研发者和使用者加以刑法规制,增设人工智能事故罪可从过失犯罪的角度对研发者和使用者加以刑法规制,两者相辅相成,最终可以实现对人工智能刑法规制的完善。

(1)滥用人工智能罪:滥用人工智能行为的客观表现形式多种多样,包括制造危害社会的人工智能产品,滥用大数据,侵犯他人隐私,等等,可以说涉及人类社会生活的许多方面,未来还将出现其他立法者囿于人工智能技术发展状况而无法全面考虑到的情况。因此,就目前人工智能产品的研发和使用情况而言,直接将“滥用”的行为作为规制的对象并规定相应的兜底条款是较为妥当的做法,未来可以通过司法解释等活动进行更加具体的规定,从而实现刑法规范稳定性与前瞻性的平衡。

(2)人工智能事故罪:由于人工智能可能造成的社会危害性大,并且研发者和使用者在多大数情况下对人工智能产品有一定的把控能力,因此可以考虑在刑法中确立人工智能产品研发者和使用者的严格责任。例如应当包含以下几个方面内容,如在研发人工智能产品的过程中必须将人类社会中的法律及道德等规范和价值嵌入相应的系统之中,如研发者和使用者需要在研发和使用人工智能产品的过程中履行数据保护义务等。基于此,如果人工智能产品的研发者和使用者没有履行上述几种义务,则人工智能产品的研发者和使用者需要承担相应的严格责任。诚然,严格责任确认的前提是前置法律法规应当将这部分义务规定在条文之中,而刑法则可以规定不履行相应法律法规中关于人工智能产品研发和使用过程中的规定,造成严重危害结果的,有关研发者和使用者需要承担刑事责任。这种严格责任与滥用人工智能故意犯罪的刑事责任相比应当是较为轻微的,可以通过增设人工智能事故罪对人工智能产品的研发者和使用者的严格责任加以确定。

结语

经过三十多年的发展,在超强运算能力、大数据和持续改进的算法的影响下,人工智能对法律以及法律行业的影响下正在加深、加快,未来十年至二十年间法律行业将可能迎来一场巨变。法律制度存在一定的滞后性,但关于法律问题的思考应该是前瞻的,相关“人工智能+法律”的研究应未雨绸缪,本课题对人工智能机器人的研究重点以及创新点包括人工智能机器人的法律地位、人工智能生成内容的权利归属、人工智能机器人损害后果的责任分担、人工智能风险的法律控制等,其实际应用价值在于在涉人工智能机器人相关案件数量增多甚至爆发之前,司法系统已具备一定的相关法律问题的研究基础和研究成果,在审判实践中亦可以做到游刃有余而不至于处于被动之地。

责任编辑 / 高佳运

执行编辑 / 吴涛


⏩ 转载请标明本公号和二维码 ⏪


推荐阅读

●【决策参考】2019年第1期丨二审案件辖区占比的差异分析及对审判管理的启示——以全国百家中级法院为视角

●【决策参考】2019年第2期丨食品安全纠纷司法应对的理性回归与进路选择

●【决策参考】2019年第3期丨新时代城乡融合背景下基层人民法庭的法治保障机制研究——以上海法院36个人民法庭的运行情况为视角

●【决策参考】2019年第4期丨委托理财合同纠纷案件审理情况分析——以上海F区法院案件为样本

●【决策参考】2019年第5期丨法治化营商环境的理想图景与实现路径——以世界银行营商环境评价中的法律要素为样本

●【决策参考】2019年第6期丨2017年度上海法院金融商事审判情况报告

●【决策参考】2019年第7期丨法治上海建设背景下城市管理精细化的重点领域与实现路径探究

●【决策参考】2019年第8期丨上海海事法院船舶碰撞案件审判与航行安全情况分析


满意请点赞,欢迎留言讨论

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存