查看原文
其他

王轶晗 王竹:前奇点阶段人工智能侵权责任研究 ——以医疗人工智能为视角

王轶晗 王竹 上海市法学会 东方法学 2022-10-05

王轶晗  四川大学法学院博士研究生,美国埃默里大学联合培养博士研究生;

王   竹  四川大学法学院教授,博士生导师。

内容摘要


人工智能暂处于“前奇点阶段”,随着人工智能在医疗领域的广泛应用,由其引发的侵权案件数量逐年递增。但现阶段人工智能主客体定位尚不明晰、侵权事实与法律规范之间无法形成有效涵摄,医疗人工智能侵权责任认定陷入困境。单独适用产品责任、医疗技术损害责任抑或高度危险责任,均无法为医疗人工智能侵权责任提供准确的归责模型。破题之道,应在肯定医疗人工智能法律客体地位的基础上,对现行法律进行最小化与程序化改造,从而通过适用经改造的产品责任、医疗损害责任与个别适用高度危险责任完成医疗人工智能侵权责任的承担。同时,将设立医疗人工智能实质性审查机构、建立沙箱区域、改革医疗质量安全事件报告数据库、试行国家先行赔偿等事前、事中、事后措施作为医疗人工智能侵权的制度去障,以期实现“善治”与“善智”的良性互构

关键词:前奇点阶段  医疗人工智能  产品责任  医疗损害责任  高度危险责任

一、引言自上世纪以降,人工智能的物化成果被广泛应用于疾病诊断、微创手术、康复治疗、医院服务等领域,百年医疗掀起了巨变。

20世纪50年代中期至70年代中期被认为是人工智能的第一次浪潮,1972年,由利兹大学研发的全球首个医疗人工智能——急性腹痛辅助诊断系统(AAP Help)诞生。以此为标志,人工智能被引入了医疗领域。第二次浪潮肇始于80年代初,以基于规则的专家系统的研发为特征。在这一阶段,用于评估心电图的自主诊断设备问世。1985年,可编程通用装配560机器人(PUMA560)辅助医生进行神经外科活检手术,完成了首例有机器人参与的外科手术。21世纪初期,杰弗里·辛顿(Geoffrey Hinton)的深度学习网络掀起了第三次人工智能浪潮。人工智能运用误差反转算法建立人工神经网络,进而生成医疗气象预测模型,为不同病种的医疗气象预报提供科学参考。其在医疗领域的深度应用极大程度地提升了手术的精细度,扩大了医生的术野,令医疗活动的可视性以及可达性取得了颠覆性突破。

然而,随着人工智能在人类社会生活的参与度逐渐加深,关于人工智能的负面评论不绝于耳。有部分学者以人工智能的发展态势为研究背景,提出了“奇点论”,断言人工智能将在某个时间点反控人类,随着这种奇点思维的传播,对于人工智能的技术恐慌不断泛起。在人工智能侵权的问题上,由于人工智能的法律地位尚未明确,且侵权事实与相关法律规范之间涵摄失灵,责任归属无从确定。本文即在上述背景下展开,以前奇点阶段的探讨为切入,经过正本清源式的分析与剖释,以适用现行相关责任规定之虞为比对,为解决医疗人工智能侵权所面临的问题探寻可行进路。

二、前奇点阶段的发生及展开一世纪,一甲子,英国作家查尔斯·狄更斯(Charles Dickens)笔下“最好亦是最坏的时代”似乎可将当下的人工智能时代描述得恰如其分。

谓之“好的时代”,是由于人工智能技术循摩尔定律(Moore’s Law)不断迭代更新,人工智能企业竞逐争锋,与日俱增的技术水平与实用潜能令众多垂直产业随之受益,人类的生活水平得到提高的同时,也享受到了前所未有的便利。以自动驾驶汽车、人脸识别支付、人工智能辅助审判系统、外科手术机器人等为代表的一系列人工智能技术物化成果,扩大了人类活动的范围、提高了人类工作的精度,解放了劳动力、节约了人力资源成本。人工智能技术作为新的技术驱动力,已然成为第四次工业革命的典型代表。

谓之“坏的时代”,其缘由在于人类有可能成为“技术进步超过技术社会控制趋势”的受害者。申言之,人工智能以突破人类线性视角的指数速度发展,在如此不停歇的指数级发展过程中,人类生存将受到人工智能威胁。人工智能所进行的递归式自我改善的结果便是出现奇点,即人工智能超越人类智能的时代临界点。而与可能导致世界死寂的熵增原理不同,人工智能奇点的到来甚至可能发生在本世纪。谷歌工程总监库兹威尔(Ray Kurzweil)预言,人类智能将在2045年之前被人工智能超越。而从先驱者优势理念出发,此时的超级人工智能有很大概率会发生“背叛转折”,进而对存在于地球之上的智能生命造成巨大的存在性危险。

诚然,人工智能在飞速发展的过程中始终裹挟着风险。但是,技术发展所导致的技术奇点依然十分遥远。首先,强调技术奇点,是为了避免将人工智能技术不断进步所致的广义奇点与狭义的技术奇点混为一谈,造成不必要的智能恐慌。相较于遥远且蕴含最大不确定风险的技术奇点,规范奇点与经济奇点已然初见端倪。其次,目前的人工智能技术仅仅是将人脑的局部功能进行复制与强化的结果,其类人脑的功能是片面的,缺乏对于跨领域情境的随机应变能力与必要的竞争冒险机制,难以基于数据与自我学习提出新概念,更奢谈由人工智能产生形而上学的理论形式。质言之,人工智能的深度学习、迁移学习、增强学习等学习模式实为模仿行为,系对人类已有旧知的学习。再次,对于人工智能而言,模拟人类的情感是可能的,但在“机器脑”中始终无法生成情感涟漪,其基于一定物理介质所存在的机器思维所依据的是事先设定的算法规则,而人类的逻辑判断则是由身体本身所产生的特有情感及明悟。一言以蔽之,人工智能技术目前仍无法与人类智能同日而语,该项技术将长期处于人类智能程度之下,这一时间区间即“前奇点阶段”。

三、前奇点阶段医疗人工智能侵权认定的困境(一)数据背景——医疗人工智能侵权案件涌现

纵观世界,域外的人工智能技术不论是在起步还是后期的发展阶段,均处于领先地位。但从1978年日本广岛摩托车厂的工作机器人伤人到1989年机器人电流致苏联象棋冠军死亡,再到近年来频发的自动驾驶汽车事故,人工智能侵权案件的数量正在增加。英国仅在2005年一年之中发生的机器人致害事故就高达77起。而医疗人工智能侵权也随着医疗人工智能的临床化呈现出上升的趋势。如2002年,美国佛罗里达州一名患者在使用达芬奇(Da Vinci)手术机器人进行肾脏手术的过程中因主动脉意外割破而死亡。美国的外科手术机器人在2000年至2013年间,至少造成了1391起致害事件,并导致144人死亡。

就我国而言,国内医疗机构中亦存在着相当数量的进口以及自主设计生产的医疗人工智能设备,典型如浙大一院的达芬奇机器人,其单机手术量以及手术密度曾多次称冠全球。同时,诸多自主研发的医疗人工智能成果已经问世,如“黎元”“妙手”“天玑”等机器人系统。截至2017年10月,医疗人工智能公司融资额已超过260亿元。国务院印发的《关于促进“互联网+医疗健康”发展的意见》《新一代人工智能发展规划》,以及科技部出台的《“十三五”卫生与健康科技创新专项规划》等文件均提出了大力发展医疗人工智能的要求。综观之,我国已处于医疗人工智能的风口。

在如此庞大的应用市场之下,国内医疗人工智能侵权“暗流涌动”,将达芬奇手术机器人作为研究对象,在中国裁判文书网中以“医疗”“达芬奇”“侵权”作为关键词展开检索,时间跨度设置为2017年至2020年,共计检索到民事判决书37份,案件数量随着年份变化逐年递增。鉴于医疗人工智能侵权案件本身的复杂难断,较多案件未能成诉,庭下调解居多,加之文书上网的覆盖范围不尽全面,医疗人工知智能侵权案件的数量实则更加庞大。上述数据在一定程度上仅是管窥蠡测,基于前瞻性考量,医疗人工智能侵权逐渐成为人工智能领域的焦点问题之一,如《人民日报》题为“人工智能为医疗打开更大空间”的评论文章即指出在医疗科技创新攻关中,应坚持以人民为中心的发展理念,就人工智能而言,要着力解决其在主体资格、侵权责任认定等方面存在的问题,从而让人工智能在深度应用领域能够落脚在习近平总书记提出的一切从人民利益出发的根本基点上。

(二)逻辑判断——人工智能法律地位定性模糊

探讨医疗人工智能侵权的法律问题,首先应当解决的是由谁来承担责任。若要对这一问题作出回应,需对医疗人工智能体的法律地位归属作出逻辑选择。

正本清源,法律主体从“人可非人”逐渐演化为“非人可人”。而人工智能系各种“有限感性”与“有限理性”相互叠加、往返激荡的产物。人工智能的极速发展,正在倒逼学界重新研判法律人格制度,对人工智能体的法律地位进行正面回应。综观域内外学者关于人工智能法律属性的观点,主要包括工具说、拟制法律人格说、有限法律人格说、人格减等说、动物说等。其中,拟制法律人格说、有限法律人格说以及人格减等说倾向于人工智能“人”之属性,即主体;而工具说、动物说则倾向于人工智能“物”之属性,即客体。经逐一剖释,以上各学说均在一定程度上无法自圆其说,主要体现在:

一方面,“拟制法律人格说”“有限法律人格说”具有较强的前瞻性,但对于医疗人工知智能“自主意识”的判断,仍属于预设,需要时间的进一步检验及实证探讨。另外,囿于人工智能体独自担责之不可能,责任的最终指向仍无法与刺破面纱后的人类相剥离。如俄罗斯的《格里申法案》虽然肯定人工智能的主体地位,但是规定因人工智能的行为产生的责任由其所有权人或占有人承担。《欧盟机器人民事法律规则》也指出,现阶段人工智能的法律责任必须由人类承担。此种做法无异于隔靴搔痒,赋予人工智能以主体地位在很大程度上失去了其意义。而本身源于罗马法的人格减等制度,针对的是同一主体的人格身份从完整到被部分剥夺甚至完全丧失的情形,医疗人工智能体显然不存在“减等”可能。

另一方面,就“动物说”而言,针对医疗人工智能,如继续沿用“动物”视角,将始终无法回答“智能化”的问题。人工智能体能够基于预设算法进行创造,系人类创设的延伸范畴,其在脱离生产者嗣后的经历将对智能体产生极大影响,与一般的动物极为不同。另外,人工智能不可预测性的产生机理也与动物大相径庭,动物是出自于生理性格,而人工智能则是基于算法规则。因此,“动物说”在逻辑上无法自洽。

实务中对于人工智能法律地位的认定同样存在着分歧。如2016年1月发生的首起特斯拉自动驾驶汽车交通肇事致死一案,死者家属对特斯拉中国区销售公司提起诉讼。特斯拉方主张事故中的自动驾驶汽车为驾驶工具,无法全权代替和承担驾驶员的作用与职责,司机仍需对汽车负责。但是,法院对于处于自动驾驶状态下的特斯拉汽车的法律地位认定,至今仍未有明确结果。同年,谷歌公司的自动驾驶汽车在美国加利福尼亚州发生交通事故。美国国家高速公路交通管理局于2016年2月公布了致谷歌公司的一封信,信中表示谷歌无人驾驶系统可以被视为司机,在法律上与人类驾驶员相同。美国的沃森医疗人工智能系统在对患者造成损害后,被认定为雇员而不是医疗器械,由医院承担替代责任。

(三)法律适用——侵权事实与法律规范之间涵摄失灵




医疗人工智能侵权责任的承担,需要以法律为依据。但是,由于医疗人工智能的定位模糊,医疗人工智能侵权事实无法与现行法律规定形成有效涵摄。医疗人工智能侵权在适用现行法律法规时,不论以产品责任、医疗技术损害责任、高度危险责任加以苛责,均存在无法消弭的问题。


1.适用产品责任相关规定之虞

一方面,根据我国民法典第1202条的规定,产品责任的构成要件有三。分别为产品存在缺陷、缺陷产品造成损失、缺陷产品与损害事实之间存在因果关系。相较于损害事实与因果关系,如何证明产品存在缺陷是最为困难的。产品质量法第46条对缺陷产品进行了二元界定,即产品存在“不合理危险”或产品“不符合国家、行业标准”,前者是一般标准,后者是法定标准。

首先,医疗人工智能科技含量极高,技术黑箱无法避免,即使是专业人士也无法准确判断产品有无缺陷、是否存在“不合理危险”。更不必言及缺乏专业知识的患者。其次,法律及政策的滞后性意味着在短期内很难出台较为统一的国家、行业标准,同时实现法定标准内部的统一协调及外部的周延,难度极大。即便能够出台相应的标准,法定标准与一般标准在适用上的冲突也仍将困扰缺陷产品的认定。再次,目前尚未成立能够对人工智能医疗事故进行鉴定的专业鉴定机构,严重影响了相关案件中侵权责任的认定。如在美国的马瑞科诉布林茅尔医院(Mracek v. Bryn Mawr Hospital)案中,一名患者被达芬奇手术机器人切除了前列腺,但由于在手术过程中人工智能系统出现技术问题,术后出现了严重的并发症。受害患者起诉了医院与达芬奇的生产商直觉外科手术公司(Intuitive Surgical Inc.)。但由于缺乏足够的证据表明医疗人工智能存在缺陷并致害,法官作出了有利于被告的简易判决。另一方面,医疗人工智能作为医疗产品,固然也适用医疗产品损害责任。民法典第1223条对医疗产品侵权作出了规定,即由于缺陷医疗产品引发侵权致害时,医疗机构需要承担严格责任,而其承担责任的原因在于其本身系医疗服务提供者,这一规定被学界称之为“最近规则”的适用。对于受害的患者,出于令其及时、足额受偿的考虑,法律允许其可以在最近的范围内行使自己的赔偿请求权,在物理空间层面,医疗机构系与患者距离最近的赔偿主体。诚然,医疗机构可以依据《最高人民法院关于审理医疗损害责任纠纷案件适用法律若干问题的解释》第7条第3款的规定拒绝承担责任,但前提是需要提供产品不存在缺陷的证明,这对于并非专攻技术研发的医疗机构而言,困难极大。另外,尽管法律赋予医疗机构追偿权,得在赔偿后向相关生产者进行追偿,但综合考虑举证以及追偿过程中的成本以及潜在风险,医疗机构使用医疗人工智能产品的成本被无形扩大,严重挫伤了其使用人工智能的积极性,成为了医疗人工智能发展的窒碍。综观之,医疗机构在医疗人工智能侵权案件中处于极为不利的地位。

2.适用医疗技术损害责任相关规定之虞

通过医疗技术损害责任来解决医疗人工智能侵权问题,主要存在以下三个方面的理论障碍:

其一,法律地位定性。民法典第1221条将医务人员确定为医疗技术损害的行为主体,正如上文所述,医疗人工智能(如达芬奇手术机器人、智能诊断器具等)是否可以与医务人员等同进而具备法律主体身份,始终悬而未决。若责令医疗机构承担用人单位的替代责任,颇显牵强。

其二,医患关系的确定。若然医疗人工智能系具备独立人格的法律主体,同时亦可以被视为医务人员,但在对医疗人工智能进行苛责之前,仍需明确其与患者之间能否形成真正的医患关系。在英美法中,咨询医生并不属于医疗技术损害责任的主体,而部分医疗人工智能(如智能诊断器具)所扮演的正是咨询医生的角色,其本身并未参与诊疗过程,只是提供一种基于数据分析而呈现的非正式意见,更不可能与患者之间形成所谓的医患关系。由此,不同类别的医疗人工智能本身特性、行为以及诊疗参与程度各不相同,与患者之间形成的关系亦不可一概而论。

其三,过错情况的判断。民法典将医疗技术损害责任确定为过错责任。因此即使确认了医疗人工智能与患者之间形成了医患关系,对于医疗侵权损害而言,仍需要回溯事故原景去判断过错的有无及过错的程度。区别于普通的医疗事故,仅依靠“诊疗规范”“当时的医疗水平”等通常标准对医疗人工智能是否存在过错进行判断恐有不妥。为此,有学者建议可以将人类所能达到的最高诊疗水平作为标准。但此种人机比较,直接将医疗人工智能与人类医疗技术巅峰等量齐观,是否合理?亟需进一步探讨。


3.适用高度危险责任相关规定之虞

首先,高度危险责任以不可预测性为典型特征,理性的人即使尽到了合理注意义务,往往也难以避免由于事务本身的危险性造成的损害,这恰与医疗人工智能的特性如出一辙。其次,民法典中的高度危险责任体系由三类规定构建而成,即包括一般式、列举式以及兜底式规定,从体系上来看,兜底式规定为医疗人工智能侵权这类新型侵权责任类型预留了适用空间。但是,医疗人工智能适用高度危险责任规则仍需解决两个问题。一方面要在高度危险物致损责任与高度危险作业致损责任的判断上进行明确,二者共同构成高度危险责任,但医疗人工智能侵权属何种情形,尚不明晰。另一方面要解决自己责任的排他性问题,高度危险责任系自己责任。因此,若医疗人工智能侵权为高度危险责任,则该智能体的占有人、使用人、活动经营者为责任主体,医疗机构难咎其责,但在自己责任的排他模式下,生产者无需担责,显然不尽合理。


四、前奇点阶段医疗人工智能侵权的法律因应(一)定性——明确医疗人工智能的客体地位

就前奇点阶段的医疗人工智能而言,其打破“人”“物”二分的格局在目前法学主流理论中尚不可期。就其地位探讨,还容易落入“安卓谬论”(Android Paradox)的陷阱中,从而过分关注人工智能的拟人性。正如前文所述,目前的人工智能“智性”已然足矣,但相较于人类,其心性、情感明显不足。“自主意识”及“责任能力”是判断法律地位不可或缺的因素,人工智能的“自主意识”无法摆脱技术性的算法规则,短期内更不会产生“自由意志”。以沃森医疗人工智能为例,采用布鲁姆(Bloom)认知领域分类的方法,展开对沃森及人类在认知程度方面的对比分析,个中差异可较为清楚地体现出来。(见表1)。

Bloom理论中的认知要素

沃森模仿人类解决问题的步骤


识记

(1)存储更新医疗数据

(2)筛选医疗数据

(3)创建索引或知识图谱以摄取内容



理解

(4)向人类专家学习

(5)继续学习

(6)确定问题

(7)产生鉴别诊断假设


应用

(8)寻找证据支持或反驳假设

(9)对每一项加权证据进行统计建模

分析

(10)分析证据

综合


评价


表1 沃森与人类认知程度的对比

通过上表的逐项比较可知,沃森的认知程度在部分关键节点上存在缺失。其无法基于模仿人类解决问题的10个步骤,来独立完成问题模型的“综合”“评价”模块。这也意味着,沃森无法在医疗诊断过程中作出关键判断及确定最终行动方案、结论。尽管其处理数据、分析问题的能力极强,但其缺乏批判性的思维以及促进产生这种思维所需的更高层次的认知。另外,对各类数据内在价值背后的伦理思考,也无法展开建模分析,面对决定方案所需的多重信息交互,很难作出相应的价值排序,从而影响到“综合”及“评价”。加之前文所述,就“责任能力”而言,暂无法预设人工智能拥有自己的财产,缺乏相应的“物质基础”,即不能独立承担责任,这便否定了其成为法律主体的可能。综上,基于对沃森与人类认知程度的对比以及人工智能责任承担的分析,当前的医疗人工智能属医疗器械,即辅助人类开展医疗活动的智能工具。因此,医疗人工智能仍属于法律客体的范畴。

(二)因应——法律制度布局及具体规则构建

在明确前奇点阶段医疗人工智能的法律客体地位后,应尽快完成相关法律制度的布局,构建起较为成熟的规则模型,从而对医疗人工智能侵权的问题进行合法规制。一方面,法律对科技的作用需聚焦于解决因新技术的出现所造成的规范失度问题,如果法律制度对医疗人工智能技术的回应严重迟滞,不论是促进技术发展,抑或规制、监管;不论是鼓励技术之革新,抑或法律自我调整及价值重构,不免陷入规制无力的窘境。因此,我国的法律制度应曲突徙薪,在问题积重难返前对其进行预判与制度安排,从而实现“善治”与“善智”的良性互构。另一方面,法律虽不是一元自足的闭塞体系,亦不是一成不变的静态体系,但是就目前的人工智能发展阶段而言,不宜进行脉冲式立法。当前,对于医疗人工智能的侵权责任问题,需要遵循“最小化原则”和“程序化原则”。“最小化”即尽可能地将现行的法律规定适用到人工智能的前奇点阶段,在最小程度上进行新的立法与法律修订;“程序化”即尽可能地对现行法律进行程序性的技术改造加以适用。

鉴于前奇点阶段人工智能侵权的现状,宜以现行产品责任与医疗损害责任的规定为基础,施以最小化与程序化改造,根据不同侵权情形在产品责任、医疗损害责任以及高度危险责任之间进行选择适用,这亦是当前措置医疗人工智能侵权问题的择优之选。具体的规则模型设计如下:


1.产品责任的承担

若经法院确认,医疗人工智能侵权系其缺陷所致,则应由该医疗人工智能的生产者承担产品责任。

首先,厘清生产者的外延。基于加强受害者保护的考量,结合前奇点阶段医疗人工智能所呈现的发展态势,宜对生产者的外延作广义解读,诸如产品的直接生产者、零部件生产者、进口商以及表见生产者等均应当被归类为生产者范畴。其中,零部件生产者并非必然以生产者身份承担责任,需要判定其在产品生产过程中是否“实质性参与”,如产品的关键设计、产品重难点技术攻克等。将进口商认定为生产者是基于医疗人工智能产品本身的跨国域特点考量。就我国而言,在医疗机构目前广泛使用的医疗人工智能产品中,进口仪器仍占据较大比重。从国外到国内的层层移转,无疑加重了判定产品生产者的难度。同时,即便有明确的海外生产者,本就居于弱势地位的受害者如若求偿,甚至还需提起跨国诉讼,诉讼成本被无限扩大的同时受偿难度也极大增加。表见生产者,即产品由一方主体进行实际制造,但产品的外在标识,诸如名称、商标等,由另一方主体进行标注,标注指向即为表见生产者。将表见生产者归类为生产者同样是基于受害者利益的考量。

其次,明确产品缺陷的类型与归责原则。我国民法典将产品责任确定为无过错责任,但却并未对产品缺陷进行详细规定。通过比较法观察,域内外主要将产品的缺陷归类为以下三种,即制造缺陷、设计缺陷与警示缺陷。就制造缺陷致害而言,其适用无过错责任原则并无异议。但就设计缺陷致害适用何种归责原则,学界争论颇多,主要集中于过错责任原则以及无过错责任原则的选择上。综合权衡二者之利弊,适用无过错责任为宜:其一,在文义理解层面可以将制造缺陷与设计缺陷进行简单区分,但就复杂人工智能技术而言,基于深度学习的人工智能产品所作出决策具有不可预测性,侵权损害已然无法区分出是由制造缺陷抑或设计缺陷引起。为确保法律适用的准确性,减轻受害人的举证负担,应统一适用无过错责任原则。其二,适用无过错责任原则,可以反向增压,促使生产者在制造医疗人工智能产品时更为审慎。诚然,无过错责任在一定程度上有可能挫伤生产者在革新人工智能技术方面的积极性,甚至引发“寒流效应”。但正如阿西莫夫定律(Asimov Laws),不伤害人类是人工智能应当遵循的首要原则与基本的底线,维护消费者的生命权、身体权和健康权始终是生产者从事生产制造的圭臬。另外,我国《产品质量法》第41条已赋予生产者在特定条件下的抗辩权,这也能够避免对彼时科技水平尚不能发现的设计缺陷致害承担过于严格的责任。针对警示缺陷致害,应回归适用过错责任原则。究其原因,警示缺陷的产生是基于警示行为未达到理想状态,有无警示抑或警示充分与否是评判缺陷是否存在的关键,此种警示行为已然超过了产品本身的核心要素,不宜强加适用无过错责任。另外,就医疗人工智能产品而言,生产者的警示义务同时应当受到“博学中间人”原则(The Learned Intermediary Doctrine)的约束。即由于该“博学中间人”(医疗机构、医务人员或其他专业技术人员)的出现,生产者一旦向该中间人进行充分警示,则表示其已经完成相关的警示义务,从而可以从产品责任的因果关系链中剥离。

复次,引入“消费者的合理预期”,并将其作为认定产品缺陷的标准之一。对德沃金(Ronald Dworkin)等新自然法学派代表所主张的“消费者期待标准”在医疗人工智领域进行适当改造,以患者群体在选择接受医疗人工智能产品诊疗活动的一般性认知作为预期模型,事故发生超过合理预期即视为存在“不合理危险”。对生产销售说明及实际呈现效果进行对比,加强对患者的保护。但是,此标准在司法适用上的自由裁量空间较大,且由于加入了患者的主观预期,须谨慎判断。

再次,在医疗人工智能侵权领域应当排除“最近规则”的适用。民法典第1223条显然增加了医疗机构的风险及负担,建议赋予医疗机构在无过错情形下的抗辩权,受害患者应径行向产品生产者主张赔偿。医疗机构仅需在患者求偿过程中提供必要的协助,如提供必要的证明材料等,而非承担责任后向生产者追偿。

最后,明确医疗人工智能产品出租人对租赁物的瑕疵担保责任。近年来融资租赁为对高值医疗器械具有较高需求但囿于自有资金不足而无法引进设备的医疗机构提供了契机。根据民法典第747条、第749条的规定,出租人无须就租赁物承担瑕疵担保责任,但具有例外情形,即如果出租人对于租赁物的选择施加了某种影响力,或出租人在明知租赁物具有质量瑕疵时,不告知承租人的,出租人仍需承担相应的瑕疵担保责任。


2.医疗损害责任的承担

若经法院确认,医疗机构在使用医疗人工智能开展诊疗活动的过程中存在组织过错的,患者受到的损害,应当由医疗机构承担赔偿责任。

民法典将医疗损害责任的责任主体确定为医疗机构,责任性质系替代责任。但替代责任已然无法完全适应现代医疗责任体系的需要,在医疗人工智能领域更是如此。患者的诊疗过程实属医疗机构的一项系统性活动,是复数医务人员共同协作的联通结果,呈现出分工配合的治疗组织样态。因此,为减轻患者的举证责任,应当通过组织过错责任这种形式来明确医疗机构所负责任的属性。患者仅需就最后的受害结果系医疗机构一方所进行的医疗活动所造成,且未达到应当具备的治疗水平进行证明,即完成举证。无需就诊疗过程中的某一节点或是医疗机构在对医务人员的选任、培训等方面具有过失的具体情形进行举证。此外,医疗人工智能的法律地位并不影响其适用组织过错责任,即使将来赋予人工智能法律主体资格,组织过错责任仍具有适用空间。就组织过错而言,主要包括以下三个方面:

(1)技术类组织过错

如向医疗人工智能提供错误指引,包括输入未经审核的瑕疵医疗数据、组织示范不当致使系统紊乱、强行干预学习过程影响其深度学习等;医务人员未严格按照诊疗规范对设备进行消毒导致患者感染,或错误操作造成患者损害;医疗机构未对医务人员开展充分的培训、未建立起行之有效的考核机制开展考核工作等。

(2)伦理类组织过错

如在使用医疗人工智能开展医疗活动之前未向患者或其近亲属充分释明选择人工智能的原因、使用过程中存在的潜在风险及可能造成的不良后果、人工智能所能达到的技术水平,以及医疗人工智能有可能存在的算法偏见等。

(3)管理类组织过错

如未能采取有效手段保管医疗人工智能黑匣子,无正当理由拒绝患者的查询请求,未能建立起对医疗人工智能设备的定期保养机制,未能合理管理人工智能导诊员、搬运机器人、分药机器人等非临床人工智能造成损害,未能提供可靠的后勤管理保障,如网络防火墙虚化、备用电路不稳定等。


3.产品责任与医疗损害责任的结合

如果缺陷人工智能产品与医疗机构的组织过错共同造成患者的同一损害,则由产品的生产者与医疗机构承担不真正连带责任。生产者或者医疗机构承担赔偿责任后,向对方追偿的,应当根据医疗行为与缺陷医疗人工智能产品造成患者损害的原因力大小确定相应的数额。

如果无法评估患者的损害系产品缺陷造成抑或医疗机构的组织过错导致,则参照适用关于共同危险的规定,由产品的生产者与医疗机构承担连带责任。但是正如前文所述,应当排除“最近规则”的适用,即患者需优先选择对生产者,或者同时对生产者及医疗机构提出赔偿请求,而不得单独向医疗机构提出。基于风险利益一致性分析,生产者已经通过销售行为获得了利益的圆满状态,就日后的医疗事故赔付也可通过销售价格的涨幅实现部分成本的转移分担。但对于医疗机构而言,其购买的设备价值仍待在后续的医疗活动中实现,获得利益的状态一直在持续,直到设备报废或再次移转为止。因此,从受益程度分析,生产者的获利状态已经完成,风险应由其来承担。

对于免责事由,宜采纳“补充说”。即生产者或者医疗机构能够证明损害结果与自己行为无关时可免责。但是,如果受害人未能在其他连带责任人处获得足额受偿,上述免责一方仍需要在受害人未获偿的范围内承担补充责任。如此设计,一方面对承担连带责任的主体范围进行了限缩,减轻了非实际致害人的赔偿压力,另一方面,通过补充责任的设计来填补受害人的损失,确保了受害人能够得到足额受偿。


4.高度危险责任的个别适用

医疗人工智能显著提高了现代医疗水平,但不可否认,正是由于医疗人工智能的参与,部分医疗活动危险系数也随之增加。一方面,如果生产者举证证明产品并无缺陷,而受害患者又无力证明医疗机构的过错,受害者则将面临损害无法填补的不利后果。另一方面,高度危险责任的归责原则为无过错责任原则,纵观全球,无过错责任原则在医疗领域的适用逐渐呈现出扩大趋势。因此,建议参照《格里申法案》中的规定,将高度危险责任适用于部分医疗人工智能侵权,由医疗机构作为最终的责任承担主体,并通过以下三种途径对高度危险责任的适用范围进行审慎确定:其一,根据医疗器械分类标准确定。根据《医疗器械监督管理条例》的规定,我国依据风险程度将医疗器械分为三类进行管理,从第一类到第三类,风险递增,该风险判断主要是基于医疗器械的结构 特征、使用形态、与人类的接触程度以及使用该器械所要达到的诊疗目的等。而2018年8月新修订的《医疗器械分类目录》将诸如尖端侵入人体的髌骨爪、对病变部位进行自动识别并提供明确诊断提示的诊断软件、全自动血库系统等医疗器械划分到了第三类医疗器械中,即危险程度最高。因此,在厘定适用高度危险责任的医疗人工智能类型范围时,可适当参照第三类医疗器械目录。

其二,依据医疗机构的科室划分进行确定。在美国第三次医疗责任危机中,面对巨大的医疗责任风险,约70%的妇产科医师被迫改变了自己在医疗机构的执业方向。为尽快度过危机,美国先后出台了一系列的改革措施,其中包括在侵权法领域规定了无过错医疗责任的个别适用。如弗吉尼亚州通过制定《与出生有关的脑神经赔偿法》,对产科发生的造成新生儿脑神经损伤的相关医疗损害适用无过错责任。我国亦可根据实际需要,将不同科室作为确定适用高度危险责任的考量因素之一。其三,酌情考量受害者受到损害的程度进行确定。 以最高行政法院认可里昂上诉行政法院就“比昂仕案”(arrêt Bianchi)的判决为标志,法国逐渐开始接受并适用无过错责任的归责原则,但其适用范围被严格限定为对受害人造成的损害达到政府所认可的永久性残疾标准。以此为鉴,受害人受到损害的程度亦可在确定是否适用高度危险责任时予以酌量。

五、前奇点阶段医疗人工智能侵权的制度去障

为实现“善治”与“善智”的良性互构,不仅需要法律制度的未雨绸缪,医疗人工智能其他配套制度也应曲突徙薪。除建立人工智能责任保险、智能基金制度外,还需在医疗人工智能侵权的事前、事中、事后三个环节作出制度安排。

(一)事前制度
1.制定医疗人工智能国家、行业标准

为了规范医疗人工智能的设计、生产、数据采集,实现有效监管,我国需要结合国内人工智能发展现状制定医疗人工智能的相关国家强制性标准,主要包括:设计标准、制造标准、算法标准、信息采集处理标准等。除此之外,还应考虑产业发展的迫切度,充分发挥人工智能设计机构、生产企业参与制定医疗人工智能产品相关标准的积极性,制定医疗人工智能的行业标准。


2.设立医疗人工智能审查机构

《医疗器械监督管理条例》规定,对我国的医疗器械按照类别进行备案管理与注册管理。第一、二、三类医疗器械的管理部门分别为备案人所在地设区的市级人民政府食品药品监督管理部门、申请注册人所在地省、自治区、直辖市人民政府食品药品监督管理部门以及国务院食品药品监督管理部门。2015年,我国根据《工业机器人关键技术产业化实施方案》于上海建立了国家机器人检测与评定中心以及国家机器人质量监督检验中心。但是,国家机器人检测与评定中心的主要工作为对机器人整机性能与安全试验等进行评估和检测,以物理安全为主,并不涉及对人工智能产生的各环节进行审查。因此,就目前我国医疗器械与人工智能的监管现状而言,缺少对医疗人工智能进行专业化、实质性审查的机构。为了保障医疗人工智能的良性发展与患者的生命健康,亟待建立专门的医疗人工智能审查机构对于器械进行实质性审查。

(二)事中制度
1.配置黑匣子

“黑匣子”主要用于记录飞机数据,现被学者广泛建议应用于人工智能领域,记录人工智能的工作情况。对于医疗人工智能而言,黑匣子尤为重要,它是确保医疗数据可追溯的关键设备,在利用人工智能器械对患者进行诊疗的过程中,需要保证这一医疗活动记录仪的配备与正常运作。而这需要生产者与医疗机构完成如下义务:首先,黑匣子的装置应当与医疗人工智能器械实现“三同时”,即同时设计、同时制造、同时投入使用,由生产者负责。其次,医疗机构在对患者实施诊疗前,应对人工智能器械进行必要维护与检查,确保黑匣子的正常记录功能。


2.建立沙箱区域

将医疗人工智能置于开放的网络环境中从事医疗活动,会放大医疗设备本身的脆弱性。如起搏器、除颤器等设备较容易受到黑客攻击。医疗数据面临被窃取滥用的风险,医疗人工智能甚至有可能被操纵,而这均将对正常的医疗活动秩序与患者的生命财产安全造成不赀之损。因此,建议建立医疗人工智能沙箱区域。保护医疗人工智能的关键程序在医疗活动中得以正常运行,而不受外部的干扰与破坏。

(三)事后制度
1.改革医疗质量安全事件报告数据库

为了全面掌握、预防、应对医疗人工智能侵权事故,有必要建立人工智能医疗器械事故报告数据库,如美国的莫德(Maude)数据库,该数据库是针对强制性(生产者和销售者等)和自愿性(医疗保健专业人员、患者、医疗机构)提交的与医疗器械相关的不良事件报告进行的公开收集。每个不良事件报告都包含设备名称、生产者名称、事件类型(“故障”“伤害”“死亡”或“其他”)、事件日期、报告日期、事件描述与生产者叙述字段等信息。但是,莫德数据库对于医疗机构的要求为自愿报告,某些医疗机构可能会出于防止声誉受损、逃避责任等因素而不主动对已经发生的致害事故进行报告,遂难以捕获所有的不良事件,数据周延性不足。我国《医疗质量安全事件报告暂行规定》对各级医疗机构则科以强制的报告义务。但是,缺乏对于生产者、销售者等主体报告义务的规定,且未建立医疗人工智能器械安全事件的专项报告机制。因此,建议我国对目前的医疗质量安全事件报告数据库进行改革细化,增加关于人工智能器械的专项报告,并借鉴莫德数据库对生产者等主体的报告义务以及具体报告的内容作出要求。


2.成立人工智能鉴定委员会

由于行业与技术壁垒,我国既有的产品质量鉴定机构、医疗鉴定机构与司法鉴定机构无法胜任医疗人工智能器械的鉴定工作,而科学准确的鉴定报告对于法院判断致害原因举足轻重,同时也直接影响到受害者的获偿结果。因此建议成立医疗人工智能鉴定委员会,其组成人员可包括:具备在人工智能领域工作若干年限的经历和较强专业技能的技术专家、产品质量技术监督部门干部、临床医学专家、法医学专家等。


3.设定人工智能赔偿上限

为了限制医疗人工智能产品侵权责任对于企业造成的寒流效应,同时鼓励医疗机构引进人工智能器械,可为医疗人工智能侵权赔偿数额设定上限。如澳大利亚昆士兰州的民事责任法所规定的赔偿上限即可扩展到人工智能领域。在美国,亦有学者提出,包括沃森在内的医疗人工智能应像医疗事故制度下的医生一样受到保护,包括对其赔偿责任进行限制。


4.试行国家先行赔偿

由于赔偿限额的设定,受害者有可能面临着无法得到充分救济的风险。因此,在赔偿限额以外,可由国家赔偿进行补充。对于赔偿能力不足的中小人工智能企业,国家可先行对受害者给予赔偿,俟医疗人工智能产业臻于成熟后,通过向生产企业征收追溯性保险费用的途径逐渐实现风险的社会化。这样的做法并非个例,在比较法关于高度危险设施的责任承担中可找到类似的制度设计,如美国对于核设施发生核事故造成他人损害,实行由核能管理委员会对受害者进行先行赔偿,然后向持有经营核设施许可证的企业收取追溯性保费的措施,每个企业根据其拥有的反应堆数量支付相应的数额。

结语

对于人工智能技术,既应避免成为盲目乐观的技术至上论者,亦须防止成为过度恐慌的技术灾变论者。就目前人工智能技术的发展状况而言,奇点的来临仍是一个甚为遥远、颇具臆想性质的反乌托邦,人工智能将在可预见的时间内长期处于前奇点阶段,而在这一阶段内,对于由人工智能的运用所衍生出的诸多隐忧,法律需要有所回应,以解决模糊不清的人工智能法律定位、捉襟见肘的法律适用、函矢相攻的实务处理等问题。举一隅而三隅反,就医疗人工智能侵权而言,刻板地适用现行法律关于产品责任、医疗损害责任、高度危险责任的相关规定已难以完成准确的演绎推理。因此,应以最小化与程序化为原则,对法律进行适度的改造,而非进行斗榫合缝的法条设计,从而令医疗人工智能侵权案件能够通过适用改造后的产品责任、医疗损害责任,并个别适用高度危险责任,得到合理的解决。与此同时,从事前、事中、事后等各环节入手,进行相关的制度完善,规范医疗人工智能的发展,限制其发展过程中产生的不良效应,以期引导人工智能技术循“善智”之路径造福人类。



上海市法学会欢迎您的投稿

fxhgzh@vip.163.com


相关链接

2021世界人工智能大会法治论坛征文

责任编辑:孙建伟    金惠珠

请帮助点赞、在看


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存