查看原文
其他

杜一诺 蔡颖慧|举证责任分配规则在智能医疗侵权中的适用研究——以实体与程序双重视角为切入点

杜一诺 蔡颖慧 上海市法学会 东方法学
2024-10-09

实体法与程序法交叉研究的另一重要主题是证明责任理论,实体法提供了证明责任分配的规范依据,而程序法提供了证明责任分配的程序规则。伴随着人工智能技术在医疗领域的普及,因患者在医疗人工智能的临床使用中受到侵害,进而向医疗机构与软件开发公司提起诉讼的现象已不再是个例。在医疗人工智能致害侵权责任的划分问题上,不同国家与地区的机制不同。我国将医疗人工智能致害侵权责任分为医疗损害责任与医疗产品责任。不同的民事特殊侵权责任项下的归责制度与要件构成,直接影响诉讼中证明责任的分配与诉讼模式的转变。由于医疗人工智能的艰深技术运用导致的证据偏在情景的产生,需要将危险责任理论引入医疗人工智能致害纠纷的证明责任分配规则中。法院可根据具体情形适用举证责任倒置与举证责任减轻;同时,在当事人申请进行证据调查活动后,法院可通过文书提出命令等手段平衡双方当事人的证据收集能力。

一、问题的提出

近年来,随着人工智能技术的成熟,在医疗领域应用人工智能技术的产品越发多样。依托整合海量医理与诊断案例的数据库和模拟人类大脑运转模式的神经网络机制,传统上由医生进行“提出问题→分析问题→制定方案→排查最佳→落实行动”全流程掌控的医疗决策程序,已然可以将前三个步骤委托给医疗人工智能决断。
人工智能技术的发展在提升医疗便利度的同时,也为社会带来了医疗人工智能致害纠纷如何化解的隐忧,有关医疗人工智能致害纠纷的法律问题主要集中于承担责任主体的抉择、证明责任的实体分配标准和程序规范问题。例如,在英国的“威尔斯诉埃塞克斯地区卫生局”一案中,“医生完全按照人工智能输出的数字化专业知识执行治疗方案而导致患者延误最佳治疗时机是否需要承担民事责任”便是主要争议点之一;据Security Scorecard发布的美国2023年度医疗保健行业网络安全报告,超过75%的医疗行业曾感染恶意软件病毒,88%的医疗产品制造商曾受到恶意软件病毒攻击,患者在此前提下得到的诊疗护理质量贬损并进而人身伤害,相关主体按照何种程序方能寻求有效救济,成为法律工作者必须面对的问题。此外,世界卫生组织于2021年在《健康人工智能的伦理与治理准则清单》中提出了人工智能在医疗领域的六项基本支柱,其中之一便是“促进问责机制”,即当医疗人工智能造成患者损害的情形下,必须有明确的程序设置以确定由谁为此负责。
最早启动对医疗人工智能侵权责任主体、归责制度之研究的学者群体以美国与欧盟为代表,其研究成果也更为成熟丰富。美国学者泽维尔·弗兰克认为,医疗人工智能的出现与发展形成了对传统归责原则的挑战,人工智能技术的复杂性与不确定性导致很难定夺究竟是谁使得损害发生。美国学者约翰·弗兰克·韦维尔则提出,如果自然人主体已经对人工智能尽到了监管义务,那么应当由人工智能作为法律主体承担侵权责任。欧洲学者马塞洛·克莱维斯创造性地提出建立一个强制智能机器人投保的基金会,以基金会的资金代替人工智能承担侵权责任。欧洲大学法学院教授乔凡尼则支持由自然人承担侵权责任的观点。
人工智能在医疗场域下的侵权责任归属与证明责任分配问题,得到了国际组织与其他国家的瞩目,不过,我国对人工智能侵权的研究大多集中于知识产权领域以及智慧驾驶领域,有关医疗人工智能侵权的研究以及参考文献数量较为有限。本文将整合总结各类学术成果,从民事实体法与程序法相结合的维度出发,结合医疗人工智能的操作特性,充分糅合证明责任分配的实体规范与程序规则,探讨医疗人工智能致害的侵权责任归属并重构证明责任分配规则。

二、我国学界在医疗人工智能侵权诉讼领域的成果

(一)医疗人工智能作为民事主体的适格性问题之思

对医疗人工智能致害侵权问题的研究,首要的任务是明确人工智能的法律地位。学者袁曾与金梦对此持支持态度,认为当前阶段的人工智能技术已具备深度运算与自主学习的能力,超越了工具的范畴,理应被赋予法律主体资格。但是国内绝大部分学者对此持否定观点。王利民教授认为,目前的人工智能技术尚未形成颠覆民法传统理论的局面,因此并不需要考虑人工智能民事法律主体适格性的问题。杨立新教授指出,人工智能仅具有人工类人格的物,本质上仍是权利客体,不属于法律主体的范畴。
由于对医疗人工智能法律地位的判断问题,综合了法学与医学的学科内容,因此有必要整理参考医学领域的专家观点。以针对全球排名第三的常见恶性肿瘤——结直肠癌的全周期诊疗的深度神经网络方法为例,章毅教授与学者王晗认为,虽然人工智能诊疗技术在淋巴结转移预测、结直肠癌放疗靶区勾画等部分场景下,可以达到媲美人类专家的水平,但是由于开源数据稀缺、数据不平衡等原因,深度神经网络的智能诊疗系统仅能发挥辅助功效。
笔者认为,在弱人工智能时代,考虑到人工智能并不具备独立支配其做出行为的思想意志和对行为承担相应法律后果的财产能力,以及精减立法成本、节约法律资源的社会效果期待,人工智能不应被赋予民事法律主体的适格性。人工智能所展现的性能和举动以及所引发的结果,都是特定自然人意志情态的数字化表达,纵使出现意外事故,也并非人工智能凭借自己的意念而为之,因此,医疗人工智能无须法律的独立评价,其致害纠纷终将归责于人类自身。

(二)医疗人工智能致害的责任类型与归责理念之争

关于国内医疗人工智能致害侵权责任的研究,郑志峰教授从医疗技术损害责任和医疗产品责任两个维度着重分析了救济患者的法律路径。李彤教授提出,宜选择医疗损害责任与医疗产品责任作为人工智能在诊疗领域致害归责的两种责任类型,是因为主要是考虑到医疗损害责任与医疗产品责任,分别可以追究两层法律责任问题,一个是人的问题,一个是物的问题。刘云生教授认为,医疗人工智能本质上仍属于产品,其所导致的法律问题应参照产品质量法予以化解。何炼红教授提出,造成医疗事故发生的责任主体并非单一个体,需要从各主体与医疗损害间关联性大小的角度出发,依次确定责任大小与赔偿份额。王竹教授与学者王轶晗则从法律规则的最小化与程序化改造着手,通过适用经改良的产品责任、医疗损害责任与高度危险责任来回应医疗人工智能致害的归责问题。学者孟亚楠的观点是,人工智能的运作离不开大数据的支撑和算法算力的架构,因此数据与技术的提供者也应当承担法律责任。

(三)医疗人工智能侵权的举证责任与程序标准之辨

在医疗人工智能致害侵权纠纷的具体诉讼场景下,由于牵涉人员复杂、存在技术壁垒,且我国在民法典、民事诉讼法以及《证据规定》中并未予以详尽确切的说明,举证责任应当由何方当事人负担,即举证责任在诉讼环节的分配问题,以及需要达到何种证明程度,一直以来都是司法制度理论界争论的重要内容。在学术研究的广阔领域中,众多理论观点不断涌现。其中,近现代提出的举证责任分配理论,特别是规范派的观点在学术界占据主导地位。这一理论源于德国法学家罗森贝克的创新,他强调,法律效力的产生取决于法律规定的确切要件是否得到满足。面对事实真伪不明的情况,规范说依赖于明确的证据规则来引导法院作出裁决。此学说区分了构成法律基础的事实和非基础要件性事实,对权利主张和法律关系的存在与否进行了精细划分。首先,当涉及法律关系确立的事实系构成性要件,例如判断双方当事人的民事行为能力如何,则由主张该法律关系不存在的一方负责举证并阐明;但如若构成性要件系特殊要件,那么由主张法律关系存在的一方承担证明责任。其次,对于阻碍法律关系成立的事实,例如违反公序良俗或当事人之间的合意属于虚假的意思表示,则由主张法律关系自始不存在或者妨碍法律关系正常成立的条件达成的一方,负担举证责任。最后,当法律关系在发生后因清偿、提存等行为而终止或变更,同样由主张关系不存在的当事人在诉讼中承担举证义务。这一理论以其细致入微的分类和责任分配原则,构建了诉讼中举证规则的坚实框架。
关于诉讼中举证责任如何分配所依据的标准,我国目前只有民事诉讼法第67条确立了“谁主张、谁举证”一般性原则,司法解释规定做出了一定程度的完善,对此理论界也是众说纷纭。其中理论通说是采取法律要件事实分类说,法院实务界也多为运用。该学说遵循的原则是:第一,对于主张特定权益或某法律关系成立的一方,需证实支撑其主张的法律事件的真实性;第二,反对此权利正当性或法律关系成立之可能性的对方当事人,则需明确主张妨碍因素的存在并履行相应的举证义务;第三,如欲证明原先的权利状态发生变化,或者法律关系存在变更、消灭等情形的当事人,必须向法庭出示变更或消亡的确凿证据;第四,同理地,对前者主张存在质疑的一方,亦需就相关事实提供充分证据。尽管这一理论目前仍面临许多争议,不过大部分学者依然认同其合理性和可行性。学者李浩提出了举证责任分配原则规范说,其内容也与法律要件事实分类说相近。学者叶自强提出在具体的司法实践中,举证责任的划分首先遵循法律和司法解释的明确规定;然而,在法条未作详细指示时,法官会运用其专业知识和实践智慧来进行裁决;如果既缺乏明确的法律规定、司法解释的指引,也无可资借鉴的经验法则,那么,便需依托公平正义和诚信原则,进行具有弹性且公正的举证责任分配。另有学者陈刚主张倾向于以形式标准为主,实质标准为辅,即应按照下列顺序分配证明责任:法律规定→司法解释→证明责任契约→法律要件分类说→利益衡量说。
综上所述,尽管国内对医疗人工智能致害侵权的问题一直保持着关注,但是在责任归属与证明责任分配的程序研究上,仍然存在着数量较少、内容局限的不足。有鉴于此,本文首先在实体法上厘清与医疗人工智能致害相关的不同主体的损害赔偿责任,即先行解决“谁来为医疗人工智能造成的损害负责”的问题;其次,进一步确定该责任类型所适用的归责原则;再次,基于医疗人工智能致害的责任归属主体和原则,对当前我国在民事诉讼程序中所适用的证明责任制度进行分析;最后,为完善我国医疗人工智能致害的证明责任分配规则提出建议。

三、医疗人工智能侵权的责任主体认定

自2017年中国人工智能研究元年以来,关于“人工智能致害的归责主体”问题出现了以下几种学说,即高度危险责任说、产品责任说、雇主责任说、监护人责任说等。除高度危险责任说仅适用于智慧驾驶外,本文将结合智慧医疗的人机互动场景,对这些理论进行具体辨析。

(一)医疗产品责任说更有助于患者求偿目标的落地

既然医疗人工智能无法摆脱辅助型地位,那么其依然属于民法上“物”的范畴,加之其具备迎合患者诊疗需求的功能,符合产品的定义。如果医疗人工智能致害采用医疗产品责任说,那么根据我国民法典人工智能技术的开发者、器械的制造者以及医疗机构需要承担不真正连带责任,当患者遭受损害后,如若人工智能的生产者或者医院不能证明存在三项免责事由,或者不能就“缺陷的存在与否以及因果关联”进行成功抗辩,那么最终由生产者承担赔偿责任。
郑志峰教授在产品责任说的基础上提出,根据《医疗器械监督管理条例》第103条的规定,医疗器械包括直接或者间接用于患者诊断的计算机软件,医疗人工智能致害适用民法典第1223条规定的“医疗产品责任”是应有之义。对此,笔者深以为然。从权益的救济效果来看,为保障作为医疗产品与服务消费者的患者能够尽快、更大程度地实现求偿目标,适用医疗产品损害责任规则、将医疗机构纳入患者主张赔偿的对象范畴中,更加契合便于患者求偿的立法目标。有观点认为,将致害责任归属于技术研发者与器械制造者,会在制度层面抑制市场的创新热情,不利于人工智能技术的广度推进和深度发展。对此笔者认为,无过错责任原则不仅不会抑制人工智能技术的创新拓展,反倒会为激励科创公司的研发热情而提供稳定的法律框架和可预期的风险评控。

不过,笔者并不认同郑志峰教授提出适用“医疗产品责任”的另一项理由。郑教授指出,宜由医疗产品责任解决“物之缺陷致害”的问题,由医疗技术损害责任解决“医师存在过失”的问题。本文却以为不妥的缘由是,将“医疗产品损害责任”定位于解决物的问题,显然未能充分释放这一法律规定纷止争的功能。医疗产品责任不仅可以应对医疗人工智能产品存在缺陷进而致害的法律纠纷,还可以对医师在采购、维护、使用过程中出现的过失行为予以评价。具言之,如果医疗人工智能在流入市场时便已存在缺陷,且医师在采购等环节同样存在过错,那么人工智能生产者与医疗机构需要根据各自过错大小,承担相应的法律责任;如果医疗人工智能确实在“生产-销售”环节已经成为缺陷产品,但是医疗机构在采购程序等方面完全合法,难以发现其缺陷的存在,那么经由医疗机构先行履行赔偿责任后,即可向真正的最终债务人追偿。从归责主体容量和救济可行性的视角分析,医疗产品责任相较于一般的产品责任,更适宜作为医疗人工智能致害的责任类型之一。

但是,当前司法实务中采用医疗产品责任对智慧医疗背景下的人工智能致害问题进行归责,在证明责任的具体分配上依然存在着许多问题。这是因医疗人工智能产品具有技术复杂性和算法黑箱所导致的,如果患者希望所主张的“产品缺陷与自身损害之间存在因果关系”被法院所支持,则需要根据“风险-效用”司法认定规则,分析设计层面可能存在的算法、样本、软件、硬件层面的缺陷;还需要根据“对预期设计的偏离”标准,对医疗人工智能技术转化为流水线产品生产过程中,可能存在的制造缺陷进行判断;此外,该医疗人工智能产品是否尽到了充分合理的警示义务以及跟踪观察义务,同样对专业知识水平和综合统筹能力提出了高要求。

(二)诊疗损害责任说更有益于医师职业责任的履行

将医疗人工智能致害纠纷放置于诊疗损害责任说的理论背景下探讨,是出于对智慧医疗环境下,人机交互诊疗模式“智能辅助性+医师再判断”特征的把握与考量。根据民法典第1218条、第1221条以及第1222条,诊疗损害责任的认定适用过错责任原则,即只要医疗机构与医师的行为能够被直接认定或者推定为存在过错,并导致患者遭受损害的,患者可向医疗机构主张赔偿责任。在适用诊疗损害责任时,我国民法典第1224条为医疗机构与医师设定了免除损害责任的抗辩事由,在医疗人工智能致害的场景下,可供医疗机构与医师作为抗辩依据的是第3款“限于当时的医疗水平难以诊疗的”。
采用诊疗损害责任说的意义在于,能够通过预设责任负担的方式倒逼医疗机构与医师积极提升诊疗水平、审慎做出诊疗决断、严谨执行诊疗措施。毕竟尽管医疗人工智能凭借大数据与深度学习可以做出与人类医学专家相媲美的诊断建议,但是医生没有必须遵循医疗人工智能诊疗建议的义务,且医生针对患者个案病例进行独立判断更是法律法规与医师职业伦理的要求和期待。根据欧盟人工智能法案(2024),医疗人工智能属于可能使公民的生命与健康面临风险的基础设施技术,即被纳入高风险人工智能系统之列,此类人工智能系统须配备有效的人类监督机制,以确保系统决策出现偏差与错误时能够及时人为干预和纠正。与此同时,以医疗领域为代表的公共部门在使用高风险人工智能系统时,还应进行全面的风险评估,尤其要保障医疗人工智能所作出的诊疗决策具备可解释性、可审核性与可矫正性。由此可见,尽管医疗人工智能在流入市场前已经由提供商、分销商完成了与之相关规范义务,但是医疗机构与医师作为此类高风险人工智能系统的使用者,同样需要担负起监控、维护和数据保护影响评估,以及在医疗系统做出诊疗决策时提供解释路径等责任。我国人工智能法(学者建议稿)(2024)规定了安全可问责原则与人工介入原则,并明确提出“人工智能决策仅可作为医疗决策的参考”。概言之,在智慧医疗环境下,医疗机构是人工智能致害的第一责任人。

(三)雇主责任说等因严苛性可能导致适用效果不公

如果医疗人工智能致害采用雇主责任说,那么医疗人工智能则被视为医疗机构的“被雇佣者”。人工智能在完成诊疗工作范畴内实施的、导致患者发生损害的行为,需要由雇主—医疗机构承担赔偿责任。在此学说前提下,医疗机构背负了无过错的替代责任。相较于医疗产品责任说,医疗机构成为唯一的责任主体,且无法以尽到管理义务和注意义务而免除责任,最好的结果是达到减轻责任的标准。然而事实是,医疗人工智能致害仅归咎于医疗机构的管理是不公平的,毕竟医疗人工智能不是纯粹意义上的自然人劳动者,而是综合叠加了技术设计者、器械制造者以及医疗机构使用者等多重影响因素的产物。
与此同时,在监护人责任说下,对作为医疗人工智能这一“有限人格”的监护人的医疗机构而言,即使已经尽到了监管职责,也只能减轻而非免除侵权责任。在医疗人工智能致害纠纷适用雇主责任与监护人责任的语境下,侵权责任需由医疗机构以一己之力承担,且得以支持自身免责抗辩的事由也受到明显限制。在已知“医疗人工智能致害风险总会以一定概率发生”的前提下,面对“责任无法全部免除”的规则设定,医疗机构便会倾向于将工作中心从注重智慧医疗的采买与管理以保证患者的就医安全性上,转移至提升自身的赔偿能力或者应诉能力,以尽可能降低医疗人工智能致害纠纷对医院声誉的影响。

经过对医疗人工智能责任主体理论的比较,本文发现将设计者、生产者、医疗机构作为责任主体具备合理性,以此为线索,进一步分析医疗人工智能致害的责任类型和归责原则适用。

四、危险责任理论下医疗人工智能致害的归责原则分析

当前我国侵权责任归责原则的主流观点是三元论,即过错责任原则对应一般侵权损害行为;无过错责任原则适用于特殊侵权损害行为;公平责任原则在除前述两种情形以外的其他案件中发挥作用。本文基于三元论的观点进行分析研究,结合前述对医疗人工智能致害的责任主体的分析,笔者认为有关“归责原则”需要解决的问题有二:第一,如果人工智能技术的研发者与人工智能机体的制造者作为人工智能致害的责任主体,是否应当适用无过错责任原则;第二,如果医疗机构作为责任主体,是否应当适用过错推定原则。对此,笔者将引入德国的“危险责任理论”,并紧密结合我国诉讼法与侵权法现有体系,以有的放矢地构建医疗人工智能致害的归责思路、系统回答前述两个问题。

(一)危险责任理论适用性认定与内涵分析

根据前文对医疗人工智能致害责任主体的探讨可知,在我国的法律框架下,由诊疗人工智能导致的患者损害通常属于特殊侵权,即产品责任与医疗损害责任。相较于一般侵权,特殊侵权的责任主体往往不一定是直接导致损害事实的一方,而是对损害的发生起到“制造危险”作用的一方。例如,高空抛物责任的归责主体范畴为建筑物的管理人与所有人,即任何对致害物品坠落可能存在“制造危险机会”的居民或管理者,都将成为被追究责任群体的一员;再比如饲养动物致害责任的归责主体范畴为动物的饲养人或者代管人,即尽管损害事实由动物追扑、撕咬所导致,但是基于宠物管理人的妥善管控义务,其需要对并非出于受害人故意的损害承担无过错责任;又如医疗产品责任,如果患者因医疗器械缺陷而遭受损害,可以选择向生产者或者医疗机构提出索赔请求,这是考虑到智慧医疗环境下的诊疗决策不当致害,其危险源有两处:一是设计者、生产者研发与制造存在缺漏,二是医师在“决断转化为措施”的执行环节缺少严谨的判断和必要的注意。简言之,由于医疗人工智能致害纠纷属于特殊侵权之列,且特殊侵权的归责思路与“危险”的制造与控制密切相关,因此本文拟引入“危险责任”概念,基于智慧医疗背景下的“危险”本身,来分析我国民法场域内医疗人工智能致害的归责机制。
笔者从危险责任理论入手,并非要跳出无过错责任原则和过错推定原则的归责路径之外而另辟新路,实则是希望通过引入“危险”概念嫁接于责任主体与归责原则之间,毕竟无论是无过错责任机制抑或过错推定机制,都未能直接明了地道出“归责的事由”,仅是通过技术性立法的手段将对应责任严格化,缺少针对某一责任主体适用何种归责原则的具体解释。
危险责任的概念源自德国学者,其本意是指从事某种危险活动,或者持有、经营某种具有危险的物品、设备的人,在因其活动或物品、设备造成他人损害时,无论该人对损害的发生是否具有过错,均应就该损害承担赔偿责任。从时间维度可将危险责任划分为古代危险责任与现代危险责任。现代危险责任包含两个层面:其一是危险活动过程中产生的损害,其二是危险活动结果导致的损害。结合医疗人工智能致害的场景,医疗技术损害属于危险活动过程中产生的损害,医疗产品损害属于危险活动结果导致的损害。危险不会凭空产生,既然危险本身是本文认定归责逻辑的重要依据,那么厘清主体与危险、危险与归责原则之间的联系,便具有必要性。关于主体与危险之间的关系,本文拟采用危险开启者说与危险控制者说予以阐明;危险与归责原则之间的关系,本文计划通过危险责任的根本思想加以诠释,即如何对不幸损害进行合理分配。

(二)医疗危险开启者适用无过错责任原则

1.危险开启者说的当代内涵与适用主体范畴




危险开启者说认为,由于危险的来源在于物品、装置本身,所以允许物品与装置存在于客观世界的制造者需要对所造成的损害承担责任。危险开启者说是危险责任理论的分支,其最初的功能在于填补传统德国民法上过错责任制度的适用空缺,有效地应对并解决随着社会发展而层出不穷的特殊侵权新形态。归责原则的设定是为回应责任成立的正当性问题,而归责原则背后由归责理念进行支撑,即如果以“主观过错”为归责理念,则属于具有道德贬抑性的过错责任;如果以“危险”作为归责缘由,那么就归为不涉及道德否定性评价的无过错责任原则。在出现危险责任理论之前,受资本主义自由经济的影响,德国侵权法以“过错”作为理念基础。但是当事故发生后,由于法律所反映的归责逻辑是有过错才有责任,因此当事故的发生存在随机性与偶然性时,公司将无需承担损害责任,这必 将导致因权益无从救济而扩大社会消极影响。伴随着自由主义经济向国家垄断资本主义经济过渡,危险责任理论旨在填补事故损害,故跳出过失责任理论,从危险的客观性和损害填补的必要性角度加以认定。由此,危险开启者说作为危险萌发的根源便应运而生。

将危险开启者说的理念放置于智慧医疗的场景下,可以做如下理解:人工智能研发企业与制造商分别可能在设计和生产程序中使人工智能掺杂危害他人人身与财产安全的危险因素,因此法律赋予危险源开启者以更重的注意义务、承担无过错责任。不过,医疗人工智能的研发内容艰深复杂,绝大部分存在技术壁垒,当其在诊疗过程中导致患者损害时,普通病患、医师与医疗机构以及人工智能机械外壳、零件的生产与组装者,很难清楚理解与切实掌握医疗人工智能的运行原理、决策逻辑和后台程序,属于证据偏在情景下的弱势方,而研发者恰恰是医疗人工智能产品核心科技的“生产者”。但是在诉讼程序完结、法庭调查与辩论之前,法官无法断定致害的危险源必然是研发者或是生产商,因此根据我国民法典第1202条的规定,应当将“研发者”同样解释为“生产者”,以“底层技术逻辑萌发的危险”作为责任成立的依据。在明确医疗人工智能技术设计者的法律地位与归责原则的基础上,需要注意到,虽然研发者与制造者同属医疗产品责任的主体,但是两者对危险源的作用力不同,因此有必要厘清双方的责任边界,为程序法提供遵循。我国法律将制造缺陷与设计缺陷合而为一,视不合理风险和违标产品为共同瑕疵,可见并未对人工智能技术的研发者与产品的制造者作法律责任与证明义务上的区分。为明确两种缺陷与两类生产主体的差异,有必要借鉴域外规定。

2.设计者责任与生产者责任的域外制度对比




从侵权责任成立要件的角度分析,医疗人工智能产品设计者与制造者责任的构成,关键在于“产品缺陷”的客观存在与性质辨别。美国产品责任法对于“设计缺陷”与“制造缺陷”的认定,采用“对比-排除”的路径。具体而言,作为权益遭受侵损的原告方需要通过各种途径寻求证据,以证明致其损害的产品并未严格遵照设计标准与制造要求,如果能够依照此路径获得法官的确信,则有生产者承担产品责任;反之,如若产品本身不存在背离设计蓝图的非规范性操作,那么因产品设计缺陷引发的损害将归咎于研发者。由于产品可能在事故或者侵权过程中灭失,为了减轻受害人的举证责任,美国司法实践引入了“产品故障理论”,原告只需证明产品在正常使用中曾发生故障,即可作为证明产品存在缺陷的初步证据。在德国的产品责任评价体系中,缺陷的产生机理与责任归属取决于合理期待标准的适用,即基于绝大多数产品使用者对产品可能存在的危险隐患与安全性能之一般理性判断,如果出现突破如前所述的安全性期待底线与危险警示等级上限的危险情况,那么便可认定为产品责任,如果消费者普遍对某一项安全标准不抱期待,则与此相关的产品故障属于意外事件。

通过类比英美两国产品责任法律规定,笔者认为,在医疗人工智能致害纠纷中,区别判定设计者与生产者责任确有必要,且无须以国家或者行业制造标准为圭臬。这是因为一方面,当前我国在医疗人工智能制造领域并没有统一的国家级标准或者行业参考数值;另一方面,借鉴英美两国的处理方案,采用“设计标准对比”的方法,足以嵌合在司法程序中清晰认定研发者与制造者两类生产主体之法律责任的工作要求。

3.危险开启者理论在智慧医疗侵权中的适用




对于人工智能设备的设计者和制造商,应遵循严格责任原则,这是基于对所有产品制造的一贯要求,尤其是针对那些复杂度高且不具备民事主体地位的医疗人工智能程序设备而言,在产品责任的框架下,依照医疗产品责任的无过错责任原则设定责任归咎逻辑,亦是应有之义。尽管它们被视为广义的产品,但因其特殊的性质,将其生产者纳入无过错责任范畴是现有法律体系内的逻辑延伸,易于理解。这一原则的目的是确保因产品缺陷导致的损失能得到妥善补偿,迫使相关方承担起责任,不容许通过法律途径试图规避。
将医疗人工智能制造者作为生产者纳入无过错责任原则,既符合我国民法典的规定,也能推动他们履行最高的谨慎义务,以预防在将技术落地、设计转化的过程中埋藏潜在伤害。作为风险链条的初始环节,严格责任的规范机制能有效降低前期风险。

在医疗产品责任的框架中,设计者的责任尤为重要。相较于流水线的组装生产工作,医疗人工智能本身便极有可能因为设计缺陷,作为危险结果进而导致损害,而非制造工人或者机械手臂操作失误所导致隐患存在。鉴于人工智能的高度专业性,设计缺陷可能成为关键因素。由于尚未形成行业共识的成熟设计,即使是符合标准的产品也可能存在隐性问题。因此,设计者和生产者都不能简单地被一概而论,需要分别约束。通过实施无过错责任,设计者和制造商被迫全力以赴,避免在产品设计和制造过程中出现缺陷,从而切实履行法律规定的高度注意义务,以减少潜在损害。

如果将医疗人工智能视为医疗产品,那么就需要在医疗产品责任纠纷的环境下建立无过错责任制度,即人工智能技术的研发者与器械的制造者需要为自身存在缺陷的医疗机器人引起的损害负担严格责任。据前所述,医疗人工智能的致害纠纷存在医疗损害责任与医疗产品责任的二元结构。考虑到医疗人工智能技术的复杂性,如果采用过错责任原则应对致害纠纷的责任归属问题,相较于设计者、制造者与医疗机构,无疑不公平地加重了患者的证明负担。与此相对,采用无过错责任原则,有助于精简漫长而复杂的诉讼过程,提升司法效率,并能够直接将证明责任归置于真正转移和吸纳成本的当事人。

(三)危险控制者适用过错推定责任原则

1.危险控制者说的关键准则与适用主体范畴




危险控制者说认为,危险行为或物品持有者与使用者实质上操控着潜在伤害源头。法律赋予了自然人与机构操控此类风险的权限,也明确了两条关键准则。首先,当法律明确规定控制特定活动具备危险性及管理特定物品存在风险时,相关主体需履行高度审慎的注意义务。若发生伤害,这表明控制者未能充分履行职责,存在疏忽大意的主观过错,理应承担损害赔偿责任。其次,鉴于从事危险活动和控制的主体从中获取了丰厚的利益和利润,这些收益源于潜在风险,故他们有责任应对由此产生的任何侵权后果。在医疗人工智能普及使用的智慧医疗环境下,无论是医师个人或是医疗机构,都可能拥有或使用这些机器,他们是智能机器的所有者和管理者。因此,人工智能机器的所有者和使用者自然而然地被视为风险的直接把控者。
2.使用者责任与所有者责任制度的剖析梳理




在所有权与使用权分离的状况下,必须评估相关自然人是否具有过失。本文主张,当所有者与使用者不一致时,两者构成共同侵权,需承担连带责任。外部赔偿完成后,他们可按各自责任比例分担,由承担赔偿的自然人向其他有过错的自然人求偿。我国民法典侵权责任编已明确规定共同侵权行为的连带责任。具体分析医疗人工智能机器的个人所有者,他们在允许医疗人工智能设备由医师使用时,实际上也同步转移了直接风险控制权。无论授意动机是经济利益还是信赖合作,作为医疗人工智能所有者的机构主观上都应当了解并知悉风险。因此,所有者有义务评估接收方是否能妥善管理风险。若接收方后续使用机器造成损害,说明所有者事先未能履行应有的注意义务,可视为有过失。关于法人所有者的情况。在此情况下,关键在于确定公司雇员使用人工智能机器导致损害的法律
责任。由于使用者是个人,可以参照现有法律中关于法人责任和雇主责任的规定。民法典侵权责任编列明了雇主、用人单位和劳务派遣单位的侵权责任情况。作为拥有并利用医疗人工智能机器盈利的医疗机构,应对机器和员工进行合理监督。若发生侵权,这表明医疗单位未尽其责,可推断其对损害的发生持放任态度,存在过失,故需承担相应责任。对于受害者,应由人工智能机器的所有者负责赔偿。在单位机构内部,如果调查显示侵权是由医师的过失所致,医疗单位有权向其追偿。
3.危险控制者理论在智慧医疗侵权中的适用




针对非法使用的情形,医师自身具有主观过错,需要对其错漏之处引发的危险而导致的患者损害负有民事责任。在医师没有过失的情况下,要对其进行具体分析。从危险责任理论的角度来看,所有权人掌握着风险,在法定使用状态下,所有权人将对风险的控制转移到实际的使用者、操作者身上,系委托行为,换言之,医疗人工智能的实际所有者在暂时转移控制权前,应当进行必要确认和检查,其注意义务的内涵是向医师提供安全无故障的医疗设备进行诊疗活动,因此在医师无主观过错的情况下,医疗单位作为实际的所有人与控制者需要承担赔偿责任。但在不法使用情形中,不法使用者将拥有者对危害的控制状况分割开来,造成随后的危害后果,医疗人工智能所有者与受损害患者之间的伤害关系原因链条被切断。所以,所有者的可责性不高,要看所有者对危害的控制是否具有过失,例如管理者是否玩忽职守,所有者的规章制度是否符合法律规定等。有过失的,也要对自己的过失负赔偿法律责任。但若无过失,则目前我国的做法是由管理者、所有者予以合理补偿。这种说法主要有三个原因:首先,不法使用行为剥夺了医疗单位对人工智能设备风险管理的正当控制权,只要医疗机构可以证明自己并无过失,那么就不能要求其承担全部责任。第二,因为风险的覆盖面很广,按照危害后果及侵权行为的类型来划分,人工智能的风险要大于汽车或牲畜,同时风险会高于普通产品,不过相较于核电、化工等高危行业,其风险又要降低一些。若仅根据过失责任的原理来概括,就无法做到与其风险相符,所以,医疗人工智能在责任分配上要比汽车和产品责任更严厉一些,比高危险性的行为要小一些。第三,采用补偿责任代替强制性的赔偿责任,对医疗人工智能管理者与所有者实施此种补偿方案,并不以医疗单位存在主观过错为前提,也不要求医疗单位授权医师使用人工智能诊疗设备而获利,仅是为了从效率层面与可执行性层面实现对受损害患者的利益填平。采用补偿性机制不仅能够对医疗人工智能机器的侵权行为进行灵活处理,还能够确保当损失超出使用者的补偿能力时,能够对受害者进行有效的保护。
五、危险责任理论下医疗人工智能致害纠纷的举证责任分配

(一)医疗人工智能致害纠纷中我国举证责任分配制度分析

1.患者在两种损害责任中证明责任负担差异较大




在诉讼场景下,当事人之间纠纷的法律评价正向与否、利益天平如何倾向,往往取决于三段论逻辑中“小前提”的设计与整合,是否给法官留下清楚、充分的印象。根据证据裁判主义的要求,小前提须得是基于客观存在的证据而建构的案件事实。可见,影响诉讼胜败的关键因素在于原被告双方对“证据”的把握。举证责任制度就是将由何方当事人进行举证、并承担不能证明所主张事实之不利后果的风险配置,以法律的形式固定下来。举证责任的分配不仅涉及民事实体法上侵权责任的类型与归责原则,更是在民事诉讼法层面,对我国由职权主义模式向当事人主义模式转变、减轻法院诉讼爆炸负担、推进当事人证据调查请求权发展,最终实现民事司法改革目标,具有重要意义。
根据前文所述,医疗人工智能致害纠纷可能同时触发医疗技术损害责任与医疗产品责任两种责任类型,即存在患者“请求权竞合”的情况。面对此种责任竞合的情景,我国司法实务界通常采用“择一请求”的处理方案:即受害者可以选择行使“医疗技术损害责任请求权”或者“医疗产品责任请求权”之一,以寻求赔偿、恢复原本的权利状态,在“债权人”做出选择的同时,未被选择的另一请求权将随之消灭。不过,“另一请求权的随之消灭”仅意味着,在同一损害事实背景下,两种责任不得均发生法律拘束力;换言之,考虑到患者在涉及医疗知识、智能技术与法律策略的诉讼中可能处于弱势地位,因此在司法实践中,其作为原告被赋予了“重新来过”的机会:当法院驳回其中一个请求时,患者可以突破“一事不再理”的原则,选择另一请求权,就同一案件事实重新提起诉讼。在类推适用民法典第186条规定时,患者作为原告可择定其中一种请求权进行民事诉讼的证明活动,患者在其中所承担的举证责任是不同的。如果患者主张医疗机构承担医疗技术损害责任,那么根据该责任类型所适用的过错推定原则,患者虽然无需证明医疗机构的过错程度,但是却依法应当提供足以使法院形成内心确信的证据,例如申请鉴定机构对病历资料的真实性与准确性予以认定,或者证明医师执业存在违反法律法规的行为,以此向法院证明推定医疗机构存在过错的合理性。如果患者主张由医疗人工智能的生产者等承担产品责任,那么依据无过错责任原则,患者无需承担任何有关主观过错的证明义务。由此可见,同一纠纷中,两种责任类型在证明要件及证明程度上存在明显的差别。
具体而言,当患者将医疗技术损害责任作为诉讼依据时,由于该责任类型适用过错责任原则,因此根据“谁主张谁举证”的一般举证规则,患者负担着四项责任构成要件的证明义务,即损害事实的存在、危害行为的发生、医师的主观过错以及因果关系。尽管学术界与相关规范性文件曾提出,为尽量弥补患者举证能力有限而无法切实救济所受损害的劣势,针对医疗损害责任应采用举证责任倒置的规则;但是个人举证能力弱的客观现实并非只能通过举证责任倒置的方式予以化解,且我国民法典已然明确规定此种责任属于一般过错责任,只有严格责任与过错推定责任对应诉讼制度中的举证责任倒置规则。这是因为立法者考虑到医疗行业的专业性和特殊性,为了防止无端怀疑对医学进步造成阻碍,确立了基于过失责任的举证责任分配机制。因此,在医疗技术损害责任纠纷中,尤其是涉及医疗人工智能器械与算法的使用,患者所承担的举证责任会相对繁重,更有可能增加败诉风险。
与医疗损害责任相比,就人工智能致害的纠纷提起医疗产品责任诉讼,患者所负担的举证责任会发生明显简化。鉴于产品责任的归责理念是不问过错与否的严格责任,所以患者无需直接证明医疗机构或是生产者没有尽审慎的注意义务,只需聚焦于人工智能的故障、实际遭受的损失以及两者之间的因果关联,进行取证与举证即可。尽管我国法律未明确实行产品缺陷的举证责任倒置规则,被告可针对性地依照豁免理由予以抗辩,但在司法实践层面,法院通常倾向于从消费者权益保护的立场出发,放宽原告的举证标准,甚至只要求初步证据的存在。尤其是当诉讼客体系医疗人工智能此类前沿科技产品,要求患者对其缺陷进行充分举证并不现实,故只要原告提出缺陷的直观证据,就应认定履行举证责任。由此,对于人工智能医疗致害纠纷,患者主张产品责任所承担的举证责任,较之医疗损害责任会更轻,胜诉的可能性亦会更高。
2.三类被告的举证责任制度程序规范尚不清晰




在医疗人工智能侵权的诉讼纠纷中,当原告指控诊疗服务提供方存在医疗技术过失时,被告有权运用反证策略质疑原告的主张,即通过在反驳环节提出与原告主张相左的证据,以削弱原告证据强度、动摇法官内心确认。当原告选择医疗损害技术责任作为请求权基础时,根据此类特殊侵权的一般过错责任规则的要求,患者需要承担责任构成要件的四项证明责任。原告不仅要证实责任的成立,还要确保证据链的完整,尤其是对因果关系的强有力论证,这往往需要医学专家的专业鉴定,且在坚定基础上试图质疑因果关系的关联性并非易事。医疗责任纠纷的核心基于医师的主观过错,被告可能会利用人工智能在医疗决策中的角色进行辩护。例如,即使医疗人工智能推荐进一步治疗,但医生根据专业判断做出不同决定,如果医生能合理解释为何忽视诊疗程序算法提供的建议,且其行为符合医疗标准,那么他们可能不会被判定有过失。因此,医生能否正确处理人工智能与传统医疗实践的融合,直接影响着损害责任的判定。

在人工智能支持的诊疗场景下,医师的责任并未因技术介入而减轻,其专业决策仍需符合业界规范和现行医疗实践。即使医师与医疗人工智能的判断产生分歧也并不自动意味着失职。医师所执行的诊疗实践需基于充足的证据,否则不能轻易声明其对患者遭受的损害并无控制危险不当的过失。在缺乏充分医学验证的情况下,医生是否履行了注意义务需结合医疗人工智能的指导和患者的具体情况来综合评判。这与民法典第1224条的紧急处置原则相一致,即在特殊条件下,如医生已尽合理诊疗职责或受限于医疗技术水平,医疗机构可以免除赔偿责任。无论采用人工智能诊断还是传统方法,判断是否存在疏忽的关键始终是看是否符合普遍接受的医疗实践,人工智能的诊断建议通常不具备同等的法律效力。

在处理关于产品责任的法律争议时,生产者(设计者与制造者)必须确立因果关系的断裂或证明产品无瑕疵,以此为逃避责任的依据。尤其对于人工智能制品,被告需确保医疗人工智能软件符合安全性的常规标准,否则将被认定存在缺陷并承担相应责任。尽管先进的医疗人工智能技术可能在开发时潜藏着未知的安全隐患,但若这些风险在理论上有预见性,那么被告的辩护将难以成立,产品依然会被认为有缺陷。根据产品质量法第41条的规定,被告可能试图证明在现有技术下无法事先察觉缺陷,以此寻求免责。然而,医疗人工智能的自我学习特性可能会产生不可预见的后果、形成固有的风险。若这种风险构成了产品的缺陷,那么被告很难主张产品无瑕。机器学习过程衍生的新风险不应转嫁给医疗机构或原告来证明,而应由制造商或软件开发者负责,因为他们更具备管控此类风险的能力。

因此,在人工智能医疗的侵权诉讼中,被告必须遵循保障交易安全的原则,有义务提前警示并负有举证的义务。原告对于医疗人工智能的安全性有所期待,法律保护这种期待,并不应让原告承受过重的证明责任。法律规定一旦出现自主决策引发的损害,便推定原告已完成其举证责任。即使存在如原告的故意行为、重大过失、第三方过错或不可抗力等一般侵权的豁免情形,也不得减轻被告的侵权责任。这体现了产品责任诉讼中对被告举证责任的严格标准,符合产品质量法规及公平举证的精神。


(二)医疗人工智能致害纠纷中的举证责任规则之理论完善

结合德国危险责任理论,对医疗人工智能侵权在医疗产品责任与医疗技术损害责任中责任主体与归责理念的判断与论述之基础上,笔者主张举证责任分配实质标准应遵循的原则顺序为:第一顺位,诉讼中举证责任分配的基本原则立足于实体法的明确规定,包括法律和司法解释。附属法规则进一步明确了举证责任的确立及所需证据的提供。隐形法则是通过法律关系的本质构造要素来界定,例如债权的产生基于合同、侵权行为等多种基础,变更涉及主体和内容的变化,而消灭可能涉及履行、抵消等条件。通过对这些法律构成要素的实质分析,可以揭示隐藏在背后的举证责任分配规则和证据要求。比如,关于诉讼时效的规定,若被告提出时效抗辩,将促使原告承担证明诉讼未超期的义务。其次,法典的章节标题和相关具体条文,也是确定举证责任的重要线索。此外,但书条款中也可能蕴含着举证责任的分配规则。最后,抗辩权的设定通常是对权利行使的限制,这也间接影响了举证责任的划分。
第二顺位为举证责任分配契约。如果当事人之间的协议明确约定了举证责任,那么这将成为次要的分配依据。只要该约定不违反法律禁止性规定,属当事人真实意思表示,就应尊重当事人的约定进行分配。第三顺位,法无明文规定,以经验法则来分配。第四顺位,以公平或诚实信用原则来分配举证责任。
1.危险责任理论对举证责任倒置的适用分析




起源于德国司法体系的“危险领域”概念,是对传统法律理论的创新见解,其目标在于确保公正的举证平衡。这一理论强调,在证据获取上,若对潜在风险一方更为有利,应当相应调整举证责任的分配。其核心理念建立在平等原则之上,即当损害源头处于行为人的可控范畴,他们必须负起证明自身清白的义务。在人工智能医疗纠纷中,证据分布往往不均等,如算法由制造商或开发者掌握,而具体医疗数据又掌握在医疗机构手中,这些都可能是引发争议的因素。因此,“危险领域”理论提倡在特定情境下,将举证责任反转至被告,即要求他们证明自己并未造成损害。实际上,这种理论是对证据倾斜情况下的举证规则进行动态调整,以实现责任的反向推导。
最高人民法院《关于民事诉讼证据的若干规定》(以下简称《若干规定》)第4条规定和《最高人民法院关于适用〈民事诉讼法〉意见》(以下简称《意见》)第74条规定了举证责任倒置问题,学术界争议很大。反对者中以张卫平教授的观点最具代表性。举证责任倒置这一术语,尽管从字面上似乎就可以明确,但事实上人们对这一概念的认识还是模糊的,一般理解是原来由对方(或己方)举证的,倒置由己方(或对方)举证,举证责任承担的主体发生了对换。从逻辑上讲,倒置必须有一个正置为前提,何为正置呢?因此仍应认为这是正常举证责任分配,该规定实际上在实体法中均有举证责任明确分配。何谓真正意义的倒置,将按原则进行分配改为以原则的例外情况来进行分配,该例外就是倒置。即主张权利存在的人,对权利发生的法律要件事实举证,例外是指由对方举证。《若干规定》第4条规定倒置的具体内容比《意见》第74条规定更加明确。我国理论界普遍还是坚持确认举证责任倒置规定。他们认为倒置举证责任有必要,适合于民事诉讼程序审理的案件多样性和复杂性,若不坚持确认举证责任倒置规定,在某些特殊的民事案件中,特别是在某些侵权纠纷案件中,可能造成极不公正、极不合理的结果;另一方面,倒置举证责任也是为了使举证责任的分担能够更好地适应社会生活中出现的新问题,如产品责任问题。

将风险域说引入到人工智能医疗服务中是有其必然性的,这是因为它涉及了人工智能和医学两个方面。在人工智能产品侵权争议中,由于算法与数据的封闭特性,使得除开发者以外的其他第三方均不知道算法的具体信息,从而形成了“黑箱效应”。由于科技和资讯的非对称性,使得诉讼中的诉讼主体和诉讼主体之间存在着一定的差异性,使得原告无法恢复其在诉讼中的操作和判决。要使诉讼各方在证明能力方面达到实质公正,就必须实行证明责任倒置,即人工智能不具备商品瑕疵的证明责任,这也符合原告具备较强的预测和控制能力。因此,在民事诉讼中,有可能在民事诉讼中,将民事诉讼中的证据责任转移到民事诉讼中。因此,原告仅需对其所致的损失进行举证,而非侵权方仅需对其不具有质量问题和不具有因果关系这一事实进行举证。
在人工智能医学的研究中,各种病人的私人及医学数据往往被医药公司所垄断,造成了大量的数据被医药公司所控制。但由于其自身的特点,使得其本身也具有一定的危险性,因此,当整个诊疗流程都被医学组织所掌控时,当其危害处于其可掌控的危险范畴之内时,其危险性就会大大增加。同时,还需要对医疗单位负起证明责任。德国司法实践中有两种情形:一是由于不适当的医疗服务安排而造成的损失,比如由于不合理的设施和人力计划而造成的损失。二是由于仪器本身的缺陷而引起的损坏,比如由于仪器的不恰当而引起的损坏。由于智能医学装置一般为医院所掌控,病人在其未被触及之前就已被其所掌控,所以其应当对其负有较高的注意责任,这也就满足了危险类别说的应用要求。由于医疗人工智能医学兼具算法属性与医学属性,存在着“双重性”,在“危险”分类理论框架下,其证明责任的分配机理更为合理。
2.层次化举证责任分配规则适用模型的提出




依据现行民事诉讼法及相关司法解释的规定,举证责任包括“谁主张谁举证”“举证责任倒置”“举证责任转移”和“自认规则”等若干类型。然而,这些根据不同准则划分的证明责任规则混杂在同一层次,导致了严重的混淆和困扰。举证责任的分配扮演着联结事实与法规关系的关键角色,其体系整体上展现出“法规假设→事实判断→责任归属”的分层构造。具体而言,首先,法定举证责任分配是首要阶段,即从客观角度进行的举证责任配置。这一步骤延续了当事人对事实属性的主张,在区分要件事实和非要件事实后,法律通过实体法规预先设定了双方当事人的举证责任,此时法官无需再对案件要件事实的举证责任进行分配。值得注意的是,法定举证责任的确定并非在事实不明时才生效,而是在诉讼程序启动前已经确定。其次,普通举证规则和特殊举证规则构成了第二个阶段,涵盖主观和客观两方面的举证责任分配,主要侧重于客观方面。通常情况下,法院会根据新民事诉讼法司法解释第91条的一般规则来分配举证责任,除非法律有特别规定,否则即特殊举证规则优先。第三阶段涉及正向举证、反向举证和指定举证责任规则。正向举证是常规,反向举证和指定举证则作为特殊情况,后者仅适用于非要件事实的确认。第四阶段是对待证事实和免证事实的确认,其中免证事实需由法律规定明确。这个阶段,诉讼实际上是从寻找适用法规到揭示案件事实的过程。最后,法律效果的归属和诉讼利益的平衡是诉讼的最终阶段。在经过之前的法律适用后,案件的法律事实基本清晰,法官只需依据内心确信作出判决,如有个案公正失衡,法官可运用诉讼利益平衡原则进行调整。总的来说,这个阶段是从法律事实的确立到法律效果体现的过程。

(三)医疗人工智能侵权诉讼的举证责任分配规则思路重构

1.以举证责任转移实现诉讼利益平衡体系




在现行法律规范体系下,民事诉讼法及相关司法解释已为举证责任分配供了两种个案诉讼利益衡平方法:一是举证责任转移。在该情形下,一方当事人的举证责任完全转移至另一方当事人,即实质的个案诉讼利益衡平方法;二是当事人申请法院调取证据。在该情形下,当事人举证责任未发生根本实质性变化,法院调取相关证据只是对当事人举证能力之补充,即形式的个案诉讼利益衡平方法。需要特别说明的是,该两种个案诉讼利益衡平法都具有法定性,只有具备相应的法定条件方得适用。
在人工智能医疗的司法实践中,现行民事证据法则面临着诸多挑战,如证据偏倚和技术操控问题。为了确保公正并维护各方的平等权益,有必要引入一种新的理论框架——“显著人工智能医疗缺陷理论”。当医疗人工智能算法出现严重缺陷时,法律应适度降低原告证明其损害与缺陷之间因果关系的负担,即法院默认因果关系成立,转而要求被告质疑这一假设并负起相应的举证责任。这种调整并不意味着对医疗产品制造商或软件开发者的过度惩罚,而是鉴于人工智能技术在严重缺陷下可能导致复杂难辨的因果链,使原告在取证上面临困境。相比之下,被告通常具备技术优势,能够更好地揭示因果关系,因此,法律倾向于减轻原告的举证压力,同时加重被告的举证责任。
在人工智能医疗争议中,证明责任的减轻不仅基于技术特性,还源于行为因素。例如,通过适用表见证明规则,原告只需证明一个明显的事实,法院则可以根据一般社会认知推断出关键争议点。比如,如果手术后发现微型手术机器人残留,法院会直接认定医疗机构有过失,除非能提供反证。在这种情况下,对过失行为的证明依赖于常识而非直接证据,并且必须排除原告的故意或过失,以及被告对损害的唯一控制性。综上所述,通过适应人工智能医疗的特性,调整举证责任分配,旨在确保诉讼过程的公平性和效率。

从另一个维度审视,当原告指控被告有意妨碍其获取关键证据,如蓄意销毁或隐匿医疗资料时,法院可能会通过推理这些隐藏信息所揭示的事实可能性,而非将责任完全转移。这种做法并非逃避举证责任,而是鉴于阻碍行为后,调整了事实认定的标准,以增强其真实性。我们可以设想,患者请求医疗机构公开人工智能相关的诊疗档案,而医疗机构无合理解释的拒绝,这显然违背了诉讼程序中关于证据提供合作的基本规定。在这种情况下,法庭有权假定患者所主张的事实成立,尽管举证责任的减轻程度并非由硬性法规明确界定,而是法官根据个案详情和证据价值作出的主观判断。这种减轻程度依赖于每个具体案件的独特性和证据的关键性。
2.危险控制者适用过错推定责任原则




面对人工智能医疗领域中证据的局限性和算法的复杂性,法律体系在期待原告获取确凿证据方面面临着挑战。为此,法律应当重新审视和调整各方在寻求事实真相过程中的权力和责任分配,以避免因证据责任的非主观性问题导致公正审判中的不公平。无论是遵循大陆法系的揭示真相义务,还是英美法系的证据披露要求,本质上都是对民事诉讼中证明责任的再分配策略。尽管我国普遍不采用事案解明义务,但在特定情况下,如当一方因事件的外部性无法获取关键信息,另一方能够轻易提供证据,并且根据诉讼诚信原则,要求无举证责任方的证据提出成为合理期待时,例外性的事案解明义务可能会被采纳。在医疗领域的人工智能争议中,除患者以外的参与者也可能因满足三项条件而有揭示事实真相的责任。此责任被称为事实揭示义务,它是一种特殊的协助证明义务,法院期望相关方基于此义务以推动诉讼进程,提供必要的信息。若被告未能履行这一义务,法院通常可默认原告提出的事实为真实。
对于人工智能引发的医疗纠纷,当原告无法收集证据且无过错时,应强化其向法院申请证据收集的权利。这类纠纷符合我国法律中规定的情形,即关键信息掌握在对方当事人手中,且当事人难以了解事件全貌。申请证据调查的当事人不仅要满足主体资格的特定条件,还须适时提出申请,并证明证据调查的必要性。当人工智能的失误造成患者损失时,理解其错误性质对于产品责任的判定至关重要。由于患者通常难以接触医疗人工智能技术和数据,如申请人迅速提交证据查询请求,法院应予以支持。在这种背景下,法院有权向相关文档持有者,包括当事人和非直接关联的第三方,发出指令。任何一方若未能遵守此指令,将面临证据判定中的不利后果;对于第三方违规,可能遭受经济处罚或拘留等法律制裁。鉴于人工智能算法常常包含商业机密,法院在实施文书请求制度时,必须附加严格的保密措施,以防止信息泄露带来的潜在问题。这可能包括设定特定的文书请求例外情况,详细规定保密程序,并在必要时选择不公开审理或进行私密评估。因此,法院在进行证据调查时,必须平衡各方的利益,而非单纯提升某方收集证据的能力。

往期精彩回顾

许燕佳|手术机器人介入下医疗事故罪的认定——以“严重不负责任”的认定为核心

顾伟 周响|人形机器人生成内容著作权合理使用制度研究

任赖锬 王晨骅|陪伴型人形机器人的升格演化、形象区分与法律规制

管皓|机器人时代的产业税收优惠法治体系化路径探析——基于财税政策文献的计量分析方法

谭韵璇|关于国际海事条约能否适用于船舶人形机器人的研究

陈易|合同法视角下人形机器人使用者的权益保护

上海市法学会官网

http://www.sls.org.cn


继续滑动看下一个
上海市法学会 东方法学
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存