查看原文
其他

陈欣 金权|我国医疗人工智能侵权规制的演进、特征及难点探析

陈欣 金权 上海市法学会 东方法学
2024-10-09

陈欣

上海海事大学法学院硕士研究生

金权

上海海事大学法学院硕士研究生

要目

一、AI换脸技术的发展二、AI换脸侵权的法律应对三、AI换脸侵权的认定与规制四、AI换脸侵权的救济路径分析结语

医疗健康领域是人工智能应用的重要领域之一。随着医疗诊疗方法和技术的不断更新,医疗人工智能侵权问题也日益凸显,引发了新的伦理和法律挑战。通过分析我国医疗人工智能侵权的研究现状并结合国外法律规制的现状和发展趋势,对我国医疗人工智能侵权法律规制存在的难点进行了深入探讨,具体包括法律地位不明确、侵权责任的界定困难、技术标准和监管措施缺失、数据安全和隐私保护存在挑战等方面。为此,提出推进医疗人工智能领域立法、构建医疗人工智能责任认定机制、统一技术标准、强化监管机制建设、建立数据安全和隐私保护机制等一系列建议,从而为我国医疗人工智能侵权法律规制的完善提供一些有益的思路和参考。

一、引言

医疗人工智能以其医疗诊断的准确性、诊疗模式的创新性和健康管理的前瞻性等多方面的技术变革推动着现代医疗体系的科学化和智能化发展。当下医疗人工智能的应用领域不断扩展,已经覆盖诊断、治疗、预测和个性化医疗等多个方面,并取得了一定的成果和进步。然而,随着应用场景和技术的不断推广,这一过程也带来了一系列的实际问题。在现实问题层面:实务界和理论界普遍关注医疗人工智能的有效性、辅助诊疗的安全性、诊疗结果的可靠性、和群众对医疗人工智能的可接受程度等方面,该层面问题类型的重心主要聚焦在以医疗人工智能的实际应用和与医患诊疗的交互作用关系上。而在理论研究层面,由于医疗人工智能技术具有高度复杂性和不确定性,以“人类中心主义”价值观驱动着医疗人工智能的医学伦理、道德伦理、透明度和可解释等问题探讨的特征非常明显,因此人工智能法治问题的研究得到普遍重视,集中围绕在“医疗人工智能侵权”的法律责任认定、损害赔偿计算、数据隐私保护、知识产权保护等成为医疗人工智能侵权法律研究的重要主题。在这一体例下,人工智能法理与医学伦理的融合是否协调、研究范式的表现如何、医疗人工智能侵权研究内容与实务对接程度如何等问题催生了本研究的意义和价值,基于此本研究试借助文献分析的方法梳理我国当前医疗人工智能侵权研究的历史脉络和现状特征,以此挖掘出我国医疗人工智能法律规制存在的难点问题,并通过比较分析方法借鉴国外人工智能侵权法律规制的先进经验,以此对我国医疗人工智能侵权法律规制的难点提出更为完善的意见和措施,以期为医疗人工智能应用的健康发展提供法律支持和保障,同时也为全球医疗人工智能法律研究贡献中国的智慧和方案。

二、文献分析:我国医疗人工智能侵权的现状

为有效把握我国医疗人工智能侵权研究现状的现状,本文试以计量分析可视化的方法,借助Citespace文献分析工具,以深度挖掘我国医疗人工智能侵权研究的历史脉络,并以以关键词共现分析、聚类分析、定量可视化的方式展现该研究领域的热点前沿和发展趋势。通过对中国知网数据库、万方数据库、维普数据进行主题检索,并经NoteExpress文献管理软件进行文献汇总和清洗查重,共得到53篇有效文献,时间分布在2017-2023年间。

发文量分析
图1  我国医疗人工智能侵权研究发文量图

对医疗人工智能侵权研究的文献年发文量以及变化趋势进行分析,能展现出学界对该领域整体的关注度。为掌握2017-2023年间我国学者对该领域的研究动态,通过origin统计软件得到如图1所示年发文量趋势图。由图可知我国医疗人工智能侵权研究趋势正在经历的不同阶段:

早在2017年7月,我国政府就已经开始着手制定相关政策和规划文件以推动医疗人工智能的发展和应用。在此背景下,国务院出台了《国务院关于印发新一代人工智能发展规划的通知》,提出建立便捷高效的智能服务和快速精准的智能医疗体系的同时,推广应用人工智能治疗新模式新手段,这标志着我国在医疗人工智能领域迈出了第一步。党的十九大报告描绘了2035年基本建成法治国家、法治政府、法治社会的宏伟蓝图,其中包括加强人工智能技术研发和应用,促进医疗卫生信息化建设的方向,为医疗人工智能未来的蓬勃发展奠定了坚实的基础。自此,我国的医疗人工智能相关法律法规也在逐步完善。

在学术界,关于医疗人工智能侵权的研究也经历了从技术层面到法律与伦理、风险管理、规制管理等不同阶段的发展。在技术研究阶段,学界主要关注如何保护患者隐私和个人信息安全,避免医疗人工智能应用带来的侵权和风险问题。2019年开始,学者们开始从法律和伦理的角度对医疗人工智能应用的侵权问题进行深入探讨,包括隐私权、知识产权等方面的法律保护。随着医疗人工智能应用的不断普及,学界开始重视医疗人工智能应用的安全和风险管理,提出了一些具体的措施和建议。医疗人工智能应用已经逐渐成为医疗领域的重要组成部分,因此,我国学者也开始探讨医疗人工智能的规制和管理问题,提出了加强对医疗人工智能的监管、利用“黑匣子”记录医疗人工智能信息、设定智能诊疗机器人专门账户或保险等具体建议。

关键词分析
表1  我国医疗人工智能侵权研究高频、中心性关键词
图2  我国医疗人工智能侵权研究领域关键词共现图谱

关键词反映的是论文的核心观点,是研究主题的再现,可展示学界研究所聚焦的主要内容,关键词频次越大代表其所现的节点字体越大,与其他关键词的连接性越强。关键词共现图谱则可呈现关键词之间的联系网络,从而明确该领域的主要研究课题方向,以此揭示我国医疗人工智能侵权研究的主题脉络和演变规律。当存在两个及以上关键词同时出现在同一文献中时,被称之为关键词共现。构思关键词之间的这种联系可以用来探索研究内容的微观结构和所存在的内在相关性,从而凝练出一定时期的研究热点。

由表1可知,“人工智能”“侵权责任”“产品责任”“医疗损害”“法律地位”“医疗”“法律责任”作为研究主题的关键词,其词频分别达23次、10次、7次、5次、5次、4次、4次之多。这些高频关键词也是我国医疗人工智能侵权研究着重探讨的主题方向和内容,为理解医疗人工智能侵权研究领域研究的学术进程提供了概念框架,也铺垫了学术的前期积累。从中心性指标分析可以看出,除了“人工智能”和“侵权责任”外,其他主题关键词中心性均在0.1之下,而学界通常认为,中心性大于0.1的关键词为高中介中心性关键词,表示热点程度最高。因此据表可知,当前国内学界对医疗人工智能侵权研究领域研究的热度仍然处于最高水平。

当存在两个及以上关键词同时出现在同一文献中时,称为关键词共现。构思关键词之间的这种联系可以用来探索研究内容的微观结构和所存在的内在相关性,从而凝练出一定时期的研究热点。如图2所示为2017-2023年我国医疗人工智能侵权研究领域关键词共现图谱,图谱中将医疗人工智能侵权领域的研究方向予以了清晰的展示。如集中在人工智能医疗领域框架中的医疗数据、医学影像、医学伦理、法律伦理等研究主题;集中在人工智能侵权责任框架中的产品责任、法律责任、过错责任、归责路径等研究主题;集中在人工智能法律保障框架中的算法治理、风险评估、分级评审、法律规制等研究主题等等。

从当前我国在人工智能医疗领域的隐私保护法律方面来看,现行立法主要是基于个人信息保护法、数据安全法和民法典等相关的法律法规,医疗隐私权通常涉及医疗数据和影像数据的保护。医疗数据涵盖了病历、检查结果、治疗方案、用药记录等诊疗相关信息,而医疗影像数据则是指医学影像技术生成的图像和视频资料,如CT、MRI、X光等。相关法律法规要求医疗机构和从业人员在处理医疗数据和影像数据时,必须保证数据的安全、真实和准确。同时,也必须严格控制数据的使用和传播,保障患者的医疗隐私权,确保患者的个人隐私和敏感信息得到合法、安全、保密的处理和管理。

从当前我国人工智能侵权责任的认定来看,一般认为人工智能作为一种特殊的技术手段,其侵权责任应该由其制造、运营或使用者承担。具体而言,人工智能侵权责任主要包括两个方面:首先,制造者或运营者应承担产品责任,即对于因人工智能技术导致的产品缺陷或不安全性引起的损害,应负有相应的赔偿责任;其次,使用者应承担使用责任,即因使用人工智能技术而导致的侵权行为所产生的侵权责任应由使用者承担。值得注意的是,对于人工智能侵权责任的认定还应考虑到具体情形和背景,例如人工智能技术的普及程度、应用领域以及风险程度等因素,因此需要进行个案化处理。

从当前我国人工智能法律保障框架来看,算法治理、风险评估和分级评审是其中重要的部分。算法治理主要是针对人工智能算法的设计、开发、应用等环节,通过制定规范、标准、审查机制等手段来规范算法的行为。风险评估则是对人工智能技术的应用进行评估,预测和评估可能存在的风险,包括隐私泄露、数据滥用、决策失误等。分级评审则是根据不同的应用场景和风险程度,对人工智能技术进行分类评审,确保其符合相关的法律法规和规范标准。可以说,算法治理、风险评估和分级评审是确保人工智能技术合法、安全、可控的关键手段。

聚类分析
表2  我国医疗人工智能侵权研究领域聚类群列表
图3  我国医疗人工智能侵权研究领域关键词聚类图谱

为避免上述高频关键词分析时遗漏数据,需对关键词进行更深层次的聚类分析。通过运行Cites-pace工具,得到聚类分析模块值Modularity Q值为0.6492和平均轮廓值Mean Silhouette S值为0.9096的聚类图谱,如图3所示。一般认为当Q值=0.3,表示聚类的划分结构是显著的,当S值=0.5,表示聚类是合理的。因此,对比Q和S标准值,可知该网络聚类结构合理且具有显著关联性,说明该研究可信度较高。根据此图谱可将我国医疗人工智能侵权研究领域分为12个大的聚类群:人工智能、侵权责任、侵权、应对策略、法治、算法治理、大数据医疗、限额赔偿、告知义务、融合立法、说明告知义务、规范对象、立法进路。

通过数据处理可得到如表2所示的每个聚类群的核心标签、LLR对数似然值最大的三个聚类标签。LLR对数似然值代表该词对所在聚类的代表性程度,值越大,代表性越高。通过上述分析,可将具有相近属性意义的聚类群进一步归纳和提炼,可得到三个主题内容的层面类别:

1.医疗人工智能侵权认定研究层面:#0人工智能、#1侵权责任、#8告知义务、#10说明告知义务。该层面的研究主要集中在医疗人工智能法律地位的认定、人工智能临床应用义务性规范、以及医疗损害的侵权责任研究等方面。就人工智能的法律地位而言,学界一般认为基于当前的技术发展阶段,医疗人工智能只是一种工具,不具备法律主体资格,在将来医疗人工智能有自由意志属性之后再赋予其法律人格为时未晚。而另外一些学者则提出,传统的法律规则无法完全适用于机器人引起的侵权行为,需要对人工智能的法律地位进行重新思考和定义。在告知义务方面,有学者认为以患者为中心的医疗服务理念应当得到重视。建立医疗人工智能疗效和安全风险的信息披露制度,是保障患者知情同意权的重要途径之一。此外,在医疗人工智能责任承担方面,国内学者也都认为不同阶段的发展需要采取不同的措施。有学者提出建议,在当前弱人工智能时代,可以将智能医疗机器人的医疗损害情形纳入过错推定责任适用的范畴,推定医疗机构存在过错。另外,医疗人工智能的应用中还需要考虑到隐私保护的问题。医疗机构和医生应当采取必要的技术和管理措施,保护患者的隐私不被泄露。

2.人工智能医疗伦理和法律伦理研究层面:#3应对策略、#5算法治理、#6大数据医疗、#11规范对象。医疗伦理层面的研究注意以人工智能医疗伦理方面的技术规制、算法审查、合规等内容,法律伦理方面则表现在以大数据医疗和智能医疗等科技活动的规范策略等为内容。针对人工智能医疗伦理方面的技术规制和算法审查,一些学者主张建立完善的技术标准和评估体系,以全面检测和监管人工智能医疗系统,确保其安全和可靠性。另外,一些学者认为将伦理审查纳入人工智能医疗的设计和开发过程中,可以强化开发人员的伦理意识和责任感,保护患者的利益。在法律伦理方面,一些学者建议在完善现有法律法规的同时,也应加强人工智能医疗领域的自律和规范,强化医疗机构的内部监管责任。同时,建立医疗数据的标准化和共享机制,促进大数据医疗的发展,以及强化个人隐私保护和数据安全保障,防止数据泄露和滥用,也是学者们普遍所关注的问题。

3.医疗人工智能法律保障研究层面:#2侵权、#4法治、#7限额赔偿、#9融合立法、#12立法进路。该层面的研究主要以医疗人工智能法律保障的立法路径、法治要求、损害赔偿等内容研究为重点。学者们的研究重点不仅在于制定具体的法律法规,更需要考虑如何将法律规制与实际操作相结合,以确保医疗人工智能技术应用的合理性和安全性。为此,建立全面的伦理和法律审查机制被视为必要的措施之一。在此基础上,一些学者提出了医疗人工智能系统的伦理和法律要求,涉及保护患者隐私、确保医疗人工智能系统的公正性和透明度等问题。另一方面,针对医疗人工智能的限额赔偿问题,学者们也提出了一些具体的建议,例如推行定期赔偿金支付方式、设定医疗人工智能损害赔偿限额标准等。这些措施旨在平衡患者和医疗人工智能系统的利益,防止因医疗人工智能技术问题而引起的法律纠纷。

三、比较分析:国内外医疗人工智能侵权规制的特点

医疗人工智能侵权规制的国际现状和发展趋势

医疗人工智能被认为是现代医学领域的重要技术革新,但是其快速发展也带来了诸多法律和伦理上的挑战并引发了国际社会对于知识产权和隐私等重要议题的广泛关注。国际社会在探索医疗人工智能技术规制方面已经取得了一定的进展,许多国家均已建立了医疗人工智能技术的法律标准。例如,欧盟已颁布一般数据保护条例(GDPR),对于隐私的保护提出了更加严格的要求。对于医疗领域使用人工智能处理个人数据的情况,GDPR规定必须明确告知数据主体所涉及的数据处理目的,以及是否会进行自动决策和个人数据的传输等,同时GDPR也规定了对于不遵守相关法律法规的医疗机构会受到严重罚款的惩罚措施。美国也在探索制定护理机器人准则标准,并加强医护人员的培训以确保未来医疗人工智能技术的安全和可靠性。即便如此,全球医疗人工智能技术的监管依然面临一系列限制和挑战。不同国家对于医疗人工智能技术立法程度的不同可能导致这些技术的跨境应用受到阻碍。同时,由于医疗数据以及隐私等问题的敏感性,医疗人工智能技术的监管也面临着一定的法律和道德困境。

医疗人工智能技术作为现代医学领域的重要创新之一,不仅可以提高医疗的效率和质量,还能对整个医疗系统产生深远的影响。国际组织和机构的政策倡议、各国立法和监管措施均彰显了国际社会强化规制、维护个人隐私和公共利益的决心和行动。然而,其发展也带来了一系列的法律和伦理问题,需要各国政府和国际社会加强合作,在合适的时刻采取一定的立法、监管和政策措施,以推动医疗人工智能技术的健康、可靠和可持续发展,保障公众的健康和安全。

不同国家地区的医疗人工智能侵权法律和政策

1.美国

美国联邦政府1996年签署并并于2003年正式实施的医疗保险可移植性及责任法案规定了所有与个人医学信息有关的医疗机构必须采取措施保护此类信息的安全性。该法案定义了加强个人医疗保密度和医学信息隐私的标准和程序。医疗机构需要实施特定的安全控制措施来保护患者的数据隐私。包括:确保机构内部的数据安全性;对外部访问数据设置密码保护;向患者提供完整的隐私通知,包括数据相关的协议和规则;设定定期更新的隐私政策。

美国食品药品监督管理局(FDA)和联邦贸易委员会(FTC)都在监管和规范医疗人工智能的运用,以减少与患者隐私和公平性相关的风险和侵权行为方面发挥着重要的作用。FDA于2019年4月发布了《人工智能/机器学习软件作为医疗器械的审批框架》,其中提到了医疗人工智能产品的监管和管理。该框架要求医疗人工智能产品必须符合FDA的审批和注册要求,同时通过要求厂商和开发人员证明技术的安全性和有效性,以获得市场批准和使用,维护着对人工智能技术在医疗应用中使用合理性的标准;同时,FTC强调隐私和公平性问题,涉及智能医疗器械和基于人工智能算法的医疗方案,尤其注重患者数据的收集、处理和保护方式。为了确保医疗人工智能的应用贯彻这些原则,开发商们也应积极参与制定相关规范和指导。例如,Health Level Seven(HL7)、DICOM标准、Fast Health careInter-operability Resources(FHIR)等机构和联盟已经出台了一些与医疗人工智能相关的行业标准和代码实践,以支持医疗人工智能应用在各个医疗机构和场景中集成和标准化。

2.欧盟

欧盟在医疗人工智能领域的侵权问题上,采取了一系列立法和政策管控措施。首先,欧盟的GDPR为医疗人工智能技术的应用提供了必要的保障,确保数据的隐私性和安全性得到充分保护。其次,欧洲委员会和其他机构提出了一系列道德指导方针,以便更好地管理使用医疗人工智能技术的行为。尤其是在医疗领域,欧洲监管机构制定了《人工智能道德准则》10个条款,其中之一要求医疗保健提供者必须保障人工智能使用技术的透明度和回溯性,以确保技术算法的稳健和公正,使人工智能在安全、可靠和受控的前提下进行开发和应用,保护公众利益和隐私。

欧盟委员会于2020年2月发布了《欧盟人工智能白皮书》,其中提到了医疗人工智能产品的监管和管理。该白皮书指出,医疗人工智能产品必须符合欧盟的审批和注册要求,同时要求医疗人工智能产品的生产商必须对其产品的质量和安全性负责。此外,欧盟还在制定医疗器械法规(MDR),该法规将于2021年5月起正式实施,要求医疗器械生产商必须对其产品的质量和安全性负责,同时要求医疗器械产品必须符合欧盟的审批和注册要求。

欧盟在2021年4月发布的《医疗人工智能准则》,为医疗行业提供了一套详细的指南,规范医疗人工智能技术开发和应用的行为。此规范要求技术的开发和应用符合人的尊严和权利,需要保证技术的公正和可信,且在使用中还需将患者的隐私和数据安全保护到位。最后,欧盟提倡“人类中心”的医疗人工智能,要求人工智能技术必须具备可操作性、可复制性和可容忍性等特点,同时推动技术的回溯性和可解释性等。

这些措施的全面实施,将有助于确保医疗人工智能技术的合法、准确、可靠和安全的使用,保障患者的隐私和数据安全。这进一步加强了医疗保健行业可持续发展和人工智能技术的应用,也给其他国家和地区的医疗人工智能立法和监管提供了宝贵的参考。

3.新加坡

作为亚洲地区人工智能技术的领先者之一,新加坡政府采取了多种监管措施,以确保医疗人工智能技术的安全和合规性。在法律层面上,新加坡政府通过颁布个人数据保护法案、医院管理法等法规,对医疗人工智能技术进行了正式规范。此外,新加坡的医学研究需要经过《人类伦理审查指引》的审查和评估。新加坡政府还要求所有机构和组织采取数据隐私保护措施,并且严格要求必须获得患者的知情同意。对于医疗数据保护措施,新加坡政府要求开发和应用机构采取安全防护措施,确保数据的安全性和保密性。在道德和伦理方面,新加坡政府已经采取了一系列措施,以确保医疗人工智能技术的应用不侵犯人权和医学伦理。新加坡政府在《行业司法准则》中建立了明确的伦理和道德准则,保护医疗人工智能的开发者和从业人员的权益。新加坡政府也鼓励医疗人工智能的开发者和诊断医生进行数据共享,并提供减免税费和资金支持等政策。新加坡的医疗人工智能技术机构会严格遵守相关常规和法律,以确保机制的正确性和合规性,同时遵循道德与法律的要求。这些措施和政策不仅有助于确保医疗人工智能技术的安全、合规和道德性,还能提高医疗的效率和质量,并有助于更好地服务于公众的健康事业。

国际比较中的异同点分析

欧盟、日本和美国三个国家在医疗人工智能侵权法律和政策方面有许多不同的立场和规范要求。具体来说,在数据安全保障方面,欧盟的法律最为保护权利人。欧盟在医疗人工智能机构的透明度、知情权、临床验证等方面进行明确的规定,以规范医疗人工智能的实际应用。相对于其他两个国家而言,欧盟的政策更具保护性。日本政府在确保医疗人工智能治疗场景下的公正和道义方面更强调伦理标准和社会责任,日本制定了明确的伦理标准和相关的医疗人工智能使用流程,并对机构和个人的行为和作用进行明确要求,以避免影响公正正常的医疗行为。而美国政府则更注重突出医疗人工智能设备开发和销售中的规范性和监管性,并强调医疗人工智能的应用必须避免种族、性别和政治偏见。此外,FDA设备的监管也进一步保证医疗人工智能的质量和使用之前的严格管理流程。相对于日本和欧盟而言,美国政府较为注重医疗人工智能产品开发的规范,严格规定了研制和销售医疗人工智能设备所需要的手续和流程,并明确强调涉及医疗人工智能的机构和个人必须对其行为和作用承担相应的责任。

不同国家或地区在医疗人工智能侵权规制上也存在一些相同点。它们都注重保护使用者和相关数据的安全和隐私,并明确规定了机构和个人在使用医疗人工智能时应遵守的规范。另外,它们都重视医疗人工智能技术的透明度和可解释性,以保障使用者对人工智能系统的理解和信任。在未来,医疗人工智能将继续迅速发展和普及,政府和研究机构也将持续关注其在医疗领域中的应用和发展。在此背景下,医疗人工智能的规范与监管也将不断完善,以确保其符合人们的期望和需求。同时,不同国家在规范和监管上的差异也可能会逐渐减小,以适应跨国业务和合作的需求。

四、我国医疗人工智能侵权法律规制的难点

医疗人工智能法律地位不明确

对于当前的弱人工智能来说,深度学习算法的推理和决策缺乏透明性,开发者也难以理解或解释算法如何以及为何得出特定的结论。与此同时,强人工智能被期望具备与人类相当的推理和解决问题能力以及知觉与自我意识。这引发了人工智能是否应该具有法律主体地位的争议和思考。

根据我国现行法律,民法典规定民事法律主体包括自然人、法人和非法人组织,均具有民事权利能力、享有民事权利并承担民事义务。自然人和法人作为民事法律主体,具有自我意识和自主决策能力,可以独立行使民事权利和承担民事义务。而非法人组织则是指没有独立法人地位的组织,如社会团体、基金会等,它们也具有民事权利能力和承担民事义务的能力。专注于一定领域内的任务,缺乏与人类相似的全面性认知和判断能力的弱人工智能在法律上通常处于客体的地位,因为它们只是人类实现特定目的或需求的手段或工具。深度学习算法的设计、生成、训练等各个环节都需要人类的参与和决策,因此即使深度学习算法的推理和决策缺乏透明性,也不足以成为赋予人工智能法律人格的理由。在人工智能赋予法律人格的问题上,需要考虑到其是否具备自我意识、意愿、人格等基本要素,并衡量其责任能力是否足够承担相应责任。

在国际上,通常认为赋予人工智能法律主体地位缺乏实践价值,也不符合伦理原则,甚至可能有滥用的风险。对于人工智能是否应该成为法律主体,需要仔细考虑其在道德和伦理方面的地位以及其作为独立主体的必要性。但如果未来强人工智能具备推理和解决问题能力以及知觉与自我意识,是否应该成为法律主体值得我们思考。

侵权责任的界定比较困难

传统的医疗服务模式中,医务人员承担着问诊、影像诊断、制定治疗方案、手术等医疗行为的执行工作。然而,随着具有自主运行能力和自我学习能力医疗人工智能的出现,这一传统模式正在逐步演变。在新型医疗服务模式中,医疗人工智能的自主决策和行为可能会对患者的权益产生影响,如何确定医疗人工智能的侵权责任便成为一个重要的问题。同时,医疗人工智能的自我学习能力也增加了侵权责任的界定难度,因为医疗人工智能的行为可能会超出设计者的预期,导致侵权责任的界定变得更加复杂。

医疗人工智能技术应用过程中,可能涉及数据提供者、算法设计者、技术人员、医院、医生、患者等多个主体,每个主体的责任难以明确,导致了我国医疗人工智能侵权责任界定困难主要体现在责任分配问题复杂化。责任的分配问题主要涉及两个方面:一是责任的主体,即谁应该承担侵权责任;二是责任的程度,即侵权责任应该如何分配。在界定责任主体时,医疗人工智能的应用涉及多方,包括医疗机构、医生、技术提供商等多个主体。特别是在医疗机构内部,医疗人工智能的使用和管理涉及多个部门和岗位,具体责任的界定比较困难。并且医疗人工智能侵权责任的认定也涉及不同的法律领域,如知识产权法、民法、医疗法等,各自有不同的主体难以确定。需要考虑到医疗人工智能技术应用的具体环节和责任主体的具体行为,以及相关法律法规的规定和伦理道德的考虑等多方面因素。在确定责任程度时,则需要考虑到侵权行为的性质、后果和过错程度等因素。

我国侵权责任法对于医疗法律责任的规定,主要分为医疗技术损害责任、医疗伦理损害责任和医疗产品责任三种类型。医疗人工智能在使用过程中主要涉及两类责任,即产品责任和医疗损害责任。

我国医疗人工智能侵权责任界定困难的另一个重要体现是难以适用医疗产品责任,主要是由于医疗人工智能具备的自主决策和行为能力,以及自我学习能力,这些特点使得医疗人工智能的行为难以预测和控制。同时,医疗人工智能的行为还受到多种因素的影响,如数据质量、算法设计、模型训练等,这些因素都会影响医疗人工智能的行为结果。医疗人工智能产品的营销和使用方式往往与传统产品不同,具有较强的“服务”属性。例如,一些医疗人工智能产品常常需要由厂商或技术维护方提供服务支持,才能实现良好的使用体验和性能。这样一来,如果这些产品存在质量问题或使用瑕疵导致患者损害,产生责任的难易程度就相对复杂。毕竟,这些产品的不良服务或技术支持也可能是导致其功能失效或隐患泛滥的原因之一。再者,医疗人工智能产品的自主性和主动性较强,难以适用于传统的产品责任体系。医疗人工智能产品中,很多具有自主学习和探索的能力,这使得其产生的结果和影响具有一定的主观性和可变性,难以进行明确的标准化评估。与此同时,由于医疗人工智能产品的自主性较强,很多时候其产生的结果与人类医生的判断和选择也存在偏差。如果这些产品导致患者损害,那么问题的责任归属就更难以明确。此外,医疗人工智能产品的复杂性和多维性也给责任界定带来了一定困难。医疗人工智能产品涉及的技术、领域和适用范围都非常广泛,不同领域的技术特点、知识体系和操作规范都不尽相同。这就给真正要求产品责任的产生疑惑或分歧提供了机会,也使得产品的法律适用和社会公众的认可性越来越低。

技术标准和监管措施缺失

医疗人工智能技术同时涉及数据处理、算法设计、医学知识等多个方面,技术标准是其应用中不可或缺的一环,对于医疗人工智能的开发、应用、检测等环节都具有重要的指导作用。然而,目前我国在医疗人工智能技术标准方面的规范尚未完备,给医疗人工智能的侵权规制带来了很大的困难。一方面,医疗人工智能技术的开发和应用缺乏相应的技术标准,导致技术研发的规范性不足,从而使得医疗人工智能技术的开发与实施缺乏可靠保障;另一方面,医疗人工智能技术的检测和认证标准不够完备。由于医疗人工智能技术的特殊性,其检测和认证标准往往需要特殊化处理。我国目前对于医疗人工智能技术的检测和认证标准还比较落后,因而面临着很大的侵权风险。例如,如果医疗人工智能技术的检测和认证标准不够严格,那么就会导致技术实现的质量不够,从而很容易导致侵权现象的发生。

人工智能的发展是一个复杂而漫长的过程,需要经过数据分析、算法策略和成果应用三个阶段,最终的成果因需求的不同而呈现出多种形式。然而,当前我国在人工智能监管方面还存在一些问题,缺乏对人工智能研发过程进行全流程监管的能力。首先,医疗人工智能的监管机制还不成熟。尽管我国已经有了一些针对医疗人工智能应用的监管法规,但是,这些法规还不能全面覆盖医疗人工智能技术的全部领域。同时,医疗人工智能技术事关人民群众的健康问题,所以需要综合考虑多方面的因素才能做到监管全面、有效。其次,医疗人工智能应用的监管手段还比较单一。在对医疗人工智能技术的监管方面,我们主要采用的是技术审核和行业监管,而很少涉及法律手段。这在一定程度上限制了医疗人工智能应用的监督和管理效果,也增加了法律规制的难度。

数据安全和隐私保护存在挑战

医疗人工技术的快速发展已经开启了医疗领域的新篇章,带来了许多新的机遇,随之而来也包含了许多未知的风险和挑战。这些风险和挑战主要表现在隐私和数据保护方面,数字化和人工智能的应用增加了当前隐私和数据保护法律框架的不确定性,可能会引发若干严重的道德困境。具体来说,医疗人工智能需要大量的医疗数据来进行学习和训练,这些数据包含了患者的个人信息、病历记录、诊断结果等敏感信息。然而,这些数据的安全性和隐私性无法得到充分保障,容易被黑客攻击或滥用,从而导致患者的个人隐私和权益受到侵害。在2021年7月,美国医疗保险公司Centene的一个在线服务平台存在安全漏洞,导致超过100万名患者的个人信息被泄露,包括姓名、出生日期、社会安全号码、医疗记录等敏感信息,这次数据泄露事件是由于Centene的一个在线服务平台没有正确配置安全设置,导致数据可以被公开访问,患者面临身份被盗用,造成财务损失和信用卡欺诈等问题。Centene数据泄露事件暴露了医疗人工智能应用中的数据安全和隐私保护问题,引起了人们对医疗人工智能应用的关注和担忧。

医疗人工智能的应用还涉及多个参与方,包括医疗机构、医生、患者、技术提供商等。这些参与方之间的权利和责任关系不够清晰,容易导致数据的滥用和侵权行为。例如,医疗机构可能会将患者的数据出售给第三方,或者技术提供商可能会将数据用于其他商业用途,这些行为都可能侵犯患者的隐私权和个人信息安全。因此,我们需要加强对医疗人工智能应用中的隐私和数据保护问题的研究和探讨,建立完善的法律法规体系和技术标准,加强数据安全和隐私保护的技术研发和应用,以确保医疗人工智能应用的安全性和可靠性,保护患者的个人隐私和权益。

五、完善医疗人工智能侵权法律规制的建议

推进医疗人工智能领域立法建设

随着医疗人工智能的应用范围和经济价值的不断扩大,民事法律规范所涵盖的民事权益的边界也在不断拓展,因此,医疗人工智能法律体系的构建也需要与时俱进,与技术发展相适应。在医疗人工智能领域,精确的概念定义对于法律适用至关重要。为此,我们需要深入探讨医疗人工智能的本质特征,将其特殊性质与法律语言相融合,以避免专业术语和法律术语之间的冲突。同时,我们需要考虑国际共识,将国际认知情况融入医疗人工智能的定义中,以消除法律适用的障碍。明确的医疗人工智能定义和分类是医疗人工智能法律体系建设的重要组成部分,也是医疗人工智能技术健康发展的基石。通过对医疗人工智能进行合理分类,可以更好地管理和监管医疗人工智能的应用,以保障公众的健康和安全。因此,我们可以从医疗人工智能的智能化程度和参与诊疗活动的分工两个方面进行分类,以探讨强、弱人工智能的概念界定和分类标准,并重新定义主要类型的医疗人工智能,从而实现精准管理。

在推动医疗人工智能领域立法的过程中,我们应当充分发挥中国特色立法模式的优越性,逐步推动制度的完善。这需要我们深入研究医疗人工智能的特点和应用现状,顺应医疗人工智能的科学发展规律。我们还可以借鉴国外的医疗人工智能立法经验,以完善我国的医疗人工智能法律体系。例如,欧盟已经制定了通用数据保护条例和医疗器械法规,对医疗人工智能的数据隐私和安全进行了规范和保护。美国也已经制定了医疗器械修正法案和医疗保险可负担性与可及性法案,对医疗人工智能的监管和保险支付进行了规范和支持。这些国家的立法经验为我国医疗人工智能立法提供了重要的参考和借鉴,也为我国医疗人工智能法律体系的完善提供了有益的启示。

构建医疗人工智能责任认定机制

1.明确责任主体

处于现阶段的弱人工智能,本质上仍然是一种基于规则和模式匹配的计算机程序,其智能水平仍然较低,无法像人类一样进行复杂的推理和判断。在这个阶段,医疗人工智能的应用需要人类的干预和监督,我们应该将其视为一种辅助工具,而不是赋予其法律主体地位。医疗人工智能的生产、制造和使用方需要共同承担其应用所带来的风险和责任。医疗机构应当对患者的隐私和个人信息进行保护,确保医疗人工智能技术应用的安全和可靠性。如果因医疗人工智能技术应用导致患者受到损害,医疗机构应当承担相应的法律责任。医疗人工智能技术提供商应当对其提供的医疗人工智能技术产品进行质量控制和安全管理,确保其符合相关标准和规范。如果因医疗人工智能技术产品存在缺陷导致患者受到损害,医疗人工智能技术提供商应当承担相应的法律责任。数据提供方应当对数据的质量和安全进行保障,确保数据的准确性和完整性。如果因数据存在问题导致患者受到损害,数据提供方应当承担相应的法律责任。在医疗人工智能的应用中,需要建立健全的管理和监督机制,明确各方的责任,以确保医疗人工智能技术应用的安全、可靠和合法。

2.完善医疗产品责任规则

首先,要对归责原则进行明确。我国的侵权责任法并没有对产品缺陷进行分类,而是通过立法确立了产品责任的无过错责任原则。产品缺陷主要分为三类:制造缺陷、设计缺陷和警示缺陷。其中,制造缺陷致害的无过错责任原则基本上没有争议。但是对于设计缺陷致害的归责原则,无过错责任原则和过错责任原则之间存在分歧。就适用前景而言,对于医疗人工智能设计缺陷致害,应该适用无过错责任原则。在当前医疗人工智能技术尚未完全成熟的情况下,设计缺陷致害的风险不可避免。如果适用过错责任原则,医疗人工智能的设计者需要承担更大的责任和风险,这可能会抑制医疗人工智能技术的发展。因此,适用无过错责任原则可以更好地平衡医疗人工智能技术的发展和风险控制。

其次,应该对产品缺陷进行更加细致的分类,建立医疗人工智能产品的缺陷分类标准,以便更好地适用相应的归责原则。在人工智能技术的应用中,传统产品的设计缺陷、制造缺陷和警示缺陷是否能够涵盖人工智能运行中的特殊伦理问题仍然存在一定的不确定性。可以根据医疗人工智能产品的功能、应用场景、技术特点等方面确定相应的缺陷分类标准,例如,可以将医疗人工智能产品的缺陷分为数据缺陷、算法缺陷、模型缺陷、系统缺陷等方面。这样可以更好地确定归责原则和责任范围,有利于保障患者的权益和利益。同时,也有利于企业加强产品质量控制和安全保障,提高产品的竞争力和市场占有率。建立医疗人工智能产品的缺陷分类标准后,需要加强对产品缺陷的监管和规范,以确保产品的质量和安全性。另外,也需要持续加强对医疗人工智能技术的研究和创新,以不断提高产品的性能和应用效果。

最后,建立医疗人工智能产品责任保险制度,以进一步保障患者的权益。在欧洲,欧盟已经提出了《人工智能法规框架》,其中包括了医疗人工智能产品的责任保险制度。该法规框架要求医疗人工智能产品的开发者和生产者必须购买责任保险,以保障患者的权益。欧洲各国也在积极探索医疗人工智能产品责任保险制度的建立,例如,英国已经开始试行医疗人工智能产品责任保险制度,以应对医疗人工智能技术的快速发展和应用。在美国,虽然尚未出台全国性的医疗人工智能产品责任保险制度,但一些州已经开始探索该制度的建立。加利福尼亚州已经通过了一项法案,要求医疗人工智能产品的开发者和生产者必须购买责任保险,以保障患者的权益和利益。此外,美国的一些保险公司也已经开始提供医疗人工智能产品责任保险服务,以满足市场需求。我国可以借鉴欧美的经验和做法,结合国情和实际情况,制定适合我国的医疗人工智能产品责任保险制度。例如,建立医疗人工智能产品责任保险制度的信息公开机制,及时公布医疗人工智能产品责任保险制度的相关信息,提高公众对医疗人工智能产品责任保险制度的认知度和接受度,促进医疗人工智能产品责任保险制度的有效实施和运行。

统一技术标准,强化监管机制建设

在统一医疗人工智能技术标准方面,制定产品的技术标准是非常重要的一环。技术标准可以确保医疗人工智能技术的安全性、有效性和可靠性,从而为医疗人工智能技术的开发和使用提供具体的指导和保障。在制定技术标准时,需要考虑医疗人工智能技术的特殊性和复杂性,同时也需要考虑到医疗行业的实际需求和现实情况。制定技术标准的同时,建立认证机构也必不可少因为认证机构可以对医疗人工智能技术进行评估和审核,以确保其符合标准。例如,美国FDA建立了一个名为“人工智能/机器学习软件作为医疗设备的认证框架”的计划,用于审核和认证医疗人工智能技术。这样的认证机构可以为医疗人工智能技术的开发和使用提供更加可靠的保障。此外,建立数据共享平台也是不可或缺的。数据共享平台可以让医疗人工智能技术的开发者和研究人员共享数据和算法,从而提高医疗人工智能技术的质量和效率。

参见王轶晗、王竹:《医疗人工智能侵权责任法律问题研究》,《云南师范大学学报(哲学社会科学版)》2020年第3期。参见宁金成、李瑞升:《人工智能伦理规则的产品质量法立法构建》,《河南财经政法大学学报》2021年第2期。

在强化监管机制建设方面,可以建立专门的医疗人工智能产品监管机构,该机构应加强对医疗人工智能产品的监督和管理,以确保产品的安全性、有效性和可靠性。为保障患者的权益和利益,还应建立医疗人工智能产品的投诉机制和纠纷解决机制。除此之外,加强医疗人工智能产品的信息公开,提高公众对医疗人工智能产品的认知度和接受度,有助于促进医疗人工智能产品的健康发展。

加强数据安全和隐私保护机制建设

为了确保医疗人工智能产品的数据安全,需要建立完善的数据安全管理制度。该制度应包括数据采集、存储、传输和使用等方面的规定,以确保医疗人工智能产品的数据安全。在制定数据安全管理制度时,应充分考虑医疗人工智能产品的特殊性,注重保护患者的隐私和个人信息。规定医疗人工智能产品的数据采集必须遵循患者知情同意原则,明确告知患者数据采集的目的和范围,以及数据的使用方式和保护措施。同时,应规定医疗人工智能产品的数据存储和传输必须采用安全可靠的技术手段,以防止数据泄露和被非法获取。除此之外,还应建立完善的数据安全和隐私保护监管机制,加强对医疗人工智能产品的监督和管理,确保医疗人工智能产品的数据安全和隐私保护得到有效的保障。同时,加强医疗人工智能产品的信息公开,提高公众对医疗人工智能产品的认知度和接受度,有助于促进医疗人工智能技术的广泛应用和推广。

另外,加强对医疗人工智能产品的隐私保护也是非常重要的。为了实现数据的最大化利用和最小化风险,应该通过明确规定患者数据的使用范围和目的来实现,并规定医疗人工智能产品的数据收集和使用必须得到患者的授权。最佳实践是遵循最小化原则,即仅收集和使用必要的数据,并确保医疗人工智能产品的数据使用遵循数据保密原则,不可将数据用于其他目的或泄露给未经授权的第三方。在监督和管理医疗人工智能产品方面,应该设立专门的监管机构监督医疗人工智能产品的开发、生产、销售和使用行为,并对违规行为进行处罚,以建立公正、透明、可信的医疗人工智能产品市场。

结论

在医疗人工智能仍处于辅助性医疗发展阶段的实践中,医疗人工智能在实际应用与医患诊疗的作用联系愈发紧密,愈加成为当代社会医疗体系发展的重要角色,并且在“人类中心主义”价值观驱动下医疗人工智能发展与社会价值文化的交融也得到不断地进步和发展,医疗人工智能技术之于社会公众健康的重要性也逐渐深入到公众的可接受价值视野和医疗方式的伦理契合度之中。在我国医疗人工智能的前端准入阶段,为探索医疗人工智能侵权法律规制存在的难点,本研究通过文献计量分析法分别对医疗人工智能的文献群进行深入剖析,发现国内学界研究热度主要侧重在医疗人工智能侵权认定研究、医疗伦理和法律伦理、法律保障研究三个层面。据此通过国际现状和发展趋势,借助比较研究方法对比分析了美国、欧盟、新加坡等国家医疗人工智能侵权规制的各自特征和差异。基于以上分析,引入我国医疗人工智能侵权研究的历史脉络和发展现状,发现我国医疗人工智能侵权法律规制中存在着医疗人工智能法律地位不明确、侵权责任的界定困难、技术标准和监管措施缺失、数据安全和隐私保护的局限等现实问题,对此提出推进医疗人工智能领域立法建设、构建医疗人工智能责任认定机制、统一技术标准、加强数据安全和隐私保护机制建设等针对性建议方案。这些措施将有助于规范医疗人工智能产品的开发、生产、销售和使用行为,促进医疗人工智能技术的健康发展。同时,也将为医疗人工智能的应用提供更加稳定和可靠的法律保障,为医疗行业的发展注入新的动力。因此,我们应该积极推进医疗人工智能领域的立法和监管工作,为医疗人工智能的发展创造更加良好的环境。

往期精彩回顾

李晓霞|数据合规视野下个人信息保护归责标准的重构

王伟强|视频贴片广告屏蔽行为的说理及展开

陈玲|技治主义视域下民事诉讼中大数据证据的适用与规范——基于289份民事判决书的实证分析

罗艺 潘璐|ChatGPT4:现状、风险与法律回应

潘香军|论机器学习训练集的著作权风险化解机制

裴丽佳 纪福和|比较法视野下cookie法律保护“双重构造”的提出——兼论cookie“同意规则”的规范构造与标准调适



上海市法学会官网

http://www.sls.org.cn


继续滑动看下一个
上海市法学会 东方法学
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存