数字时代医疗人工智能的算法逻辑、风险及其应对
摘 要:数字赋能医疗人工智能及其运行的算法逻辑对传统医疗结构产生重大影响:嵌入逻辑推动科技与医疗的双向共融,概率逻辑造就人工诊疗向智能诊疗的机制转换,效率逻辑亦协调功利主义与自然正义的价值博弈。然而,在“物理-数字”虚实交互的二元格局中,技术内生性风险与外在性风险交织叠加,导致算法权力异化后权力与权利架构失衡,威胁患者基本权利的同时,引发医生自主地位丧失的风险,而数字要素内嵌其中的交互式人机共决机制,更是致使医疗责任认定陷入困境。为此,应摒弃传统治理思维,并基于数字法治视角,寻求以数字人权为本源维护医疗主体基本权利,以数字正义为基础引导智能医疗向善,并以数字安全为保障完善医疗算法运行机制,持续为医疗人工智能算法风险的防治增添法治力量。
关键词:医疗人工智能;算法逻辑;法治风险;数字法治
作者:徐 明 华中科技大学,韦俨芸 中国地质大学
当今数字时代,全球“百年未有之大变局”伴随着人工智能的深度学习加速演进,医疗领域亦不例外。我国在《健康中国2030规划纲要》中,将“推动健康科技创新”上升为国家战略,《新一代人工智能发展规划》也将“智能医疗”作为重点发展领域,医疗人工智能已经成为推动医疗卫生领域智能化发展的重要物质载体。然而,科学技术是一把“双刃剑”,医疗人工智能的快速发展,不仅是数字技术迭代的红利释放,而且也可能对医疗伦理、法律与社会体制形成潜在的破坏性塑造。医疗活动“健康所系,性命相托”,事关公众生命健康与基本尊严,如何将破坏性因子内化为医疗科技红利,是数字医疗的首要命题。
数字时代社会的经济基础与社会结构已经发生质的改变,社会发展所携带、展示和渴求的物质标签在无形之中已逐渐转化为虚拟的数字代码,应当摒弃传统思维,基于数字法治视角,寻求解决方法。习近平法治思想蕴含着数字法治建设的深刻要义,且在融入数字要素后形成了系统的数字法治观[1],其中的数字人权、数字正义与数字安全等价值元素不断得到重视,并为人类如何迈向“科技向善”的数字时代指明方向。是故,本文拟从数字法治视角探索医疗人工智能的运行逻辑,对其衍生的算法风险进行分析,并探讨数字时代医疗功能与人的权利保障兼顾的应对之策。
一、数字时代医疗人工智能的算法逻辑
数字赋能医疗人工智能运行表现为一定的算法逻辑,即医疗人工智能以嵌入方式联结各医疗环节,并在预设模型下深度学习医学数据,适应其结构特征,依照概率统计学原理运算出最优解,而在机器求解医疗数据价值与临床诊疗科学最大化的过程中,皆由效率逻辑全程主导。由此,算法正在以其深度嵌入、概率统计及效率主导的逻辑,引导医疗人工智能迈向数字化。
1.嵌入逻辑:促进人工智能与医学诊疗的双向共融。医学诊疗活动的实践性强调医生临床经验的积累,与医疗人工智能基于大规模、高质量且多模态的医疗数据建构的强化学习机制具有天然相融性。由此,智能算法日益将“基于机器学习的算法自动化场景”嵌入医疗决策过程[2],并通过自动化的智能算法介质搭建“AI+医疗”的多元联合体平台,实现以人、机、物为核心的三元协同的智能组织架构[3]。面向医务人员群体,医疗人工智能发挥着辅助疾病诊疗、提供治疗方案并预测病情发展等作用,常以“最高效率提炼最权威依据后作出最优解”的机器运行程式,把控基本医疗经验的内在规律。例如,在医学影像领域,电脑辅助诊断系统可以通过对胸部CT照片的分析精准检查出肺结核等疾病,并辅助医生将误诊率从3.5%降低至0.5%[4]。又如,IBM研发的Watson for Oncology(沃森肿瘤智能系统)为肺癌、乳腺癌、直肠癌、胃癌、宫颈癌、前列腺癌等多种癌症的患者推荐个性化的治疗方案[5];更有直接参与到治疗进程的“达芬奇手术机器人”,在那些使用微创方法实施复杂的外科手术中,借助其得以在病人体内准确无延时地重现医生的手部动作,且对狭窄解剖区域有极大优势[6]。
更值得关注的是,当下以ChatGPT为代表的大型语言模型正催生新一轮的技术革命,而对基于GPT架构的通用大型语言模型进行微调,能够在生物医学领域发挥更出色的性能,增强医疗算法模型的鲁棒性与泛化能力。例如,清华大学智能产业研究院联合水木分子公司开源全球首个多模态生物医药百亿参数大模型BioMedGPT-10B[7]。该医疗模型不仅建立了文本、分子和蛋白质三个模态的统一特征空间,而且支持跨模态自然语言和分子语言的交互式问答,可在药物靶点探索与挖掘、先导化合物设计与优化、蛋白质设计等领域得以应用。随后,该团队再次宣布新一代对话式药物研发助手ChatDD(Drug Design)问世,作为制药专家的智能助手,覆盖药物立项、临床研究、临床试验的各阶段,极大提升了新兴药物的研发效率。由此可见,现代人工智能日益嵌入到生物医学与诊疗活动的各个环节,在社会转型中不断推动临床医学前沿化、专业化、自动化[8]。
2.概率逻辑:推动人工诊疗向智能诊疗的机制转换。数字时代的医疗人工智能算法普遍采取“大数据,小定律”的技术范式。此种范式将病症问题支解为若干待以解决的子集,再根据指令中预设的特定情景、场域或现实需求,将离散化的海量医疗“数据信息”有机聚合,并从中提取出“共性规律”,对待解决子集做出相关性反馈[9]。其背后所遵循的是一套严格“条件-结果”的连锁式反应,而此种基于数据进行量化分析的数理统计思维即概率逻辑判断。
依照此种概率逻辑,医疗人工智能能够在可视化、数量化的数据比较分析中,基于数据之间的相关性验证医学领域中的某个命题为真、某项选择最优,由此得以精准识别病灶、断定疾病种类并给出最优治疗方案,是算法设计者将具有一阶语言描述性质的分散数据及相关性解释为“适当的大概率事件”,再经由结论证成决策之正当性[10]。相较于传统的强调主体身份性与权威性的人工诊疗,此种借助于精准概率理论分析医学案例的智能诊疗具有极大优势,不仅可以摆脱传统人工诊疗受到严格时空条件限制的弊端,而且在诊疗成功率或效果方面也毫不逊色。医疗实践中,国内首例5G医疗机器人借助定制网络信号传输,在北京接收来自浙江外科专家发出的动作指令,经系列精准计算后完成解剖、分离、缝合等手术动作[11]。且据研究报告,一个使用卷积神经网络的智能医疗决策系统在经过对10万张图像的学习训练后,对黑色素瘤的诊断准确率可高达95%,远超人类皮肤科医生86.6%的诊断准确率[12]。可见,医疗领域所面临的疑难杂症,经由机器高度精确的相关性概率统计与计算便可寻得解决方案,由此推动医疗实践从人工诊疗向智能诊疗转换。
3.效率逻辑:协调功利主义与自然正义的价值博弈。医疗人工智能的行为决策受到强烈的效率逻辑主导,其运行完全排除主观认知因素而严格遵循客观公式计算。在这一过程中,机器并无道德“善与恶”的价值评价标准,只有程序推进“是与否”的逻辑运算法则。此种将效率置于价值位阶之首的运行程式,实现的是功利主义所推崇的“最大多数人的最大幸福”——以效率为导向确保社会价值最大化。在此意义上,医疗人工智能行为、决断及其方案的“正确性”,能够通过社会总福祉的增加趋势加以衡量。然而,此种集体主义与自然法则下所崇尚的个人正义形成天然的对抗力,而导致医疗正义价值也在功利目标追求的过程中黯然失色。并且,与传统的生命伦理、医学伦理相比,人工智能尚未形成公认可靠的伦理准则[13]。医疗人工智能发展是功利主义与自然正义此消彼长的过程,甚至呈现正义理念消解而功利目的式涨的发展趋势。这不仅与亚当·斯密所构建的以自然正义和道德正义为基础的社会秩序截然相反,而且难以符合现代法治所崇尚的“良法善治”标准。
不过,效率逻辑在引发价值博弈担忧的同时,其所具备的高度“科学理性”又恰好可以补强自然正义式微的发展势态。具体而言,医学诊疗活动除了凭借医生基于自身理论知识和实践经验的反复“客观循证”之外,还将依赖由于医生心理惯性所形成的超越经验的“主观先验”判断。此种富有明显价值色彩的诊疗活动,体现的正是人们孜孜以求的朴素的自然正义观念,常言道之“医者仁心”,这显然有利于“人性化”地全面诊疗疾患,亦与现代社会奉行的“生物-心理-社会医学”模式紧密契合。然而,人的主观认识能力极为有限,也更容易受到形态各异的医患关系、社会氛围、个人性格与情绪等多元因素的影响。此时医疗人工智能作为“最高思考能力产物”,较之一般手工工具凝结着更多的知识和思考,为降低行为决策之错误率以实现效率最大化,便能够以其科学理性、不偏不倚且建立于客观事实之上的思维逻辑作出判断,为传统诊疗提供有益的参考或验证,实现另一种意义上的社会正义。
二、数字时代医疗人工智能的法治风险
医疗人工智能在数字时代承载着解放医疗生产力的使命,极大地推动了医学诊疗活动的科学发展,赋予其理性、精准和高效的价值特征。然而,当站在科技红利的对立面观察,也不难发现在与数字科技结合紧密的医疗领域,技术赋能医学诊疗的同时,基本权利危机、医疗自主性和医疗归责的风险正接踵而至。
1.权利危机:消极耦合威胁患者的基本权利。
医疗活动的首要目标即维护患者的生命健康,保障患者的基本权利。相应地,医疗与智能的消极耦合所引发的基本权利危机也是智能诊疗的首要风险。且数字技术赋予了患者“生物人”与“信息人”的双重身份,导致对基本权利的维护也因人的存在形式异化而需要付出超越以往的代价。
首先,这种代价直接体现为数字技术对患者生命健康权的冲击。当医疗机构难以驯化“数字利维坦”,那么患者只能被动接受由于算法理性失控所导致的生存危机,正如“英国达芬奇机器人心脏手术致死案”那般触目惊心,又如“在线AI医生误诊漏诊”这般骇人听闻。究其原因,正是技术内生性风险与社会外在性风险协同演化的后果。智能诊疗本身存在漏诊、错误判断、治疗不足、干预计划或顺序不正确等情形。此外,医务人员对智能系统的误用和滥用也成为一种潜在威胁。如2021年在澳大利亚和新西兰对632名医疗保健人员进行的一项调查表明,80%的临床医生从未在工作中使用过人工智能应用程序,只有5%的人认为自己对医疗人工智能拥有丰富知识[14]。这种陌生和不熟悉势必会导致严重的不良后果。
其次,算法权力“持续性控制”容易导致患者信息泄露。数字时代的医疗健康大数据已然升级成为重要的战略资源[15],然而深陷“数据孤岛”的社会与充满不确定性的知情同意原则难以确保患者数据来源的合法正当,被符号化、代码化的医疗信息更得以轻松突破时空壁垒,在去边界化的数字世界中被无限制地复制与传播,个体的健康状况与医学研究价值不仅被大数据“精准算计”,而且极易陷入信息脱敏处理困境。在Dinerstein诉芝加哥大学及谷歌案中,芝加哥大学因向谷歌共享数十万条“去标识化”的患者记录而受到指控,因为相关记录的匿名化处理不充分,仍然包含了患者的人口统计数据、诊断数据、手术记录和药物记录等,据此可以重新定位患者身份,严重侵犯个人隐私[16]。
最后,在算法偏见与算法黑箱的支配下,患者公平获取医疗资源的权利与知情同意权利同样面临挑战。由于数据样本偏差、算法逻辑瑕疵、算法设计者动机倾向等因素普遍存在,有关基因、种族、性别、地域等偏见将于无形之中嵌入算法程序。例如,一篇发表于《科学》的研究报告指出,一项广泛运用于美国医疗保健系统的健康服务算法对非洲裔患者存在严重的种族歧视,在患者病情发展相当的状态下,算法总是赋予黑人相对较低的风险阈值,因此,有将近一半的黑人未被算法识别为“产生复杂医疗需求”的群体,导致他们无法参与改善健康的干预项目[17];并且,患者的知情同意权基于算法的固有属性和复杂架构很难实现[18],因为医疗人工智能本质上是一套基于统计学的数学模型,行为决策更多依赖的是概率统计学上的相关关系,而非因果关系。因此,其输出结果在部分情况下可能难以被通常推理所理解,也难以经由逻辑所复现[19]。而现代医学是一种“循证”的生物科学,重视证据和医生的临床经验技能,临床行为决策也必须遵循现象与结果之间因果关系的经验演绎。算法黑箱的不透明属性导致医生只能通过观察数据来验证机器判断是否正确,这显然超越了医生的认知能力范围,导致其向患者履行告知义务时受阻,相应的,患者真正的知情同意权便无从保障。
2.主体消解:智能诊疗挑战医生自主地位。科技的本质属性并不会因为时代的更迭而改变,身处每一个历史阶段的人类都需要进行科技的人文反思。诚如马克思所言,人与机器之间的关系是主客体关系,机器在本质上应当是增进与确证人的自由全面发展的社会性存在[20]。然而,当下由数据所塑造的“人机关系”似乎正朝着人类预期的相反方向发展。在人类社会中最应体现“人文关怀”的医疗领域,身披算法“隐身衣”的医疗人工智能却能够轻松绕过传统医学的伦理审查与规范强制,并以其智能诊疗优势作为“麻醉剂”实现医生群体对医疗活动主动控制权的“自愿”转移,医疗领域正面临一场机器“反客为主”的人文危机。实际上,这是医疗人工智能工具理性超越价值理性所使然,机器“价值无涉”的理性偏失致使工具理性价值凌驾于医生的自我价值之上,医生群体被迫让渡部分自主权利,置身于“技术茧房”之中难以逃脱被技术同化的命运。伴随着智能诊疗优势持续放大,各执业阶段的医生在诊疗活动中会更加倾向于参考人工智能的建议,甚至让人工智能直接参与其中,尤其是在医疗资源短缺、诊疗压力巨大以及新手医生缺乏临床实践经验的现实情况下[21]。最终,医务人员的自主决策空间不断受到辅助决策系统的挤压。当医疗人工智能无法考量个体独特的身心特征、过往病史以及社会因素等差异性,在诊疗过程中出现人机判断相左的“同行分歧”,如何抉择对于医生而言更是一项艰难的事实判断与价值选择。
3.问责困境:数字要素介入加重归责难题。现阶段认定人工智能致人损害的法律责任主要遵循“人-物”二分法,即当下的人工智能由于缺乏独立的主观意识而与具有“人类智慧”的自然人存在本质区别,也因欠缺对加害行为的“辨认能力”与“控制能力”,故暂不具备承担法律责任的主体资格[22]。同时,机器“价值无涉”的行为法则也意味着很难在规范层面之外将其作为“充分的道德行动者”纳入道德责任的归属和分配机制。因此,当下的医疗人工智能归责只能遵照传统的以过错责任与严格责任为核心的二元问责制,对处于医疗机构、医疗产品的生产者与销售者等自然人主体问责,试图将人机混合诊疗模式下的复杂行为拆解为个体行为,将损害责任分配于系统个体[23]。
然而,正如塔代奥和弗洛里迪所指出的,“人工智能的能动性是分布式的而非个体性的”[24],不仅作为机器生产动力的数据要素呈全面分散式存在,而且机器决策通常是多元主体之间无数次的交互结果,这就使得处于对立面的个体归责方案极易陷入适用困境。主要体现为三个方面:一是责任主体难以追溯。在传统的医疗损害事故中,医疗机构及其医务人员是唯一的疾病诊断者和干预者,法律仅需要依据过错原则确认单一医疗机构及其医务人员的责任。当医生自主决策转向人机混合决策,医疗算法模型的设计者、使用者及其管理者等多主体均涉入决策过程,法律便很难在多元主体共决和算法复杂特质的共同作用下快速确认究竟是何主体实施了决定性的加害行为,个体主义归责方案所遵循的“复杂行为-个体行为”逻辑链条在虚实交互之下断裂。二是因果关系难以认定。人工智能医疗事故损害的发生往往是多因一果、多因多果的过程,不仅判断每一层因果关系的有无以及强弱十分困难,而且难以查明损害究竟是何种原因所直接或间接导致损害结果。且人机共决的错综复杂关系更是加剧了因果关系的证明难度[25]。三是可能存在无“责任空场”的情况。倘若处于因果关系链上的自然人已经在能力范围内尽到充分认知与完全控制仍无法阻止医疗损害发生,便可基于其不存在过错主张责任豁免,加之现阶段的医疗人工智能尚不具备承担法律责任的主体资格,即使行为符合构成要件与违法性要件之后也不具备非难可能性,承担法律责任的“有责性”要件直接被排除在外[26]。此时,在规范层面不存在确切的责任主体为一场实在发生的医疗损害事故承担责任,这显然不符合现代社会“理性人”的正义标准。
三、数字时代医疗人工智能风险的应对策略
医疗人工智能日新月异的发展不断挑战着传统社会的法律制度,形成了一个社会伦理风险泛在的虚拟医疗数字空间。因此,必须立足数字技术空间与医疗领域的特殊性,以数字法治所内涵的数字人权、数字正义以及数字安全理念重新配置权利、义务和责任等法律关系,构建符合智能医学发展规律的伦理框架和行为规范。
1.以数字人权为本源,维护医疗主体基本权利。数字社会需要人权以“数字形态”的方式继续承担为人类社会进行道德奠基的重任[27],由此传统人权的更新迭代而衍生出第四代人权——数字人权[28]。在医疗数字领域,患者的生命健康与人格尊严等最基本的个人价值实现皆有赖于信息、数据和代码的数字描绘,然而技术门槛与信息不对称筑起的壁垒是如此之高,以至于被“拦在门外”的患者逐渐丧失对其生存发展的控制支配权。而法律人应对挑战通常的方式是诉诸法律权利,但数字人权新生的内涵与外延又无法被传统人权所完全覆盖,因此,有必要在数字空间下探索人的数字权利,推动从传统物质世界人权观到新兴数字世界人权观的提级转变[29]。
一方面,坚持“以人为本”的数字法治运行原则,是数字人权的首要内涵[30]。面对医疗人工智能对患者基本人权的威胁,必须坚持人本主义理念及其以人民为中心的基本立场,并在此基础上排列医疗领域的价值位阶。首先要以患者的身体健康和生命安全作为首要价值追求,驯化医疗人工智能应当具备的道德正义价值次之,最后才涉及医疗科技发展、经济效益追求等效率价值。另一方面,细化医疗领域的具体数字人权,并以制度保障其权利行使。在患者与医疗人工智能的关系中,患者显然属于被动的、极易受到侵犯的“数字弱势群体”。因为他们难以跨越“数字鸿沟”寻得公平正义,这便需要确立以数字人权为核心内容的制度保障。而数字人权的介入常以抽象的“权利束”的方式呈现,因此还需要进一步细化为患者在数字空间的数据自主权、数据隐私权、数据知情权、数据表达权、数据公开使用权、数据财产权等事关数字身份的子权利,并且随着医疗数字实践的发展逐步扩大具体权利范畴。
2.以数字正义为基础,保持智能医疗的正确方向。数字正义是社会正义原则和正义实现机制在数字领域的体现,是正义体系的重要组成部分与中枢,具有价值引导与利益分配、技术规则与发展激励等治理功能[31]。然而,基于算法具有效率导向的内生特点,极易与实现数字正义的初衷背道而驰[32]。为防止技术主义、工具主义、形式主义的反向侵蚀,算法应用当满足人权、正义、法治价值的理想状态[33]。尤其是在关乎最基本民生福祉的医疗领域,更应当排除传统“技术中立”原则下机器价值无涉的被动立场,遵循数字正义所内涵的“科技向善”原则。
一是在医疗算法程序编写过程中施以积极价值导向的人为干预,确立“自上而下”的通过普遍性医疗伦理准则来指导和约束机器具体行为的治理范式。算法自动化决策的知识、逻辑、边界和价值基准可以被事先预置,这一论断早已体现在艾萨克·阿西莫夫(Isaac Asimov)提出的“机器人三大定律”中,其认识到通过道德准则和伦理规范来指引机器行为以提高人类福利的可能性,指出实现机器正义的最佳途径就是对基本伦理原则进行“可计算式”处理后通过编程的方式将其嵌入机器的行为机制中。借鉴此种优化顶层设计的治理思路,可将医疗数字正义的实现诉诸于用以模型训练的医疗数据正义,即确保数据来源与内容合法、数据的准确性与科学性以及数据的普遍适用性与系统全面性。在研发阶段主动依照世界卫生组织《卫生健康领域人工智能伦理与治理指南》所提出的六大伦理准则引导医疗人工智能行为,经由前摄性地对算法设计施加积极影响,而非算法运行之后被动的事后反应。
二是通过“自下而上”的案例训练机制培养机器对伦理要素和道德内涵的理解,以形成系统性价值观后指导机器行为。这在当代人工智能伦理奠基人科林·艾伦(colin allen)与温德尔·瓦拉赫(wendell wallach)所提倡的“道德图灵测试”中也有所体现。他们发现通过测试的人工智能可以作为“人工道德行动者”而具备识别道德事实相关的敏感性能力,并相信人工智能可以通过经验性情境中的个别案例学习来模拟人类的道德行为,从而间接地获取普遍抽象的道德规范以作为未来行为决策的指引,甚至在此基础上形成类似人类的社会性情感关系[34]。借鉴此治理范式,当下可以选择在具有典型代表性与普遍适用性的临床案例学习中循环往复驯化机器,并形成医生对机器的“复数决策机制”与“正负反馈机制”,即明确医务人员的自主地位与人工智能的辅助地位,要求医务人员必须负担机器价值判断后的再判断义务,再由医生将判断结果反馈于机器,通过外部评判加深机器对其自身行为的认知,以指引其执行下一次诊疗任务。由此,形成专属于医疗人工智能的以数字正义为核心的道德评价体系。
3.以数字安全为保障,完善医疗算法运行机制。数字安全是指数字系统及应用处于稳定可靠运行的状态以及具备保障其安全性的能力[35]。不同于其他领域通用的人工智能,医疗人工智能聚焦严肃且谨慎的医疗场景,事涉患者生存发展最基本的生命健康权,故而其天然对错误的容忍度更低。因此,确有必要基于事前防范、事中监管以及事后问责三个层面完善算法运行机制,回归算法底层逻辑控制算法风险。
在事前防范阶段,依照数字安全所要求的“防患于未然”之要义,构建医疗算法影响评估机制,并将其设置为医疗人工智能投入临床使用的前置性审查程序。对于算法研发主体而言,需要遵照医疗领域的特殊性全面评估医疗智能设备在投放市场或进入医疗机构之前的风险指标,依据准确率、灵敏度、特异性以及公平性等多项指标综合考量。而对于医疗机构而言,综合性的算法影响评估机制更是辅助其完成风险自查与事前干预的合规管理路径。
在事中监管阶段,遵循数字安全所内涵的“权力制约”的逻辑进路,确保日渐膨胀的算法权力在透明化标准下接受行政主管部门的公权力监管。一方面,医疗人工智能的研发设计主体向行政主观部门履行算法参数报备义务,甚至对于直接关乎生命健康的重大研发项目,需要履行更为严格的源代码备案程序[36],便于事后通过参数从源头追溯研发设计环节的主体责任。同时,此类主体还应当负担打开“算法黑箱”解释算法的义务,并形成书面报告向行政主管部门报备。即由研发设计者将算法代码转化为医学专业术语,并向医疗机构解释决定机器决策的主要参数以及这些主要参数相对于其他参数更为重要的理由,进而有助于医疗机构向患者履行“告知”义务[37]。另一方面,医疗人工智能的最终生产者应当依照《医疗器械监督管理条例》第6条划分的“三级分类监管”方式向行政主管部门履行登记备案手续,依据预期目的、结构特征、使用方法等因素综合评价医疗人工智能的风险等级后归类管理。由此,数字医疗场域在行政公权力的介入之下形成“算法权力-国家权力-私人权利”的平衡格局。
在事后问责阶段,应当完善医疗算法问责机制,分级分类构建“负责任”的医疗人工智能[38]。“分级”旨在区分医疗人工智能的高级状态与低级状态,高级状态的医疗人工智能不仅需要满足思维自主性能力及与道德事实相关的敏感性能力,还需要具备足以赔偿损失的独立财产[39]。自主独立意识和道德评价体系的“拟人格化”特征使其具备承担责任的主体资格,而独立的财产要件决定其具备责任能力。显然,现阶段的法律责任承担暂且只能在人工智能的低级状态下“分类”讨论,即在区分医疗产品责任与医疗损害责任的基础上,提高现行规则之于数字技术的适应性。第一种情况,当医疗人工智能纯粹作为“医疗器械”具有产品缺陷,可依据《民法典》第1223条适用无过错责任原则,追究生产者、销售者与医疗机构的不真正连带责任。事实上,还应当扩大无过错责任原则的适用主体,将医疗人工智能的设计者、数据提供者、标注者等实质影响智能医疗产品质量的主体作为问责对象。第二种情况,当医疗人工智能在辅助医生决策时引发医疗损害,可依据《民法典》第1218条适用过错责任原则,将医疗机构作为主要的问责对象,并调整相关规则:一是扩大过错推定的法定情形,《民法典》第1222条仅明确在三种特殊情况下推定医疗机构对损害发生具有过错,均未考虑数字要素介入后人机混合决策的复杂情况。为此,应当增加医疗机构使用智能诊疗系统致患者损害的过错推定标准。二是采取举证责任倒置,囿于医学诊疗的专业性、特殊性和复杂性,患者在证据取得、保存等方面处于相对弱势的地位,应当由医疗人工智能的“实际控制主体”医疗机构承担证明责任。第三种情况,当产品缺陷和医疗机构过错共同导致损害发生时,则首先遵循“原因力规则”,依据对损害结果的发生或扩大所发挥的作用力大小按份分配责任[40]。若无法区分原因力作用大小,则遵循“公平原则”对因果关系链上的主体平均分配责任,以实现社会风险分散化的价值目标。
医疗人工智能的风险应对是数字时代建设健康中国的必答题,而医疗领域的特殊情景与人文特质,使得医疗人工智能合乎伦理的价值体系不能直接套用一般性的智能伦理准则,数字要素的介入更是决定了危机化解的出路不能再局限于传统规则。应当立足于数字法治视角,深度挖掘数字人权、数字正义以及数字安全的内涵,并将其价值内嵌于医疗法治体系中。在协调人工智能与医疗主体之间的外部关系的同时,回归算法内部的底层逻辑,完善其运行机制,协同推进智能医疗向善向美发展。
参考文献:
[1] 周尚君.习近平法治思想的数字法治观[J].法学研究,2023(4):3-20.
[2] 唐林垚.“脱离算法自动化决策权”的虚幻承诺[J].东方法学,2020(6):18-33.
[3] 任颖.智能医疗算法审查的融合型立法研究[J].法学评论,2022(6):131-141.
[4] 刘建利.医疗人工智能临床应用的法律挑战及应对[J].东方法学,2019(5):133-139.
[5] 周娜,李爱芹,刘广伟,等.沃森肿瘤人工智能系统在临床中的应用[J].中国数字医学,2018(10):23-25.
[6] 高奇琦,吕俊延. 智能医疗:人工智能时代对公共卫生的机遇与挑战[J]. 电子政务, 2017(11): 11-19.
[7] 清华大学智能产业研究院.BioMedGPT-10B全球首个开源可商用百亿参数多模态生物医药大模型[EB/OL].[2023-08-23].https://air.tsinghua.edu.cn/info/1007/2077.htm.
[8] W NICHOLSON II PRICE.Artificial intelligence in the medical system: four roles for potential transformation[J]. Yale Journal of Law and Technology, no. Special Issue,2019( 21): 122-132.
[9] 郭哲.大数据国际追逃追赃的法治治理[J].当代法学,2023(2):136-147.
[10] 郑智航.人工智能算法的伦理危机与法律规制[J].法律科学(西北政法大学学报),2021(1):14-26.
[11] 王政,刘温馨.5G融入超六成国民经济大类[N].人民日报,2023-06-21(3).
[12] 汪青松,罗娜.替代还是支持:AI医疗决策的功能定位与规范回应[J].探索与争鸣,2023(5):100-110.
[13] 任安波,叶斌.我国人工智能伦理教育的缺失及对策[J].科学与社会,2020(3):14-21.
[14] SCHEETZ J, ROTHSCHILD P, MCGUINNESS M, et al. A survey of clinicians on the use of artificial intelligence in ophthalmology, dermatology, radiology and radiation oncology[J]. Scientific reports, 2021,11(1):5193.
[15] 胡瑶琳,余东雷,王健.“健康中国”背景下的健康医疗大数据发展[J].社会科学家,2022(3):79-87.
[16] STACEY A TOVINO. Not so private[J].Duke Law Journal,2022, 71(5): 985-1046.
[17] 唐颖侠.数字技术加剧美国的种族歧视[N].光明日报,2022-06-20(12).
[18] I GLENN COHEN.Informed consent and medical artificial intelligence: what to tell the patient?[J]. Georgetown Law Journal, 2020,108 (6): 1425-1470.
[19] FELDER R M. Coming to terms with the black box problem: how to justify AI systems in health care[J]. Hastings Center Report, 2021, 51(4): 38-45.
[20] 王众威.马克思关于机器的三个隐喻——基于人机关系视角的研究[J].理论月刊,2023(9):16-22.
[21] GAUBE S, SURESH H, RAUE M, et al. Do as AI say: susceptibility in deployment of clinical decision-aids[J]. NPJ digital medicine, 2021, 4(1): 31.
[22] 刘宪权.人工智能时代的“内忧”“外患”与刑事责任[J].东方法学,2018(1):134-142.
[23] 何丽.人工智能辅助医疗决策的归责难题新解[J].自然辩证法研究,2023(6):65-71.
[24] TADDEO M,FLORIDI L.How al can be a force for good[J].Science,2018,361(6404):751-752.
[25] 郑志峰.诊疗人工智能的医疗损害责任[J].中国法学,2023(1):203-221.
[26] 陈兴良.刑法中的责任:以非难可能性为中心的考察[J].比较法研究,2018(3):20-33.
[27] 郑智航.数字人权的理论证成与自主性内涵[J].华东政法大学学报,2023(1):35-47.
[28] 马长山.智慧社会背景下的“第四代人权”及其保障[J].中国法学,2019(5):5-24.
[29] 潘志玉.人工智能应用的伦理风险及法治应对[J].学习与探索,2022(7):61-67.
[30] 马长山.数字公民的身份确认及权利保障[J].法学研究,2023(4):21-39.
[31] 孙跃.元宇宙法律治理中的数字正义及其实践路径[J].湖北社会科学,2023(5):118-125.
[32] 张凌寒.数字正义的时代挑战与司法保障[J].湖北大学学报(哲学社会科学版),2023(3):133-14.
[33] 周尚君,罗有成.数字正义论:理论内涵与实践机制[J].社会科学,2022(6):166-177.
[34] 黄素珍.人工智能的责任困境:以自主能动性和道德图灵测试为探讨中心[J].山东社会科学,2020(4):11-18.
[35] 张吉豫.数字法理的基础概念与命题[J].法制与社会发展,2022(5):47-72.
[36] 汪庆华.算法透明的多重维度和算法问责[J].比较法研究,2020(6):163-173.
[37] 李润生.医疗人工智能临床应用中医生告知义务的触发条件与衔接机制[J].深圳大学学报(人文社会科学版),2023(1):92-100.
[38] 肖红军.构建负责任的平台算法[J].西安交通大学学报(社会科学版),2022(1):120-130.
[39] 郑文革.人工智能法律主体建构的责任路径[J].中国应用法学,2022(5):221-231.
[40] 何炼红,王志雄.人工智能医疗影像诊断侵权损害赔偿法律问题[J].政治与法律,2020(3):27-37.
(责任编辑 彭建军)