其他
欢迎关注“中国医学伦理学”医学人工智能辅助诊疗引发的伦理责任问题探讨陈安天1,张新庆2(1中国医学科学院北京协和医学院北京协和医院心内科,北京100730,chenantian1@163.com;2北京协和医学院人文和社会科学学院,北京100005)达芬奇机器人已在临床上应用;常规的药品研发过程整合生物、化学以及制药研发,流程十分复杂,AI技术已被用来辅助筛选药物靶点,有助于研发方案最佳化[1]。同时,机器人诊疗引发了伦理和法律问题,包括:道德风险[2]、患者隐私泄露[3]、侵权责任[4]及主体地位[5]等。本文将重点讨论AI辅助诊疗引发的伦理责任问题。在第七版《现代汉语词典》中,责任指:“分内应做的事”和“没有做好分内应做的事,因而应当承担的过失”。本文中的责任的意象应取后者。技术一词也有两个意象,分别为:“人类在认识自然和利用自然的过程中积累起来并在生产劳动中体现出来的经验和知识,也泛指其他操作方面的技巧”以及“技术装备”。AI引发的责任问题应该是“AI这一技术装备没有做好分内应做的事,因而应当承担的过失”。假如机器人医生推荐危及患者生命的诊疗方案,而人类医生没有表示异议,并实施了治疗方案,最终导致严重不良事件发生,引发医疗纠纷。那么,机器人医生是责任主体吗?人类医生、机器人医生及厂家分别应该承担怎样的责任?1AI辅助诊疗引发的责任问题1.1