查看原文
其他

生物伦理学家和医学教授:全权负责医疗保健人工智能监管

如众所周知,自去年11月首次出现以来,Chatgpt引起特别的关注与惊艳。但更专业的AI 早已在医疗环境中广泛使用,包括放射学、心脏病学和眼科等。据悉,由Alphabet拥有的AI公司DeepMind所开发的Med-Palm是另一个大型语言模型。其5400亿个参数已接受涵盖专业体检、医学研究和消费者医疗保健查询等数据集培训。这技术意味着我们急需要考虑医生和AI如何生成最好的合作方式,以及医疗角色将如何因此改变。


据了解,健康AI的好处可能是巨大的。包括:使用成像技术进行更精确诊断,通过分析健康和非健康数据对疾病进行自动早期诊断,以及立即为患者生成临床计划等。AI可以使护理成本更加便宜,因为它可藉新方法来评估糖尿病或心脏病等风险,例如通过扫描视网膜而不是进行大量血液测试。AI还有可缓解新冠肺炎所留下的一些挑战,包括卫生服务生产力下降、生理检测和护理积压,以及困扰世界各地卫生系统的许多其他问题。

对于AI在医学上的所有承诺,迫切需要一个明确制度来监管它及其相对所带来的责任。简言之,必须保护患者免受错误诊断、不可接受的个人数据使用和有偏见算法风险等。如果机器无法提供良好医疗实践所强调的核心:亦即同理心和同情心,至少也应为医疗保健的可能去人格化做好准备。与此同时,各地监管机构都同样面临着棘手问题,也就是立法必须跟上技术发展,考虑算法本有的动态性质,同时了解这些算法将随时间推移而有所变化。当下监管机构应牢记的是以下三原则:协调、适应和问责。


首先,迫切需要在国际上协调专业知识,以填补治理真空。据信,AI工具将在越来越多国家使用,因此监管机构现在起,就该开始相互合作。事实上,监管机构在疫情期间早已证明他们可以一起合作行动。这形式合作理应成为常态,并建立在现有全球架构基础上,例如国际药品监管机构联盟,该联盟支持在科学问题上工作的监管机构。

其次,治理方法必须具有适应性。在许可前阶段,监管沙盒(公司在监管机构监督下,测试产品或服务)将有助于发展所需的敏捷性。例如,它们可用于确定可以和应该做些什幺来确保产品安全。但各种担忧,包括参与沙盒企业法律责任的不确定性,意味着这种方法没有像传统般地那样经常使用。因此,第一步是澄清那些参与沙盒者的权利义务。为求保证,沙盒应该与疫情期间首创的疫苗的“滚动审查”市场授权流程一起使用。这涉及通过交错审查数据包,在尽可能短的时间内完成对有前途疗法的评估等。

一旦产品上市后,还应持续评估AI系统性能。这将防止卫生服务陷入有缺陷的模式和不公平的结果,从而使特定人群处于不利地位。美国食品药品监督管理局(FDA)首先制定了具体规则,这些规则考虑到算法在获得批准后的学习潜力。如果制造商就产品算法如何更改提出一个众所周知的协议,这将允许AI产品随着时间的推移自动更新,然后测试这些更改,以确保产品保持显着的安全性和有效性。这将确保并提供用户的透明度,同时推进现实世界的性能监控与试点。

第三,技术提供商和医疗保健系统之间的合作需要新商业和新投资模式。前者希望开发产品,后者管理和分析大量高分辨率数据。二者伙伴关系是不可避免的,过去曾尝试过,但有一些明显的失败。过往IBM Watson曾大张旗鼓地推出,试以帮助改善医疗保健和支持医生做出更准确诊断。然而,来来去去许多障碍,包括无法与电子健康记录数据集成、临床效用差以及医生和技术人员之间期望错位,最后被证明是致命的干预。此外,DeepMind和伦敦皇家免费医院之间的合作亦引起争议。该公司在患者不知情的情况下,获得了160万nhs患者记录,以致合作案最终告吹。


从这些例子中学到的是,此类伙伴关系的成功将取决于对透明度和公共问责制的明确承诺。这不仅需要明确消费者和公司可通过不同商业模式实现什幺,还需要与医生、患者、医院和许多其他团体不断接触。监管机构需要公开科技公司将与医疗保健系统达成的交易,以及利益和责任分担等将如何发挥作用。据信,诀窍在调整所有参与者的激励措施。

综合言之,良好的AI治理不仅能促进业务也能保护客户,同时还得俱备灵活性和敏捷性。几十年来, 人们对气候变化的逐渐认识才转化为真正的行动,但我们始终做得不够。鉴于创新步伐,我们绝不能接受在AI上采取类似的缓慢步伐。

关注作者微信号

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存