利用AI预测死亡风险,我们真的已经准备好了吗?
药明康德AI/编译(来源:《Wired》)
我们之前报道过,诺丁汉大学在《PloS One》上发表了一项研究:利用40岁至69岁英国人的健康数据(包括年龄和生活方式等),研究人员开发了一个新的人工智能模型,使用机器学习来预测人的早逝风险。在此之前,还有另外一项有关预测人死亡风险的研究:来自谷歌的研究人员使用机器学习技术,来对大量电子健康记录进行数据挖掘,以评估患者在住院期间死亡的可能性。这两项研究有一个共同目的,即评估这些信息是否可以帮助临床医生决定,哪些患者可能从干预措施中获益最大。
与此同时,美国FDA也在密切关注AI在医疗领域中的应用。本月初,美国FDA发布了一份白皮书,提出了AI与机器学习相关医疗器械的新审批框架。随着关于人工智能和医学的讨论逐渐增加,专家们开始呼吁对AI在预测死亡风险方面的作用展开具体的监督。
图片来源:Pixabay
这其中有几个原因。 首先,研究人员和科学家已经表达出了对于AI中可能出现偏见的担忧。机器学习中的偏见源于嵌入在算法中的“神经输入”,其中可能包括人类的偏见。研究人员已经开始重视这个问题,但问题仍未得到完全解决。
然后是医疗领域中无意识产生的偏见问题,这一涉及到学术领域和患者治疗的问题已经得到了广泛研究。例如,不同种族的患者治疗疼痛的方式存在差异,尽管其效果可能因医生的性别和认知程度而异。一项研究发现,在黑人或女性医生中这种偏见发生频率较低。
2017 年,一项针对这些偏见的研究表明,虽然医生可能偏好白人患者,但这可能不会影响他们的临床决策。然而,在大量其他研究中的结果并非如此。例如,如果黑人生活在对他们有更多种族偏见的社区,他们某些疾病的预后可能更差。此外,基于性别的偏见也不容忽视:例如女性心脏病发作(急性冠脉综合征)时的治疗方式相对来说会没有那么积极。
图片来源:123RF
当涉及到死亡和临终护理时,这些偏见就更加令人关注了,因为它们可能使现有的差异长期存在。一项名为SUPPORT(针对治疗结果及风险的预后和偏好研究,Study To understanding prognostes and Preferences for Outcomes and Risks of Treatments)的研究调查了来自5家医院9000多名患者的数据,发现黑人患者在临终时接受的干预较少。虽然黑人患者表示希望与医生讨论心肺复苏(CPR),但统计结果显示他们进行这些谈话的可能性明显较低。其他研究也发现了类似的结论,即黑人患者对临终护理的了解较少。
然而,这些趋势并不显著。2017 年的一项分析调查数据的研究发现,临终护理并没有出现与种族相关的显著差异。而许多其他研究已经发现,一些种族群体倾向于更积极地对待生命的终结——这可能与对抗有系统偏见的医疗系统有关。尽管不同种族之间的偏好可能不同,但当医生在不自觉的情况下没能提供所有的选择,或不根据其种族对特定患者可能更喜欢的选择做出假设时,仍会导致偏见的出现。
不过,在某些情况下,谨慎地使用AI会有助于作为评估生命结束的一环,减少偏见的影响。就在去年,来自中国的研究人员使用AI来评估脑死亡。值得注意的是,通过使用算法,机器能够更好地捕捉那些医生在使用标准技术时遗漏的大脑活动。但是,在将AI用于研究以外的用途之前,应该对其进行谨慎仔细的验证。
人工智能是一个很有前景的工具,并已经显示出了在诊断方面的巨大潜力。但是,利用这项技术预测甚至确定人类的死亡时间和风险,是一个既独特又具有挑战性的领域,可能会充满那些在医患互动中同样存在的偏见。总有一天,不管做好准备与否,人们都会面临一个现实而又充满哲学性的难题,那就是让一台机器来决定人类的死亡。而科学家们在这之前要完成的是,确保这项技术不会继承人类固有的偏见。
参考资料:
[1] AI could predict death. But what if the algorithm is biased? Retrieved April 22, 2019, from https://www.wired.com/story/ai-bias-predict-death/
本文来自药明康德微信团队,欢迎转发到朋友圈,谢绝转载到其它平台。如有开设白名单需求,请在文章底部留言;如有其它合作需求,请联系wuxi_media@wuxiapptec.com。
更多精彩文章:
一天两家医疗AI新锐获千万级融资!它们吸引风投公司的“杀手锏”是?
Atomwise与DNDi开展合作,推动人工智能研发寄生虫病药物
利用机器学习发现NASH靶标,吉利德科学与insitro达成合作
大家关注的公众号越来越多,找不到“药明康德AI”怎么办?简单四步,将“药明康德AI”设置为星标公众号,问题即可解决。
点“好看”,分享AI健康新动态