谷歌,让医疗AI发展倒退10年
医疗器械媒体报道先锋
分享专业医疗器械知识
关注日前,美国互联网科技巨头谷歌被爆出一则重磅丑闻——谷歌在21个州秘密收集了数百万份患者病历,这项工作被称为“夜莺计划”(Project Nightingale),这一计划在医生与患者毫不知情的前提下展开,因此在美国社会各界引起了一场关于个人隐私保护的轩然大波。
据《华尔街日报》消息,“夜莺计划”收集的数据包括“实验室结果、医生诊断和住院记录等,并包括完整的健康历史,以及患者姓名和出生日期”,而且谷歌可能有多达150名员工可以访问这些数据。这一消息被《纽约时报》证实,“夜莺计划”收集的数据用于人工智软件的设计,利用人工智能来定制个人患者的医疗服务。
谷歌的一小步,AI倒退的一大步
事件爆出后,谷歌立即遭到了媒体和政客的带头攻击,而谷歌则马上展开危机公关,谷歌健康业务主管大卫·费恩伯格公开否认了谷歌使用患者数据进行人工智能软件的研究。但这显然不能打消外界对谷歌在患者隐私保护方面的怀疑。
事实上,这已经不是谷歌公司首次陷入类似的丑闻,2017年谷歌与芝加哥大学医学中心合作开发具有准确预测患者是否住院,入院时间及病情是否恶化等功能的AI系统时,就曾被指控不正当访问数十万份医疗记录。
而更让民众担忧的是谷歌高层对患者隐私保护方面的态度向来十分强硬。早在2014年,谷歌联合创始人拉里·佩奇就在一次采访中表示:“人们没有真正去思考,以正确的方式和正确的人共享医疗信息可能带来的巨大好处。”这样的态度难免会令崇尚隐私保护的美国民众极其缺乏安全感,而一旦“夜莺计划”被查明属实,势必会给AI技术发展的反对派送上一份“大礼”,美国乃至世界的AI医疗产业发展进程都有可能受到波及。
绕不开的伦理问题
因此,国内外主要的AI 伦理共识——“阿西洛马人工智能原则”(Asilomar AI Principles,阿西莫夫机器人学三定律的扩展版本,可被理解为:AI 不能单纯地为了利益而创造,而应在确保人类不被替代的前提下,为通过自动化实现人类繁荣而创造。保持一种尊重隐私但开放、合作的AI 研究文化也是需要考虑的问题之一,需确保研究人员和政策制定者在交换信息的同时,不会用危害人类的手段与对手竞争)所约束的并非AI本身,而是使用AI的人。
国内唯一冠脉AI进入三类证创新通道,规模化商业落地破晓
AI下基层,走出第一步
《中国医学影像AI白皮书》发布:应用领域广泛,五大挑战待解