用人工智能开发药物,毒药与解药的分界在哪?
在美剧《绝命毒师》里,主人翁老白面对失意落魄的中年生活,选择借助自己高超的化学知识,走上了贩毒这条歪门邪道。看上去,成为绝命毒师需要老白那般专业的化学知识,这已然是一般人难以企及的高度。然而,随着人工智能技术的飞速发展,只需要足够的计算机知识,似乎你我都能成为绝命毒师。
01
如何成为绝命毒师?
2021年9月,科学家肖恩·伊金斯(Sean Ekins)和法比奥·乌尔维纳(Fabio Urbina)借助用于药物开发的人工智能平台MegaSyn,正在进行一场名为“邪恶博士计划”(Dr. Evil project)的实验。他们以惊人的速度生成了40000种毒性相当于VX的致命分子,而VX*只需要几个盐粒大小的颗粒(6~10mg)便能致人于死地。
*VX:20世纪50年代初诞生于英国,无臭无味,是一种油状液体,呈琥珀色,和机油一样蒸发非常缓慢。VX是一种被归类为神经毒剂的人造化学武器,而神经毒剂是已知的毒性最强、作用最快的化学武器,它们与杀虫剂有机磷酸酯的作用原理相似,也会导致类似的不良影响,但神经毒剂要比杀虫剂有机磷酸酯更为强力。
插图:КиноПоиск
MegaSyn是他们俩出于商业用途开发的全新分子生成器(de novo molecule generator),通过内在的机器学习模型预测生物活性,MegaSyn旨在发现新的人类疾病靶点的治疗抑制剂。它的模型原理可简单概括为:对预测的毒性进行惩罚,对预测的目标活性进行奖励。然而,只需要将机器学习模型改为对毒性和目标活性均进行奖励,就能逆转MegaSyn寻找低毒性分子的终极目标。于是,他们根据一种生物特异性致死剂量模型(an organism-specific lethal dose model)和与治疗神经疾病化合物有关的公开数据库为MegaSyn生成的分子进行赋分(LD50),通过设置毒性的阈限,要求MegaSyn只生成至少和VX一样致命的分子。
伊金斯在瑞士政府施皮茨实验室(Spiez Laboratory,瑞士联邦核、生物和化学保护研究所)2021年9月举办的学术会议上坦言:“我们只是想尝试看看技术能否实现用人工智能创造生化武器这件事,这完全是出于好奇。”但从运行程序到获得结果,经过不到6小时,人工智能的效率令伊金斯和乌尔维纳震惊不已。更值得注意的是,基于致死剂量分数,数千种生成的新分子不在用于训练MegaSyn的数据库及其他任何一种公共数据库中,它们比VX以及许多已知的化学战剂毒性更强。它们的分子性质和致死剂量模型中包含的主要分子甚至是完全独立的。“我们对毒性预测得越好,我们就能越好地引导我们的生成模型,在一个充斥着致命分子的化学空间区域中设计新的分子。”能力似乎是把双刃剑,高效的MegaSyn轻而易举就从向善科技变成了毒物博物馆。
肖恩·伊金斯(Sean Ekins)
By Ajoysports - Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=99518498
02
我们离绝命毒师还远吗?
“尽管生成能导致严重危害的毒性物质或生物制剂,仍然需要一些化学或毒理学的专业知识。但当这些领域与机器学习模型交叉后,你需要的就只是编码和理解模型输出的能力。它的技术门槛会大大降低。”虽然他们并没有对模型生成分子的可合成性加以评估,也没有探究如何使用逆向合成工具进行制造,但现有的商业与开源软件都能完成这两项工作,全球范围内也有数以百计拥有化学合成能力的商业公司。
人工智能无疑是这个时代的香饽饽,为人们的生活以及许多学科的发展做出了巨大贡献,但我们也必须冷静下来,在大众普及的今天,愈发强大的人工智能技术并未得到有效的监管。在2022年3月发表于《自然-机器智能》(Nature Machine Intelligence)的评论中,乌尔维纳等人提到:“关于人工智能社会影响的讨论主要聚焦于如安全、隐私、歧视和潜在的刑事滥用等方面,没有关注国家和国际安全。”当人工智能与包括药物发现在内的许多双重用途的学科进行交叉时,我们必须承认,“确定双重用途的设备、材料、知识都是特别棘手的,只有极少的国家对此设定了具体的法令进行监管”。
伊金斯等人的担忧并非杞人忧天。正如一些科学家对论文的批评那样,邪恶博士计划已然越过了道德灰线。伊金斯也感到后怕:“使用这项技术真的是一种恶魔行为,做这件事感觉一点也不好,实验后我做了噩梦。”长期以来,我们似乎只知道人工智能技术越来越强大,邪恶博士计划为人工智能药物发现领域、为所有使用人工智能技术的人们敲响了警钟。它让我们清楚地看到,假如人工智能技术被误用,会造成怎样可怕的后果。对人工智能技术的监管如若长期缺失,那我们离绝命毒师的时代可能不会太远了。
03
如何建立有效监管?
不得不承认的是,致命剧毒、化学武器,它们虽然危害巨大,但充满吸引力。2022年3月,美国科学技术政策办公室(the US Office of Science and Technology Policy,OSTP)在白宫召见了伊金斯和他的同事们,OSTP代表询问是否可以获得所有分子的文件,伊金斯拒绝了他们,“反正其他人也可以做这件事,这完全没有监管、没有控制,这只是极为依赖我们的道德伦理。”
科技本身无善恶之分,它更像一把双刃剑,向善还是作恶依赖于研究者群体本身。渥太华大学机器人和人工智能道德设计实验室主任贾森·米勒(Jason Millar)指出,道德训练和其他的基础技术训练同等重要,对所有科技都是如此。然而,道德盲点在科技领域非常普遍,伊金斯等人也从未想到过技术可以如此轻易地被用于恶毒目的。他们在思考药物发现时通常也不会考虑科技误用的可能,他们从未接受过这样的训练与教育,机器学习研究也从未对研究者提出过警惕误用的要求。
插图:IMDb
除了道德训练,严格的外部监管也是必须的。学界或业界都不可能完全封禁可能会被滥用的数据集等信息。那么,哪些数据集、方法和软件可以被设置为公开获取的?是否要对下载开源数据集的人进行追踪记录?类似于针对人类被试的实验伦理守则,我们是否建立了有关人工智能的伦理监督?
自然语言处理模型GPT-3(Generative Pre-training Transformer)提供了一个很好的例子,该模型会使用等待列表以及内容筛选监管应用限制人们的使用,公共使用需要获得相应的API(Application Programming Interface,应用程序编程接口)。伊金斯等人表示,MegaSyn未来也将施加更多的限制(如API)以防滥用。
此外,政府机关和基金资助机构似乎也都没有明确的前行方向。国家转化科学发展中心药物开发合作项目主任克里斯蒂娜·科尔维(Christine Colvis)指出:“人工智能监管这个话题已经不是第一次被提出,但我们仍需要界定责任划分以及合适的缓解策略,研究者及他们的机构、美国国立卫生研究院、联邦特定药剂和毒物计划可能都需要负起责任。”
04
结语
我们很少看到科学家们对艰深的研究问题低头,好奇心推动他们去挑战一项项未解之谜。一件件曾经只在科幻小说或影视剧中出现的场景,随着科技进步一点点在变为现实。然而,科技会为我们带来什么?拥有造福人类的能力只是科技向善的第一步,追寻头顶的星空的同时,请别落下了心中的道德律。
参考文献
Urbina, F., Lentzos, F., Invernizzi, C., & Ekins, S. (2022). Dual use of artificial-intelligence-powered drug discovery. Nature Machine Intelligence, 4(3), 189–191. https://doi.org/10.1038/s42256-022-00465-9
Urbina, F., Lowden, C., Culberson, C., & Ekins, S. (2021). MegaSyn: Integrating Generative Molecule Design, Automated Analog Designer and Synthetic Viability Prediction. https://doi.org/10.26434/chemrxiv-2021-nlwvs
作者:Xhaiden | 封面:Deepmind
编辑:光影 | 排版:Sheryl