Nature 封面:AI 改变科学的多种方式,无论是好是坏
The following article is from ScienceAI Author ScienceAI
将 ScienceAI 设为星标
第一时间掌握
新鲜的 AI for Science 资讯
编辑 | 绿萝
人工智能(AI)涉及的研究领域不断增加。从蛋白质折叠到天气预报,从医学诊断到科学传播,这个列表似乎与日俱增。
今天,《Nature》杂志封面,刊登了「AI 如何改变科学」系列相关文章。
从本周开始,《Nature》杂志将深入探讨人工智能如何帮助重塑科学事业。在本周的期刊中,Nature 探讨了为什么研究人员对这项新兴技术如此兴奋,并且还探讨了人工智能生成的虚假信息所带来的风险。在接下来的几周内,Nature 将探索人工智能如何改变科学的其他方面,并将其所有内容整合到一个在线资源中。(地址:https://www.nature.com/immersive/d41586-023-03017-2/index.html)
根据《Nature》杂志的分析,Scopus 数据库中在标题或摘要中提及人工智能或人工智能相关关键词的论文比例目前为 8%,而十年前为 2%。
与此同时,人工智能也在发生变化。21 世纪 10 年代见证了机器学习算法的繁荣发展,这些算法可以帮助识别庞大、复杂的科学数据集中的模式,而 21 世纪 20 年代则迎来了生成式人工智能工具的新时代,这些工具在庞大的数据集上进行了预先训练,这些数据集具有更大的变革潜力。
但确切地说,各种形式的人工智能如何以及为何影响科学——事实上,所有所谓的好处是否或如何实现——本身就是一个新兴的故事。
人工智能与科学:1,600 位研究人员的想法
《Nature》杂志的一项调查收集了来自世界各地 1,600 多名研究人员的观点。这标志着一个关于人工智能在科学中的作用的新系列的推出。Nature 打算在深入研究研究人员对人工智能的看法时利用这些结果,从而为有关该技术的潜力及其陷阱的对话提供信息。
当受访者被问及他们认为人工智能工具在未来十年对其领域有何用处时,超过一半的人认为这些工具「非常重要」或「必不可少」。但科学家们也对人工智能如何改变研究方式表示强烈担忧。
例如,调查受访者告诉 Nature,他们正在使用人工智能来处理数据、编写代码并帮助他们撰写论文。对许多人来说,一项明显的好处是英语科学传播。由大型语言模型 (LLM)(尤其是 ChatGPT)提供支持的生成式 AI 工具可以帮助母语不是英语但需要使用英语发表研究的研究人员。科学家可以利用 LLM 来提高他们的写作风格和语法,并翻译和总结其他人的工作。
受访者首先关注机器学习,并找出了人工智能工具帮助他们工作的许多方法。从可能的优势列表中,三分之二的人指出人工智能提供了更快的数据处理方法,58% 的人表示它加快了以前不可行的计算速度,55% 的人提到它节省了科学家的时间和金钱。
调查结果还揭示了人们对人工智能对科学影响的普遍担忧。从可能的负面影响列表来看,69% 的研究人员表示人工智能工具可能会导致人们在不理解的情况下更加依赖模式识别,58% 的研究人员表示结果可能会加剧数据中的偏见或歧视,55% 的人认为这些工具可能会使欺诈变得更容易,53% 的人指出,考虑不周的使用可能会导致不可重复的研究。
人工智能也广泛应用于世界各地的科学教育。学校和大学的学生经常使用 LLM 工具来回答问题,教师开始认识到需要改变课程和教学方法以考虑到这一点。
但受访者也表达了担忧,其中许多担忧反映了更广泛的社会对人工智能技术的担忧。这些问题包括「黑匣子」系统缺乏透明度(其中人工智能达到其结果的根本原因尚不清楚),以及对包括偏见信息在内的训练数据的担忧。研究人员还担心人工智能传播错误信息可能造成的危害,以及人工智能生成虚假研究的前景。这些问题在科学上尤其重要。如果我们失去对原始科学文献的信任,我们就失去了人类共同知识库的基础。
调查受访者评论的另一个因素是企业在人工智能的发展中发挥着主导作用。公司是科学、技术和创新的宝贵贡献者。但从技术和驱动人工智能所需的人类数据来看,他们对人工智能的拥有规模比过去更大。研究人员需要访问数据、代码和元数据。如果人工智能声明要通过验证和再现性测试,黑盒系统的生产者需要认识到将这些系统用于研究的必要性。但人工智能的发展速度意味着监管机构仍在追赶。
如何阻止人工智能深度造假让社会和科学陷入困境
使用生成式人工智能创建的欺骗性视频和图像可能会影响选举、股市崩盘并毁掉声誉。研究人员正在开发限制其危害的方法。
今年 6 月,在 2024 年美国总统初选的政治斗争中,发布了一系列照片,显示特朗普拥抱他的前医疗顾问之一安东尼·福奇。在一些镜头中,特朗普尴尬地亲吻了福奇的脸,福奇是一名卫生官员,因在 COVID-19 大流行期间提倡佩戴口罩和疫苗而受到一些美国保守派的谩骂。
加州大学伯克利分校的计算机科学家 Hany Farid 是检查这些图片的众多专家之一,他说,「很明显」它们是赝品。仔细观察其中三张照片,特朗普的头发奇怪地模糊,背景中的文字毫无意义,手臂和手的位置不自然,特朗普可见耳朵的细节也不正确。目前,所有这些都是生成人工智能(AI)的标志。
这种由「深度学习」人工智能驱动的文本到图像生成器制作的深度伪造图像和视频现在很普遍。尽管欺诈者长期以来一直利用欺骗手段来牟利、影响舆论或发动战争,但现在制造和传播大量令人信服的假货的速度和轻松程度——再加上公众意识的缺乏——正在成为一个日益严重的威胁。
在接下来的几周和几个月里,Nature 将进一步探讨有关人工智能对科学影响的这些问题和其他问题,包括人工智能将如何影响科学出版,以及是否需要对同行评议人员进行培训,以识别人工智能在研究中的使用。
现在是时候确定人工智能可以安全地融入研究和社会的哪些方面以及如何进行。决不能让即将到来的人工智能信息泛滥助长不可信的科学洪流。只要以正确的方式应用人工智能,科学和人类就能从人工智能中受益。全面了解该技术的潜在危险是其安全使用的必要前提。
参考内容:
https://www.nature.com/articles/d41586-023-02988-6
https://www.nature.com/articles/d41586-023-02990-y
https://www.nature.com/articles/d41586-023-02980-0
人工智能 × [ 生物 神经科学 数学 物理 化学 材料 ]
「ScienceAI」关注人工智能与其他前沿技术及基础科学的交叉研究与融合发展。
欢迎关注标星,并点击右下角点赞和在看。
点击阅读原文,加入专业从业者社区,以获得更多交流合作机会及服务。