10多本期刊的43位编辑共同发表了一篇ACS Nano: 用上AI我们能写出更好的文章吗?
The following article is from ACS材料X Author ACS Publications
编者按精选 ——ACS Nano
“编者按精选” 是我们公众号2023年推出的新栏目,将不定时从ACS出版的80余本期刊中精选出极具启发性的编者按进行编译推介。
欢迎大家将您喜欢的编者按推荐给我们!
本栏目推出的第二篇编者按来自 ACS Nano。
近期大火的 ChatGPT 给各个领域带来的深远影响还有待观察。就此话题,来自 ACS Nano, ACS Catalysis, ACS Energy Letters, ACS Applied Materials & Interfaces, ACS Applied Bio Materials, ACS Applied Nano Materials, ACS Nanoscience Au, Accounts of Chemical Research, Accounts of Materials Research, Chemistry of Materials 等10多本期刊的43位编辑撰写了Editorial “Best Practices for Using AI when Writing Scientific Manuscripts”,共同探讨 AI 在科学论文写作中的利与弊。
Best Practices for Using AI when Writing Scientific Manuscript
by Jillian M. Buriak*, Deji Akinwande, Natalie Artzi, C. Jeffrey Brinker, Cynthia Burrows, Warren C. W. Chan, Chunying Chen, Xiaodong Chen, Manish Chhowalla, Lifeng Chi, William Chueh, Cathleen M. Crudden, Dino Di Carlo, Sharon C. Glotzer, Mark C. Hersam, Dean Ho, Tony Y. Hu, Jiaxing Huang, Ali Javey, Prashant V. Kamat, Il-Doo Kim, Nicholas A. Kotov, T. Randall Lee, Young Hee Lee, Yan Li, Luis M. Liz-Marzán, Paul Mulvaney, Prineha Narang, Peter Nordlander, Rahmi Oklu, Wolfgang J. Parak, Andrey L. Rogach, Mathieu Salanne, Paolo Samorì, Raymond E. Schaak, Kirk S. Schanze, Tsuyoshi Sekitani, Sara Skrabalak, Ajay K. Sood, Ilja K. Voets, Shu Wang, Shutao Wang, Andrew T. S. Wee, and Jinhua Ye
科学是通过语言传达的,在科学中使用的语言媒介是多模式的,包括在教室里讲课、科学家之间的日常讨论、会议上的演讲,以及科学交流的巅峰形式 — 正式的同行评审出版物。人工智能驱动的语言工具如 ChatGPT 已经在全球范围内引起了广泛的兴趣。截至2023年1月底,ChatGPT 已经创下了任何应用程序历史上最快增长用户群体的记录,拥有超过1亿活跃用户。ChatGPT 只是许多基于人工智能的语言工具中的第一个,更多的工具正在准备中或即将推出。在我们还没有时间考虑这种工具的后果或验证它生成的文本是正确的之前,世界各地的许多科研机构和大学已经对ChatGPT 可能改变科学传播提出了担忧。ChatGPT 所产生的文本结构很容易让读者认为它是人类创作的。然而很明显,现在 ChatGPT 生成的文本可能充满错误,可能是肤浅的,并可能产生虚假的期刊参考文献和推论。更重要的是,ChatGPT 有时会建立荒谬和错误的联系。
我们简要总结了 ChatGPT(和未来的AI语言机器人)一些优点和缺点,并总结了在使用这些工具,特别是在文章撰写阶段时的实践建议。需要说明的是,这篇 Editorial的 作者中,也存在着思想和意见的多样性,这篇 Editorial 反映了诸位作者的共识。目前,ChatGPT 只是一个通过语言连接生成文本的高效语言机器人。由于 ChatGPT 是许多模型中的第一个,并且这些模型无疑会迅速改进,几年后,我们几乎肯定会将 ChatGPT 视为20世纪80年代的旧计算机。必须认识到,ChatGPT 依赖于其现有的数据库和内容,而在本文撰写时,它未包括2021年以后发表或发布的信息,因此在撰写最新的综述、观点和引言时,其效用受到限制。因此,对于综述和观点论文, ChatGPT 因为缺乏科学家所期望具备的分析能力和经验而存在缺陷。
科学家最关心的问题是,这些 AI 语言机器人无法理解新信息、产生见解或深度分析,这将限制科学论文的讨论。虽然结果看起来很有条理,但却很肤浅,过度依赖 AI 输出可能会扼杀整个科学界的创造力。AI 工具足以重现传统智慧,但无法识别或产生独特的结果。它们可能更不擅长评估一个独特的结果是虚假的还是突破性的。如果这种限制对于 ChatGPT 和其它正在开发中的语言聊天机器人来说是真实存在的,那么依赖AI来生成科学论文可能会降低未来颠覆性科学突破出现的频率。这着实令人担忧,因为2023年的一篇文章已经得出结论,这种颠覆性科学突破的频率正处于负向轨迹上。科学研究正在变得越来越缺乏颠覆性——更多的是千篇一律,而非CRISPR。
ChatGPT
语言机器人的优点:
i)帮助突破写作中或在开始写作感到困难时的心理障碍。有一些文本开头作为起点,可以让作者克服障碍、高效写作。尽管如此,要注意这个起点可能会让作者陷入某种思维和写作方式,所以不要让这个文本限制您的创造力和见解。更好的方法可能是在完成稿件初稿后使用 ChatGPT,以提供补充观点,确定是否漏掉了关键主题或要点,并激发新的想法和方向。
ii)在适当提示的情况下,可以进行有趣的类比,并在不同的概念和想法之间生成看似创造性的联系;不过这些联系需要进行现实检验,以确保它们是合理的或可信的。
iii)有效地用于改进初稿的标题、摘要和结论,并对其进行调整以更好地匹配目标期刊的范围或读者群。
iv)识别特定主题下可能被传统文献检索所遗漏的参考文献。阅读并包括这些参考文献可以丰富对主题领域的理解,但必须仔细阅读或审查以确保它们是正确和相关的。
v)通过将一个困难的话题分解成较小的部分,提供写作结构上的指导。然而,机器人可能会提出错误的建议,因此在使用 AI 时要谨慎
vi)通过帮助非英语为母语的人士撰写文章,创造公平的竞争环境。ChatGPT 和其它机器人几乎肯定会直接包含在诸如 Microsoft Office 365的其它界面中。
vii)提醒作者考虑他们没有考虑到的方面,帮助他们更全面地涵盖主题。
viii)以结构化、易于理解的方式提供不熟悉的领域的知识。然而,必须记住,ChatGPT 的输出内容可能不完整或缺乏创造性见解。
ix)开发 Python 和其它计算机语言开发代码。
ChatGPT
语言机器人可能存在的问题:
i) 使用起来虽快捷方便,但如果使用者不负责任或不谨慎使用,可能会过度依赖它。
ii) 可能被用来编写并取代批判性和全面的文献综述,对用户不利。对学生来说,撰写第一篇论文是一次变革性的训练经历。过度依赖这些语言机器人会剥夺他们这个机会,限制他们的知识增长和自信。
iii) 如果不是仅将其作为创造性科学的跳板,可能会导致平庸、千篇一律和无趣的科学研究。AI 工具通常擅长于死板地重复传统智慧,在识别和生成独特结果方面则很弱。它们甚至很难判断一个独特的结果是虚假的、异常的还是突破性的。
iv) 在没有阅读支持作者论点的实际论文的情况下,可能会被误用。正如前面提到的,ChatGPT可能会创造出参考文献或虚假相关性。不能只单纯地接受AI模型的输出;所有输出都需要经过批判性审查,以防止错误、遗漏关键信息或做出无关的声明。如果可用的数据不完整或过时,ChatGPT 更有可能生成错误信息。
v) 对于争议话题可能无法提供双方观点,尤其是在没有用户输入建议的情况下;ChatGPT 无法表达颠覆性的概念。
vi) 继承科学领域内固有的偏见和谬误。它可能会压制质疑或反对科学现象的既定概念或解释的少数观点,或忽视由于固有偏见而引用较少的作品。
vii) 生成的文本可能不具有前瞻性,因为它可能在没有用户干预的情况下仅仅总结了共识。仅仅基于 ChatGPT 输出的前言介绍和综述性论文将缺乏对一个领域未来走向的深思熟虑的见解。
viii) 可能导致观点、述评、综述等类型的论文投稿增加,因为这些类型的论文可以通过现有信息轻松生成,但它们的情节描述和前瞻性讨论缺乏细腻度。
ix) 可能会生成不正确或最近被证明为错误的作品;还可以操纵结果以支持带有定制提示的论点。
x) 对报告临床相关发现提出了重大挑战,要求结果报告的透明度、试验设计和其它信息的清晰传达;鉴于出版物在报告临床可操作的发现方面发挥重要作用,这些发现可以推动实践变化,在这些情况下使用 ChatGPT 需要大量的监督和披露。
我们对于使用AI语言机器人
进行科学交流的建议:
i)致谢 — 在致谢和实验部分中明确您使用AI机器人/ChatGPT准备稿件。明确指出哪些部分使用了语言机器人的输出,并在补充信息中提供提示和问题和/或抄本。
ii)提醒您的合作者和自己,ChatGPT 模型的输出只是最初的草稿;输出是不完整的,可能包含错误的信息,每个句子和陈述都必须经过批判性考虑。检查,检查,再检查!然后再检查一遍!
iii)不要逐字逐句地使用来自 ChatGPT 的文本,这些不是你的言语,机器人还可能重复使用来自其它资源的文本,导致意外的抄袭。
iv)任何由 AI 机器人/ChatGPT 推荐的引用都需要通过原始文献进行验证,目前已知该机器人会生成错误的引用。
v)不要将 ChatGPT 或任何其它基于 AI 的机器人列为共同作者。它不能生成新的想法或根据新结果构成讨论;它只是像其它许多程序一样是帮助制定和撰写稿件的工具;相关更多信息,请参阅 ACS Nano 作者指南。
vi)ChatGPT 不能对任何陈述或伦理违规负责;目前,文章的所有作者都有这个责任。
vii)最重要的是,不要让 ChatGPT 扼杀您的创造力和深度思考;使用它来扩展您的视野并激发新的想法!
总之,科学依靠诚信体系运作。虽然现在有工具可以识别由 ChatGPT 生成的文本,但这些AI语言机器人将继续改进,无论是在性能还是复杂性方面,因此对其进行审查将越来越困难。请非常谨慎地使用这些工具,并在撰写自己的文章时提醒您的同事和合作者注意相关问题。从根本上说,因为科学论文依赖于人类生成的数据和解释,所以科学故事需要创造力和专业技能,这是使用基于AI的语言机器人很难复制的。
(以上信息翻译自 Editorial “Best Practices for Using AI when Writing Scientific Manuscripts”,请以原文信息为准)
扫码阅读
编者按原文