当科学传播遇上AI:一场机遇与风险的较量
近年来,基于大语言模型的人工智能工具迅猛发展,给科学传播领域带来了新机遇,同时也伴随着挑战。本文作者认为,这种工具促进了科学内容的快速生成与转化,但也可能导致虚假消息和不良言论增多。并且,人工智能参与科研过程还引发了伦理和使用规范等问题。在这样的背景下,科学新闻业也将面临多重挑战。因此,在人工智能时代的复杂媒体生态系统中,科学传播需要各方共同探索新的平衡发展路径。
在过去的一年里,科学家和公众一样,都对基于大语言模型(Large Language Model,LLM)的人工智能工具(AI tools)的飞速发展和普及感到惊讶。许多科学家也对这些新工具进行了尝试,其结果是,现在人工智能已经参与到科学过程的各个层面,包括研究、数据提取、解释说明或可视化、文本制作,以及创建其他形式的多媒体内容。人工智能正在从根本上改变我们生成和共享知识的方式。
从长远来看,这一相对较新的发展所带来的影响,可能像20世纪90年代学术出版界和21世纪初媒体行业的数字化转型一样具有革新性。人工智能工具无疑将提高科学生产力,研究产出的速度也将继续加快。然而,我们也有足够理由感到担忧,一个关键的问题是,人工智能对于外部科学传播(external science communication,科学与公众之间的信息和意见交流)意味着什么?这方面的变化将至少与内部科学传播(internal science communication,即专家之间的专业交流)中产生的变化旗鼓相当。那么,这对我们的社会来说又意味着什么?
▍人工智能将如何改变科学传播
首先,各种新的科学内容开发链(exploitation chains)正在出现:通过基于大语言模型的应用程序,专业出版物可以在几秒钟内被概括为“通俗易懂”的消息。相应地,这些内容又可以被翻译成各种语言,然后再运用其他工具为特定目标群体量身定制科学内容,例如对自然保护感兴趣的12岁女孩或季节性情感障碍患者的亲属。
还有一些工具可以将这些文本内容转换成音频版本,类似于有声读物或播客。最后,其他人工智能应用还可用于创建配套的动态影像内容(moving image content)、信息图表,甚至完整的短视频,如在TikTok、YouTube和Instagram上广泛使用的视频。
在语言、输出格式、调性和内容的深度方面,任何对目标受众有用且吸引人的科学话题都蕴藏着巨大的潜力,包括促进教育公平和增加教育机会的潜力。而创建这些价值链的,不仅是那些希望通过尽可能多的渠道将自己的研究成果推向世界的科学家(或者只是试图满足资助者要求的科学家),研究机构、基金会和专业媒体机构的传播部门也将发挥重要的作用。
外部科学传播蓬勃发展的另一个积极方面可能是新的参与性实践(participatory practices)的出现,这类似于公众科学的方法:非专业人士可以与科学家合作,确保文本和信息图表更符合其他非专业人士的信息需求、先验知识和媒体使用习惯。人工智能工具在这方面可能也具备潜力,例如,它可以帮助准备那些只有小部分受众感兴趣并因此很少出现在传统媒体上的话题。
传统媒体将如何演变?举例来说,报纸和杂志出版商将不再仅通过简单的全文检索以及随后输出或多或少相关的单篇文章来访问其(存档的)内容。取而代之的是,它们将能够为(付费)用户提供各种输入和输出渠道,使他们能够与内容进行高度个性化的互动,包括个性化对话。
▍预防危害
然而,不仅仅是科学传播的传统参与者会利用人工智能,以更加有针对性的方式将科学话题传播给公众,最重要的是,这种传播规模将比以往任何时候都要大。在原则上,任何人都可以在各个环节使用智能工具来干预迅速发展的内容发布过程。因此,科学传播领域正充斥着震耳欲聋的“嘈杂声”(cacophony),而其中大部分内容并非是积极正面的。
人工智能幻化出的虚假信息以及阴谋论信奉者故意散布的误读和虚假内容很可能会塑造出许多言论。基于大语言模型的文本和(动态)影像生成程序为恶意行为者扩散自己的议程打开了大门,例如,通过模仿同行评议文章的形式和风格而伪造的一次出版物(primacy publications,指期刊论文、新闻稿等原始文件),以及充当从意识形态角度解释世界的“原始信息源”(original sources),或者通过深度伪造来“证明”(prove)某些荒谬的阴谋论。
内部科学传播也面临挑战。就在ChatGPT和Midjourney等人工智能程序向全世界开放几个月后,欧洲主要研究资助机构之一德国研究基金会(German Research Foundation,DFG)就面临着一项任务,即他们需要明确,在科学研究的过程中,应该如何以及在哪些环节允许使用这些新工具:在科学家提交项目构想或发表成果时,是否应该允许人工智能成为合著者?这种专家之间的专业交流关系到科学知识的重大进步,人工智能工具的介入使其面临着风险。德国研究基金会的初步答复是:原则上,研究人员可以使用人工智能工具,如帮助他们分析数据和撰写科学论文或研究计划。但是,他们必须明确说明确切的使用类型和具体的工具,不能将ChatGPT或Gemini列为合著者。这些都是合理的指导原则,有助于增加透明度。相反,全面禁止人工智能工具的使用既不合理,也无法落实。
恰切的提示工程(prompt engineering,开发提示词并进行优化,旨在帮助用户在各种场景和研究领域中更好地利用大语言模型)和创新的人工智能辅助提取工具(AI-assisted extraction tools)将使我们每个人都能从权威的一次科学文献(primary scientific literature,又称原始文献,是作者依据自身的研究成果、科学实验的总结以及新产品的设计来撰写的原创论文)中提炼出最符合个人兴趣的内容;当然,这里也会出现内容质量保障的问题以及对媒介素养的需求。试想,当人工智能依托全球最新的医学文献,为患者打造个性化治疗方案时,将会是怎样的情景?
最后,由于可预见的新知识内容的大量涌现,科学新闻业(science journalism)将面临更多挑战,包括经济方面的挑战。根据专业新闻标准制作的外部科学传播内容和独立的外部科学观察仍然是民间舆论形成的宝贵财富,正如我们离不开值得信赖的独立媒体一样,科学新闻业与社会的整体发展相辅相成。
当然,机遇与挑战并存:在日常工作中,数据记者(data journalists)并不是唯一受益于人工智能的群体。基于大语言模型的工具为编辑团队提供了新的方法,使研究工作达到比以往更高的水平。例如,我们对整个专业科学领域的自动监测或通过人工智能辅助对来自不同异质信息源(diverse, heterogeneous sources)的数据进行汇编和评估,这些都将能够提高新闻工作的质量和深度。
然而,科学新闻报道的真正附加值——批判性分类、评论、语境化解读——将不会由生成式人工智能(generative AI)提供,至少目前不会。到目前为止,这仍然是人类专家进行科学思考的领域。
这正是确保新闻质量的契机所在:人工智能公司需要不断从科学和媒体中获取新的原始内容来训练其模型,因此它们可以通过强制收费的方式为高质量新闻业的再融资做出贡献。由于这种情况不太可能自发产生,而且在人工智能时代高度复杂的媒体生态系统中,还必须决定谁应该从中受益,因此立法者必须在这方面发挥主导作用。