圆桌|施春宏:ChatGPT是否会带来学术发表危机?
2023年2月15日,武汉大学言吾学社举办了“ChatGPT来了:人工智能如何改写人文社会科学的教学与研究”的圆桌论坛,“摩登语言学”将陆续分享各位老师的发言。以下是施春宏老师的部分。
李昱:还有一个大家比较关心的问题,因为大家都是从事科研工作,所以ChatGPT可能会对未来的学术写作产生一定影响。就在最近一段时间,国际上很多知名学术期刊,包括Nature和Science,都发表声明禁止将ChatGPT列为合著者。国内的一些期刊也已经做出类似反应。今天我们有幸邀请到了《语言教学与研究》杂志主编、北京语言大学教授施春宏先生来参加我们的讨论。请问施老师,作为语言学杂志主编,您对此有何评价?
施春宏:人工智能必然会在某种程度上影响未来的学术论文写作和发表,但就目前来看,对我们专业性学术期刊的影响不大。因为这要看人工智能到底是怎么写作的,它写出来的东西是怎样的产品。也就是说,看它输出的内容是否有学术性,是否合乎学术写作规范。从编杂志的角度判断一篇文章好不好,实际上有三个基本要求:
第一个要求是要有知识创新,就是看文章里面提出的观点对学术积累和发展有没有独特的贡献。一般的面向社会公众日常生活的、只反映日常认知现象的或者带有心灵鸡汤性质的东西,创新性通常比较弱;但对学术论文来讲,它的根本特点是为知识积累和发展提供前人没有发现的东西。
第二个要求是要有论证过程。论文的基本论证方式有两种:一个是证实,另一个是证伪。证实比较好办,举出与论点一致的例子来支持自己:而证伪则比较难,要给自己的理论画一个边界,并指出超出这个边界的东西从理论上看都应该是错误的。证实相对而言比较容易,如果有的课程或者有的专业偏向于用证实法来论证,那么受人工智能的影响可能更大。如果将来ChatGPT能够自己通过大数据运算而发现一个数学定理、物理规律,而且能够证明,那么它就完全满足这两项要求了。
第三个要求是要符合基本的学术规范。这点看上去似乎比较简单,但实际上ChatGPT要实现起来并不容易,至少目前来看,它的的输出方式和结果还难以达到理想状态。对比较注重于学术规范的期刊来讲,作者在引用别人的观点时,要明确地标识来源,让编辑和读者能够有效溯源。但是目前ChatGPT给出的答案都没有对所引用的观点来源做出说明,就凭这一点,也能够证明它不符合学术规范。还有就是学术表达的规范问题,作者自身的表达方式实际上是具有唯一性的,但ChatGPT更多地是整合别人已有的表达。另外,ChatGPT从“正能量”设定出发,在伦理方面做得很好,不提供负面的回答,这种规范跟学术规范是不一样的。
那么ChatGPT“写”出的东西有没有用?要不要反对?实际上还是有用的。因为它用来训练和生成的数据库特别大,能给使用者思考问题提供帮助。很多新的工具能拓展我们认知的边界,能够帮助我们做一些前期的分类加工工作,甚至跟外界的互联互动都有可能建立起来。所以我觉得ChatGPT是一个非常有用而强大的工具。但是从学术创造的角度来讲,它是一个非常受限的工具,我们刚才讲的几点它都很难实现。不过,目前ChatGPT的目标也不在此。
ChatGPT能写出什么样的论文?
我们学术研究中的很多问题,不是那种有明确答案的问题。这个问题可以换一个角度看,就是ChatGPT能为论文提供哪些帮助,它到底是助手还是合作者,甚至是唯一作者?它可能更多的还是一个助手,所以没什么可担心的。它生成的文本是依赖于它接受训练的数据以及它背后的数据库的。总体而言,它是一个“知道分子”,不是一个“知识分子”。知识分子是要创造的,而ChatGPT只是基于我们当下的知识。如果它将来和中国知网之类的学术资源库合作的话,而且用学术研究和写作的方式来训练,那么对学术论文的写作和发表的冲击可能就更大了。那个时候要判断ChatGPT生成的产品是否是学术论文,就得看杂志编辑和审稿专家的眼光和水平了。越是容易放水的杂志,辨别力可能就越低。
拿综述性文章来说,如果ChatGPT将来跟规模巨大的学术资源库绑定,它必然会给我们写综述提供很大的方便,甚至可能比一般学生写综述的水平还要高。现在某些领域已经有帮助我们写提要的工具了。语言学学科积累的文献资料很多,现在做综述主要还是靠自己一篇一篇地读,然后归纳整理。ChatGPT肯定还在迭代,现在是3.5代,说不定现在是为了推出第4代做一个预演,未来还可能推出第5代,它的水平可能会越来越高,那么它在综述方面肯定会写得更好。目前ChatGPT有两个功能:搬运和整合。凡是侧重于这方面的综述,例如你要讲怎么成为一个高尚的人,怎样做一个旅游攻略,它一二三四五,分析得特别好,一般人都不一定达到这个水平。实际上,ChatGPT目前输出的“知识”多带有综述性、分类性,越是确定的知识和内容,它做起来就越方便。
有一个方面它一定写得不好,就是批评性的内容,尤其是针对具体观点的批评,针对当前正在发生的特殊现象的批评。ChatGPT背后的程序给了伦理道德上的规定,因此在内容批评的创新上就成了一个硬的bug。学术论文,尤其是文科论文,特别是我们的语言学论文,多是先讲学界的研究现状,并从中发现某些研究不足,再陈述自己的看法,采取事实论证、逻辑论证或者是证伪论证等等。批评是学术成长的重要动力。
批评性文字难,让我想起了一句话:“幸福的家庭都是相似的,不幸的家庭各有各的不幸。”我们做论文做的就是后半句——不幸的家庭各有各的不幸。批评的难度还在于从特殊性当中发现普遍性意义。
总的来说,从学术论文的角度来看,我觉得ChatGPT对写某些类型的综述可能帮助大一些。这倒进一步给我启发,ChatGPT会对我们如何带研究生有帮助:我们要在哪些方面训练和培养研究生?它能做得好的,让研究生自己去学,省了不少事;它做得不好的,要着意培养。如此一来,对研究生将来的学术研究和发展应该是有帮助的。
如何应对ChatGPT对学术发表产生的冲击?
从学术期刊的角度可能就是8个字:与狼共舞,规范使用。狼来了你也回避不掉,它会在你的院墙外叫,要是你的窗子破了的话,它还会往里窜。所以只能是与狼共舞,考虑怎么样把我们的基本功搞好。
ChatGPT写出来的都是“平庸”文本、机械生成的文本,它这种“平庸”文本是基于共享的知识整合出来的。我们在这个基础上怎样创造一个非平庸的文本?实际上有很多研究在消灭“平庸”的同时,也在制造“平庸”,是因为“平庸”所以我们“平庸”了,我们很多研究都是这种路径。
国内的学术杂志会不会像国外某些杂志那样,出台一些针对 AI 写作论文的限制性措施?暂时恐怕不会,因为没有必要。如果将来有必要,那就是它真的跟知网之类的学术资源库合作了。目前,国外杂志对ChatGPT的使用限制,基本上都是围绕是否允许ChatGPT署名的问题。我想,像Nature、Science 这样的杂志,难道作者用ChatGPT这种工具写出来的东西也能发表吗?
国内两家杂志已经发表了类似限制AI写作使用的声明,但目前来看这个意义还不够明朗,所以还是要回到根本,看ChatGPT到底写的是什么样的“论文”。将来难以预测,我们只能说当下:如果期刊是以创新为主导追求的话,那么目前我们还看不出它有多大威胁。像我们这种语言研究,连训练的语料库都没有,它还会对我们有威胁吗?
我们换一个角度,从正面来看是不是更好一点?任何新技术都肯定会带来一些负面的东西,但是一定会推动着更多的东西向前走,而且对我们学术研究来说一定是个好事。我这几天看了很多新闻,也没看到多少负面的东西。
今后最好能实现AI协助人类创新,然后一道前行。如果它真的从人造意识变成了有自我意识,那个时代才真是一个特殊的时代。它一旦真的有了共情能力,有了自我想象的空间,有了“无中生有”的创造,有了反事实的判断,有了证伪的思考方法,有了独立的伦理问题,在那种情况下,学术杂志的编辑部,就不是现在这个样子了,可能我们就在给它打工了。真到那个时候,还要学杂志干什么?
就目前来看,撤开伦理问题,ChatGPT等人工智能技术和产品并不可怕,怕的是我们在害怕,因为从进化的角度看,人类对异常的东西容易产生惧怕心理。经历了,回头一看,都是往事,都是充满不确定的美好回忆。
李昱:谢谢施老师的精彩分析,施老师从比较独特的角度,帮我们分析了一些我们可能无法分析到的一些问题,看得出来施老师对新技术的出现还是比较乐观的。ChatGPT目前来看应该是没有思维的能力,更谈不上批判性或者原创性的思维,所以它要代替人做科研和写学术论文,目前来看可能性还比较低。或者说它的水平,显然是不能跟人类相比的。但是另外一方面,它也可以作为一种写作的工具,来帮助科研工作者更有效率或者说更有质量地来完成科研论文的写作。
发言人介绍
施春宏,安徽青阳人。先后于安徽师范大学(1989-1993)、中国社会科学院(1993-1996)、北京大学(2000-2003)获得学士、硕士和博士学位,并曾赴美国哈佛大学从事博士后项目研究(2008-2009)。现为北京语言大学教授,《语言教学与研究》主编。2010年入选教育部“新世纪优秀人才支持计划”。研究领域涉及汉语语言学、理论语言学和应用语言学,近年着力从事构式语法和语体语法的理论与应用探索,以及汉语作为第二语言的习得和教学研究。共发表学术论文100余篇。曾先后主持过国家社科基金项目、教育部新世纪优秀人才支持计划项目、教育部人文社会科学重点研究基地重大项目等课题,目前主持的课题有国家社科基金项目“基于互动观的构式语法理论与应用研究”和国家社科基金重大项目“汉语国际教育背景下的汉语意合特征研究与大型知识库和语料库建设”之子课题“基于‘词库—构式’互动体系的国际汉语教学理念和策略探索”等。
往期: