ChatGPT是现代社会的镜子
利维坦按:
在网易云音乐搜索【利维坦歌单】,跟上不迷路
我们有一个新号【利维坦行星】,可以关注
计算机和信息技术曾被赞为“对教育领域的革新”,它们带来的好处是实实在在的,给学生提供的信息量远远超过了课本。它们让教学资源更加灵活,能够满足个人需求,并促使学生、家长和教师之间的互动更为便捷高效。在疫情隔离期间,如果没有网络课程,学校恐怕做不了多少事情。
AI聊天机器人和大型语言模型的问世带来了更多机会。美国人工智能研究实验室OpenAI开发的ChatGPT(一种人工智能技术驱动的自然语言处理工具,译者注)已于2022年11月上线,这一工具可以给学生提供练习题、答案以及反馈,还能检查作业,从而减轻教师的负担。
相较于谷歌给出的含糊不清、一团乱麻般的海量信息,ChatGPT的可互动性更受学生的欢迎,并可以解决更具体的问题。
算法无法理解“爱”和“拥抱”在语义上是存在联系的。
但是根据英国谢菲尔德大学数字素养专业教授詹妮弗·罗塞尔(Jennifer Rowsell)所说,大型语言模型也让英语教师忧心忡忡。犯懒的学生利用ChatGPT轻轻松松就能写出一篇像样的论文。ChatGPT并不只是从网络上搜寻、复制一篇文章,而是重写——如果你想,还能给你无数篇,直到你满意为止。有些教师坦言,ChatGPT写出来的东西通常能得不错的分数。
发表于《纽约时报》(New York Times)的一篇文章称[1],一位大学教授证实曾发现一个学生用ChatGPT写的哲学论文是班上质量最好的。高中人文教师丹尼尔·赫尔曼(Daniel Herman)写的一篇文章发表于《大西洋月刊》(The Atlantic),他在此文中称:“我以及成千上万教师、教授、辅导员和管理人员的生活将发生翻天覆地的变化。”他认为ChatGPT会对现有教育体系造成巨大影响。
学校已经展开了“保卫战”。纽约教育部门计划在公立学校禁用ChatGPT,但这也阻止不了学生在家中使用。一所公立学校的社会学科课程教师丹·卢尔(Dan Lewer)在TikTok上建议,教师应该要求在家中上传作业的学生同时也要提供一段短视频,重述自己的文章论点和论据。卢尔表示,这能确保“他们真的学进去了,而不是随便在网上找点东西敷衍了事”。
OpenAI的研究人员正在着手给ChatGPT产出的内容加上水印,比如让它选择带有隐藏数字签名的词语。至于这一方法是否有效,为此烦恼不已的教师是否能轻松检查完一整个班级的论文,我们不得而知——而且学生可能会通过运行其他语言学习软件改写ChatGPT生成的内容。在这场教师和企图作弊的学生之间的较量中,教师可能无法掌控全局。有些人已经断言,课外论文作业已经失去意义了。
然而,ChatGPT带来的棘手问题并不局限于作弊。
AI不需要任何真情实感或者理解能力就能制造出比许多学生写得更好的论文,这一事实应该引起反思:什么才是教师一开始想教给学生的。
赫尔曼表示,他认为教师现在面临的问题不再是青少年是否需要学好写作这一基本技能,而是“这样教写作还有价值吗”?
ChatGPT能够产出超出一般水平的论文,不是因为聪明,而是因为得出答案的路径已被定义好,当然,这也不是说这些工具就不厉害了。但这是件好事吗?罗塞尔说,许多教育专家早就觉得有必要改变现有教授英文的方式,但她表示:“老师们发现变革我们熟悉已久的教学方式非常困难。如果不这样教,我们也不知道要怎样教。”
语言AI可能会大大凸显这一问题。罗塞尔提及:“科技突飞猛进,而我们这些(读写教育)老师并不知道怎么迎头赶上。不过我们已经了解到,不要与新事物对抗,而是学会理解与合作。传统的论文写作和ChatGPT并非是鱼和熊掌不可兼得的关系。也许这能推动我们教育方法的变革。”
如果是这样,我们应当先考虑语言的作用是什么。
从AI发展的早期开始,能够运用自然语言互动的算法就已存在。麻省理工学院的计算机科学家约瑟夫·魏森鲍姆(Joseph Weizenbaum)提及,20世纪60年代,他的同事在和叫作伊莱扎(Eliza)的程序交流时被气得七窍生烟,同事以为这个交互对象是魏森鲍姆假扮的——并且还是处于怼人状态的魏森鲍姆。
像伊莱扎这样粗糙的语言程序都能愚弄使用者的事实表明,我们素来就容易把人和机器搞混。甚至直到最近,处理语言的算法制造出的都不过是毫无逻辑、充满语言错误的短语。不过,随着技术进步——计算机能力的指数级增长、2015年左右出现的深度学习算法、不断扩张的网络数据库,机器已经能够制造出几无差错的句法规则,其模仿人类智识的程度令人不安。
ChatGPT是一个破局者,它可以表演各种各样的戏法,比如融合不同资料和风格,以《钦定版圣经》的风格写一份英式鱼派的菜谱,或是就艾伯特·爱因斯坦(Albert Einstein)和尼尔斯·玻尔(Niels Bohr)关于量子力学的争论写一首打油诗。
很显然,大型语言模型技术带来了危险。我们在处理如此高度模仿人类所思所想、但实则空洞乏味的信息方面几乎没有经验。该算法自动生成那些看起来具有说服力的冗长废话(或者说,以一种看起来“客观”而矫揉造作的方式重新组织人类已经说过的话),其以冷静自持的腔调产出的内容可以为任何人所用,当然,也可以被滥用[2]。
如果ChatGPT写出了一篇可信的论文,那是因为学校布置的作业向来大同小异。
从根本上来说,算法也是相当“懒”的。当我要求ChatGPT从女性主义角度概括《弗兰肯斯坦》的情节时,它似乎并没有参考关于该话题的海量文献,而是给出了一些和小说关系不大、生硬而陈旧的比喻句:它“可被视为对当时父权社会的注释”,以及“基于外表评价女性的方式”。如果把书换成《傲慢与偏见》,估计也是同样的一套说辞。
如果向大型语言模型提供更好的提示语,那么一些缺点或可避免。但是,为了得到十分精准、有理有据的回答,使用者要对相关知识非常熟稔,此时,写论文这件事对他来说自然也不构成困难。从根本上来说,这些缺点反映了算法并不是就《弗兰肯斯坦》中女性主义的这一线索而组织答案,而是根据我的提示,寻找最有可能与之相关的语句。
就像所有其他深度学习AI一样,它在可用的数据库中(这里指网络上那些可搜刮的文本)寻找相关内容和模板。如果你让它写首爱情十四行诗,在它的答案中,像“永远”“心”“拥抱”等词语肯定比“螺丝刀”这类词语多——除非你说明就要写一首关于螺丝刀的十四行诗(当然,我也这样做了,出来的东西不是很好看)。
算法无法理解“爱”和“拥抱”在语义上是存在联系的。
ChatGPT令人影响深刻的地方在于,它不只是把词语之间的语法关系理顺,还能创造语境。我想,至今人类诗人还没有写出像这样的句子:你是螺丝钉/将我紧紧抱住,但它达到的水平已能让我惊叹不已。(ChatGPT也会使用双关,不过也是在我的引导下完成的。)
对于事实类的提示语,随机生成的文本基本能够给出普遍认同的事实。它会确保排除任何极具争议的观点,因为从定义来看,如果不是普遍认同的,那么就是存在争议的。如果你问它是谁杀死了肯尼迪,它会回答:李·哈维·奥斯瓦尔德(Lee Harvey Oswald)。但ChatGPT偶尔也会犯错。让它写我的自传时,它把我的年龄减了两岁(还行,我能接受),还虚构了我于职业生涯初期在制药行业工作的经历(就很离谱)。
教师面临的问题是:像以前那样教写作还有意义吗?
如果ChatGPT能写出一篇可信的论文,那是因为我们给学生布置的作业大同小异:给出基本的事实,注意连贯性。学生的论文写作已经非常模式化,几乎到了可以和算法媲美的程度,比如论点-论据-解释-关联,论点-论据-分析-背景信息。学生接受的教导就是这里写什么,那里写什么,如果偏离模板,就可能扣分。
现在的写作课程强调按照既定的套路来进行论证,当然这是有一定道理的,正如艺术生都会去美术馆临摹大师的作品,先从技艺开始学起,此时一味追求原创既会给学生造成负担,也不太现实。
但这是我们真正想要的吗?罗塞尔说教师或教育学家就连正视这个问题都很难,因为现有教育体系正是基于“这是我们一以贯之的做法”而运作的。比如,之所以设置花体字写法课程,不过是因为它是一门传统课程,并无其他的教学理由。但现在也许是我们问出这个棘手问题的时候了。
偶尔,我也是教育工作者。20世纪80年代,我曾经在监狱里教电脑课,我还曾经在家教我的孩子。但我想,我同时也是科学家。在解释事物的工作原理之前,我会从各个部件讲起。“只有你知道它是什么东西了,你才能用好它,”我内心的声音这样说。但是,当我向被监狱中的那些学生一一展示他们并不熟悉的电脑部件时,一个人终于插话说:“我甚至不知道怎么打开它!”
我想,学生对学习语言的态度有时就像那些囚犯对电脑的态度一样,老师告诉他们一些陌生的结构名(名词、嵌入式从句、前置状语;中央处理器、随机存储器、比特和字节),而学生却想着:但我只想知道怎么用。
而ChatGPT好像让这些基础工作都变得无关紧要,就像一般的电脑使用者并不需要知道编程或移位寄存器一样。至于英语写作,有软件能做。高中人文教师赫尔曼担心学生会依赖语言AI做所有的写作作业,且许多人觉得在同声传译AI的帮助下,学习一门外语实在是浪费时间。
我现在意识到,我当初之所以教囚犯电脑的工作原理,是因为我喜欢讲这些玩意儿,我想他们中很少——或者说根本没有人喜欢听,但他们正确地意识到会使用电脑将是重要的生活技能。
我希望我的孩子爱上语言,爱上语言能够起到的作用,但他们首先需要知道怎么开启它。语言的开关并不在于名词和动词的区别,也不在于从句的位置,而在于实打实的交流。
我们精通一门语言后,并不是死板地遵从某一规则。语句或论文的架构并不需要僵硬地服从某种文学准则,词、短语和论据之间并没有严格的顺序要求。尽管有些文章会显得套路化,但它们存在的意义是服务于读者。
也就是说,阅读是一个充满变数的认知过程,写作者可以助读者一臂之力,也可以横加阻拦。有时,只要移动一个字,一个语焉不详的句子就能让人豁然开朗。这其实毫无奥妙可言,沟通是一门可以习得的技巧,就像标点的运用一样。(标点本身就能帮助人更好地沟通。)
语言的开关并不在于名词和动词的区别,也不在于从句的位置。
要想让读者读懂,作者需要具有同理心,能够跳出自己的思维框架,站在读者的立场上想一想。对于事实类文本来说,清晰准确的表达是最重要的。对于虚构作品来说,最重要的可能是别的东西,甚至可能是阻碍读者一眼看穿文本,当然,这种阻碍不是随意设置的,而是为了让读者在琢磨出深意之时收获一些惊喜和愉悦。
音乐通过旋律和节奏也能达到这样的效果,这是我们为之感动、为之兴奋的部分原因。莎士比亚是出了名的喜欢用倒装句,例如“But soft, what light through yonder window breaks?”(通常的顺序应为“what light breaks through yonder window?”, 意为“嘘!那边窗子里亮起来的是什么光?”,出自《罗密欧与朱丽叶》,译者注),通过打乱词语顺序,让读者的思维稍加停留,这也许是为了强调,抑或是为了让文字游戏激发出单纯的愉悦。从更广阔的层面来看,虚构作品大多是关于有克制地暴露的艺术,在合适的时机透露信息,不早也不晚。
语言的本质是思维的联结。语言学家丹尼尔·多尔(Daniel Dor)曾提出关于语言起源的假说[3],他声称语言的产生并非单纯为了沟通,还是为了“指引思维”。语言使得我们摆脱动物的沟通机制,我们得以将自己的所思所想传达给另一个人,而不是单纯用叫声施加威胁和示警[4]。
这对语言AI意味着什么呢?正是因为大型语言模型算法没有以沟通为目的,它根本不知道沟通是什么,也不明白对话是有听众的,所以它没办法展示语言的用途是什么,最初被发明出来的目的是什么。AI将莎士比亚俏皮的文字游戏抹掉,也无法娴熟地使用修辞手法,正是后者让好的历史学家的讲述栩栩如生、令人动容。语言模型很难自己创新,而只能模仿,因为创新并非其设计初衷,正如统计学家所说,它们将沦为平庸且了无生气的工具。
语言的使用正好相反,尤其是年轻人,最为钟爱造梗和发明网络语言,他们很少有创作瓶颈期,创造出的内容也相当有趣。与时俱进的教育学家一直希望开发网络世界的多模态化,但仍在苦苦思索如何才能达成目的。关键是,精通多媒体沟通技巧的Z世代有着同样的观念、标准和默契,正如唐诗需遵循简洁、特定格律的要求一样。如果在课程中为语言的使用创造空间,AI就不太可能替代语言教学。
无可否认,大型语言模型引发了大量道德和法律问题。互联网和其他形式的深度学习AI也是如此,例如深度伪造和面部识别。我们正努力解决这些问题并学习如何自处。有人认为,抛开AI写论文所引发的恐慌不谈,大型语言模型最终不过是一种工具,其功用也许就介于Excel表格所代表的乏味实用主义和数码摄影所带来的创造性之间。
毕竟,书面语言自身也是一种工具和手段。这不是说我们只要堪堪会写就行,不过确实意味着ChatGPT等技术现在提供的东西除了满足特定需求,还可以变得更有价值。文笔不太好的人已经开始用ChatGPT优化求职信或电子邮件,一些科学家用它来润色论文。可以说,这类技术可以帮我们驯服语言,正如音乐软件帮助我们制作音乐一样。对于那些英语水平有限又需要专业写作的人来说,这项技术可能是一个很好的帮手。
就像电子计算器将原本需要学复杂对数运算的学生从繁杂运算和对脑力的折磨中解放出来一样,大型语言模型也许能够帮助学生将更多的精力用于构建好的论点、改善叙事节奏、优化语句,而不用苦苦挣扎于掌握拼写、语法和标点符号的细节。
大型语言模型缺乏想象力、风格和天资,更不是虚构作品作家的对手。罗塞尔说:“正是写作的美学层面,让AI很难模仿。”不过这正好让其成为一种重要的新工具。
比如,我猜想AI会帮助学生学习如何编写一则故事,如何构建一篇文章,并给ChatGPT产出的生硬内容润色。或许就像一些音乐家利用制作音乐的AI生成大量素材一样,大型语言模型也可以给作者提供大量灵感,让其得以择优创作。
在方方面面,AI都像人类的一面镜子,它的缺点让我们看到什么不能被自动化和算法化,换句话说,正是这些不能被取代的部分,构成了人性的核心。
参考文献:
文/Philip Ball
译/Yord
校对/Rachel
原文/nautil.us/chatgpt-is-a-mirror-of-our-times-258320/
本文基于创作共享协议(BY-NC),由Yord在利维坦发布
文章仅为作者观点,未必代表利维坦立场
往期文章:
加星标,不迷路
西文学术书1元起拍,点击阅读原文入场
☟