开学特辑⑧:ChatGPT如何影响我们的课堂?| 学科教学
编者按
随着生成式人工智能和大语言模型的快速发展,政治学以及更多的社会科学学科正处在技术革新与传统研究的十字路口。AI对我们学科的挑战不仅在于学术研究,更在于学科教学。面对这样的变革,作为研究者的老师们和作为准研究者的学生们,都必须意识到,AI等新技术的应用会给我们的研究带来极大的便利,但是这些技术也将对我们的研究和学习方式带来巨大的变革和影响。
那么,我们应当如何适应ChatGPT以及类似技术应用于我们的课堂?以及如何更好地使得新技术与我们的学科相适应?基于此,我们编译了《恐惧与厌恶:政治学课堂上的ChatGPT》这篇文章。文章中明确指出,ChatGPT能够帮助我们快速生成高质量的文章草稿,整理复杂的资料。但是,它也带来了诸如学术诚信、批判性思维能力减弱及数据隐私等问题。面对这种情势,老师们已经开始探索将ChatGPT有效地融合到教学活动中去,让学生们能够在利用ChatGPT的同时,也能培养出独立思考和逻辑推理与判断的能力。而对于研究生来说,人工智能可以帮助我们处理大量信息,但人工智能绝不能代替创新性研究与思考。
开学特辑⑧:ChatGPT如何影响我们的课堂?
(原标题为:《恐惧与厌恶:政治学课堂上的ChatGPT(Fear and Loathing: ChatGPT in the Political Science Classroom)》,现标题为译者所拟)
作者:
Phillip J. Ardoin, Appalachian State University
William D. Hicks, Appalachian State University
编译:
焦磊,山东大学
引文格式(MLA):
Ardoin, Phillip J., and William D. Hicks. “Fear and Loathing: ChatGPT in the Political Science Classroom.” PS: Political Science & Politics, Apr. 2024, pp. 1–11.
内容提要
ChatGPT因其出色的写作、总结和甚至通过严格考试的能力而引起了学术界的关注。本文总结了政治科学教师对于ChatGPT及其类似人工智能软件在学术界应用的担忧。我们讨论了我们对政治科学家进行的全国性调查的结果,该调查于2023年三月进行,旨在评估教师对ChatGPT的态度以及他们在课堂上有效与之互动的策略。我们提出了一些作业想法,这些想法限制了使用ChatGPT作弊的潜在可能性——这是教师的主要担忧——并描述了将ChatGPT纳入教师教学的几种方式。还提供了一些教学大纲建议,以解决政治科学学生使用ChatGPT的问题。
快速阅读(本部分基于AI生成)
文章介绍了ChatGPT这一人工智能工具如何因其出色的写作和总结能力而在学术界引起关注。ChatGPT能生成类似人类的文本,并通过严格的学术考试,但这也引发了教育工作者对其应用于课堂的诸多忧虑。
政治科学家怎么想?
为了了解政治科学家对ChatGPT的态度,研究者们进行了全国性的调查。结果显示,大多数政治科学家担忧ChatGPT可能导致学生作弊或抄袭,同时也担心它可能影响学生的写作和研究技能。较少的教师关注ChatGPT可能产生的错误信息。
课堂上的ChatGPT
反思和改进:要求学生使用ChatGPT生成内容,并对其进行修订,从而改善ChatGPT的输出。这有助于学生识别和修正错误的信息,并补充内容。
反思与引用:要求学生评估ChatGPT提供的信息准确性,并确认引用的真实性,这能帮助学生学会验证信息来源。
其他视角:鼓励学生从不同角度批评ChatGPT的输出,培养学生的批判性思维。
反思式学习:通过让学生反复提问ChatGPT同一个问题,观察不同的答案,进而反思其输出的可靠性和一致性。
课程大纲示例
为了应对ChatGPT的挑战,教学大纲中应明确禁止不当使用人工智能软件,同时提供指导学生如何适当地利用ChatGPT辅助学习,如用于检查语法或风格,但强调必须正确引用。
结论
文章总结了如何将ChatGPT融入教学之中,强调教师应该熟悉这项技术,并探索如何利用它来增强学生的学习体验,而非单纯回避。此外,教师还需要意识到ChatGPT可能存在的局限性和偏见,并教育学生如何负责任地使用这项技术。
ChatGPT 和人工智能软件是我们未来在政治学、学术界、政治竞选、政府和世界领域的一部分。 今天的许多政治学学生可能会使用 ChatGPT 或类似的人工智能软件作为他们未来职业生涯的重要工具。
教师们对 ChatGPT 的许多担忧与前几代人对计算器、互联网和维基百科的担忧相呼应。 十年前,教师经常禁止使用维基百科; 如今,学生们创建维基页面并为维基百科主题做出贡献,作为课程的一部分。
也许我们可以认识到并拥抱它,将其视为更复杂形式的 Google、维基百科和 Grammarly 的下一代版本,而不是将 ChatGPT 视为对学术界的威胁和学生作弊的潜在工具。
无足轻重主义的诅咒
2022年11月,OpenAI向公众发布了ChatGPT-3.5,该版本使用人工智能学习技术生成类似人类的文本以响应用户提示。它的受欢迎程度令人震惊,在两个月内吸引了超过1亿用户,平均每天访问量约为1300万次。利用详尽的知识库,ChatGPT能够生成类似人类的文本来回答各种各样的问题;总结复杂信息;写论文、计算机代码,甚至诗歌。作为其令人印象深刻的知识基础和才能的例子,ChatGPT通过了美国医学执照考试和宾夕法尼亚大学沃顿商学院的MBA期末考试,并发表了一篇法律评论文章。ChatGPT的写作、总结甚至成功通过高要求考试的能力在学术界引起了广泛关注。此外,它还占据了高等教育出版物的主要头条新闻,如《高等教育纪事报》,该出版物在2022年11月发布后的9个月内发表了超过130篇与ChatGPT相关的文章。
自ChatGPT发布以来,整个学术界的教师都对将ChatGPT整合到课堂表示担忧。一个关键问题是剽窃和学术不诚实的可能性,因为人工智能的类人文本生成能力可能会鼓励学生将人工智能生成的作品作为自己的作品提交。这个问题因难以区分人工智能生成的内容和人类生成的内容而变得更加复杂。
此外,人们担心过度依赖ChatGPT可能会削弱学生的批判性思维能力,损害他们评估来源和进行独立学习的能力。此外,人工智能生成的内容中存在偏见的可能性以及错误信息的传播令人担忧,这会导致刻板印象的延续并破坏包容性的学习环境。考虑到政治科学课程经常涉及的关键和敏感问题,偏见问题尤其令人担忧。
数据隐私和学生信息保护也成为一个问题,因为ChatGPT的数据输入要求引发了对学生数据安全性和这些信息可能被滥用的质疑。总的来说,这些担忧凸显了将ChatGPT纳入大学课堂的谨慎态度。
作为ChatGPT流利度和知识的一个例子,前面三段总结了人们对ChatGPT的担忧,是由ChatGPT-4生成的,只有很小的编辑(图1显示了提示和原始输出)。尽管原始的 ChatGPT 输出写得很好,并提供了对教师担忧的准确总结,但原始输出中的六个参考文献中只有两个是有效的。其中两篇参考文献和作者完全是由 ChatGPT 编造的,另外两篇参考文献错误地指出了作者或期刊。
图1 ChatGPT与ChatGPT相关的问题输出示例
如之前的 ChatGPT 输出所示,ChatGPT 的另一个重大问题是它倾向于提供人工智能软件专家所定义的错误信息或“幻觉”。这是由于聊天机器人和其他人工智能的训练过程。人工智能软件通过评估大量数据中的模式进行独立学习,包括Reddit等包含大量虚假信息、仇恨言论和偏见的网站,而传统软件应用程序则是一次一行地仔细编程。尽管ChatGPT使用过滤器来限制攻击性输出,但对训练ChatGPT及其输出的数据进行大规模编辑审查的情况并不存在。例如,Hartmann、Schwenzow & Witte以及Baum & Villasenor的研究提供了系统证据,证明ChatGPT对亲环境和意识形态自由输出的偏见。
文献中未明确提及和/或我们任何一位教师调查受访者未指出的最后一个问题是,使用ChatGPT重写或总结直接从原始资料复制的段落或观点。识别传统抄袭文本相对简单。教师将学生的写作与可疑的原始来源进行比较,如果未正确引用或参考,则存在抄袭问题。然而,有了ChatGPT,学生们在要求ChatGPT重写材料后,可以很容易地将原始资料作为自己的材料提交。图2是使用马丁·路德·金著名的“我有一个梦想”演讲的一部分的例子。ChatGPT提供的文本输出经过Turnitin软件的审查,该软件没有将马丁·路德·金的“我有一个梦想”演讲识别为潜在的文本来源,也没有将该文本识别为ChatGPT的输出。
图2 使用ChatGPT重写原始文本的示例
考虑到人们对 ChatGPT 对高等教育和政治学教学未来的影响的重大担忧,我们的研究调查了政治学家对 ChatGPT 的态度以及他们在课堂上回应和参与 ChatGPT 的计划。还讨论了限制ChatGPT潜在作弊的步骤以及将ChatGPT纳入教师教学的潜在任务。最后,针对学生使用ChatGPT的情况,对教学大纲陈述提出了几点建议。
政治科学家怎么想?
为了更好地了解政治学家对ChatGPT的态度以及在课堂上解决ChatGPT的计划,我们在2023年3月制定并分发了一份简短的调查问卷给美国政治学系的样本人群。该调查最初是通过电子邮件发送给100名政治学系教师的,要求每位收件人与同事分享调查链接。我们的100份调查请求得到了来自27个不同州和40多所代表少数民族服务机构、私立大学、公立大学和社区学院的独特高校的教职员工的109份完整调查回复。
我们的样本中男性多于女性:近60%被确定为男性,39%被确定为女性,其余1%被确定为其他。在我们的样本中,有80%以上的教职工是白人;大约7%为拉丁裔,4%为黑人,2%为亚洲人,4%为中东/北非人。我们的多个样本包括主要教授美国政治的受访者(40%)。然而,大约17%的人教授比较政治学、14%的国际关系、8%的公共管理或政策以及6%的政治理论。在我们的样本中,大约40%的教职员工在授予博士学位的院系任教;略高于35%的教师在授予最高学位为硕士学位的院系任教,20%在只授予学士学位/理科学士学位的院系任教,其余2%在社区学院任教。我们的大部分样本包括每学期教两门或三门课程的教师:分别为38%和41%。尽管很难获得政治学家的精确数据,但美国政治科学协会最近的估计表明,就许多这些方面而言,我们的样本人口是合理的(Smith 2023)。
当受访者被要求确定ChatGPT或其他人工智能聊天机器人对高等教育的教学和学习体验造成的主要挑战或威胁时,他们的调查回复通常反映了文献中提到的担忧。两个最常见的担忧是学生作弊或抄袭(37%)以及ChatGPT在评估学生作业方面带来的挑战(31%)。受访者还指出,他们担心ChatGPT可能会对学生写作和研究技能产生长期影响(26%)。令人惊讶的是,只有少数受访者指出对ChatGPT捏造信息或产生幻觉的倾向有任何担忧(6%)。
我们的调查结果集中在两大主题上。首先,我们向教师们提出了一系列具体问题,询问他们目前正在做什么或计划做什么来防止使用ChatGPT或其他人工智能作弊。其次,我们问他们对ChatGPT和其他人工智能的出现对教学和学习的未来意味着什么的抽象看法。我们按照这个顺序探索和讨论教员对这些主题的看法。
我们也对为什么这些问题的答案会有系统地变化感兴趣。例如,为什么有些教职员工会根据ChatGPT积极改变课程的某些关键特征,而另一些人对技术创新却无动于衷?
我们认为我们的研究在这个目的上有些探索性。我们鼓励未来的研究人员收集更多的数据,并评估相似和不同的协变量。也就是说,我们探索的两个协变量是排名(即初级与高级)和对作弊的普遍担忧;例如,也许一些教师只是更关心任何形式的作弊行为,因此更容易被ChatGPT等技术所激活。
我们认为这些是值得探索的合理协变量。关于级别,似乎可以合理地假设,级别较高的教员可能比级别较低的教员对人工智能更敌视,因为平均而言,前者在人工智能/聊天机器人出现之前的世界里花费了更多的时间来开发和管理教学材料。关于作弊问题,出于各种原因,我们假设一些教员对学生行为和作弊有更深层次的担忧(无论这些担忧是基于经验还是人格特质,我们都不知道),而这些担忧可能会导致人们对改变作弊性质的新技术产生更高程度的担忧。
为了衡量受访者对作弊的潜在担忧,我们将他们对两个不同问题的回答结合起来。受访者被问及他们对学生提交他人作业、雇佣他人或让他人代写论文的担忧程度。答案的选择范围从“完全没有”(0)到“很多”(5)。这两个问题的克朗巴赫α系数为0.7996,这表明它们测量的是同一个结构。我们认为这些问题与人们对作弊的普遍担忧有关。我们首先计算了每个受访者在这两个问题上的平均值。然后,我们根据受访者的平均得分将他们分为两组。平均分数高于平均水平的人被认为更关心作弊;那些平均得分处于或低于平均水平的人被归类为不太关心。由于样本量较小,我们减少了该协变量的类别数量。(我们在在线附录A中探索了一种替代概念,我们将受访者分为三等分。)当然,我们希望使用每个协变量的全部丰富性,但我们的样本太小,使得这样的练习更加成问题。
为了衡量教职员工的级别,我们询问了他们在大学任教的时间。我们用这个问题将教师分为初级和高级组。初级教师被归类为受访者,他们表示曾在大学或学院任教七年或更短的时间。教龄超过这个时间的受访者被归类为高级教师。然而,与作弊问题类似,我们的样本足够小,以至于我们不得不探索最少数量的有意义类别,以最大化每个类别的样本量。
图3展示了我们的发现,即教职员工目前正在做什么或计划根据ChatGPT做些什么。图3中显示的一个明显模式是,基于教员级别几乎没有差异。例如,t检验表明在八个问题中只有两个具有统计学上的显著性差异。首先,我们发现初级教师比高级教师更有可能要求学生在课堂上写论文(p<0.1)。其次,我们发现高级教师比初级教师更有可能允许学生使用人工智能工具,只要他们承认他们的使用(p<0.05)。由于缺乏更好的术语,从这两个问题来看,初级教师在使用ChatGPT方面似乎更保守,而高级教师则更自由。
图3 根据ChatGPT按教师排名对教学和学习进行的积极变革
尽管存在这些差异,但点估计也揭示了有趣的模式。绝大多数受访者(超过80%)表示,他们正在根据ChatGPT积极改变所提问题的类型和/或分配的评估类型。我们还发现,大多数高级和初级教员都声称他们会在评估中更多地使用有关近期事件的问题。由于人工智能经常对存储的数据(例如网站)进行训练,而这些数据很快就会过时,因此最近发生的事件可能更难以被纳入人工智能。然而,ChatGPT可以利用其对过去事件的知识来生成有关当前事件的回复。例如,ChatGPT利用其对过去中期选举的理解来回答2022年12月关于影响2022年中期选举的因素的询问。最后,我们发现使用或计划使用软件来检测人工智能使用的教职员工占少数。总体而言,对使用浏览器拦截软件或要求学生在课堂上写论文感兴趣的教职员工较少。
图4显示了我们的发现,但在这种情况下,教职员工根据他们对作弊的潜在担忧进行了划分。在这种情况下,在八个问题中,t检验显示一个统计上显著差异和一个接近显著的差异。更关心作弊的教员也更有可能要求学生在课堂上写作(p<0.05)。这些关心的教职员工也更有可能使用软件来检测人工智能(p≈0.14)。对作弊的担忧似乎比排名更强烈地促使教师根据ChatGPT采取行动。
图4 由于担心ChatGPT作弊带来的教学变化
图5展示了我们对ChatGPT和其他人工智能对未来教学和学习的影响的调查结果。我们特别感兴趣的是,教师是否将人工智能视为教学和学习方面的威胁或机遇。认为人工智能将从根本上改变高等教育的教师比例几乎达到50%。高级教师略高于50%,初级教师则稍低,尽管差异在统计上并不显著。也就是说,高级教师更有可能相信人工智能和ChatGPT代表了相对于初级教师重新构想学习的机会,不太可能认为它们对教学和学习构成威胁。数据还表明,初级教师比高级教师对人工智能在教学和学习中的作用持怀疑态度。然而,认为ChatGPT和其他人工智能代表重大威胁的初级和高级教师比例低于50%。
图5 ChatGPT和按资历教学的未来
图6显示了这些比例在教师担心作弊方面是如何变化的。只有一个明显的区别:ChatGPT和其他人工智能对教学和学习构成威胁的程度。大多数教师通常更关心作弊问题,他们认为人工智能是一个重大威胁,而那些不太担心作弊问题的教师中只有少数人持相同看法。t检验表明,差异具有统计学意义(p≈0.07)。此外,对作弊问题更为关注的教师更有可能表示人工智能将从根本上改变高等教育。似乎人们对人工智能的一些悲观情绪源于对作弊的担忧。
图6 ChatGPT和因作弊问题而分裂的教学和学习的未来
课堂上的ChatGPT
可能无法创建防ChatGPT的作业或考试;然而,教师可以开发问题和论文提示,以最大限度地减少学生滥用ChatGPT的可能性。本节讨论了ChatGPT在准确回答问题方面的一些局限性,并包括了一些建议,以帮助教师设计出能够最大限度地减少学生不当使用ChatGPT可能性的问题:
ChatGPT在涉及知识应用的任务上存在问题。因此,要求学生将课程概念和理论应用于当代政治问题的问题会限制他们使用ChatGPT的能力。
包含框架的任务,如大纲、多稿和建设性反馈或同行评审的机会,将限制学生对ChatGPT的使用。这些措施也符合写作教学法的最佳实践。
要求学生将个人访谈、调查和实验中的原始数据纳入他们的研究中,可能会限制ChatGPT的使用。然而,重要的是要认识到ChatGPT有能力生成捏造的访谈和调查结果。
ChatGPT训练不是连续的,最新版本(即ChatGPT-4)于2021年9月停止使用;因此,它在回答有关时事的问题上举步维艰。如前所述,教师应当认识到ChatGPT可以利用其对过去事件的了解来生成关于当前事件的回应。
当作业或论文提示要求学生反思课堂讨论或活动时,ChatGPT的使用是有限的,因为ChatGPT缺乏对这些个人和独特环境中发生的事情的了解ChatGPT 难以准确总结和批判。
最近发表的奖学金,这些奖学金未被纳入其培训数据的主要来源。ChatGPT会使用可能引用了最近发表的学术成果,或同一作者以前的学术成果的二手资料,导致总结和评论不准确。
教师们应该花一个下午的时间亲自探索和试验ChatGPT。花几个小时与ChatGPT进行交互,将对其潜在影响有一个基本的了解,并找出方法将其对教学的潜在负面影响降到最低
没有任何作业或任务是“ChatGPT-proof”的。为了评估ChatGPT的潜在反应,教师们应该提交作业和问题,并根据需要进行调整。此外,重要的是要认识到ChatGPT对同一问题的回答每次提交时都有所不同结束。
认识到创建防ChatGPT任务和问题的挑战,我们鼓励教师接受而不是忽视或避免这种新兴技术并将其融入教学中。ChatGPT在政治领域越来越普遍,很可能会成为政治学学生未来从事竞选、政府和法律工作的必备工具。有效使用ChatGPT的能力不仅可以提高学生的写作和研究技能,还可以帮助他们识别滥用ChatGPT的行为。正如Kreps & Krine所指出的那样,ChatGPT可能会对民主参与和代表性构成重大威胁,因为一些邪恶的个人或利益集团会利用人工智能软件通过精心策划的虚假宣传活动来歪曲公众舆论。在课堂上引入ChatGPT,可以帮助学生更好地理解这项技术是如何运作的,以及它潜在的偏见、局限性和操纵民主政治进程的威胁。
以下是关于将ChatGPT纳入课程并促进学生学习、写作和对该技术进行批判性思考的建议。
1. 反思和改进
第一步:要求学生确定与ChatGPT可以解决的课程内容相关的主要问题或议题。
第二步:让学生反思ChatGPT的输出(例如,什么是正确的或不正确的,他们不知道的是正确还是不正确,需要验证什么,和/或需要扩展什么)。
第三步:使用MS Word中的“追踪修订”或谷歌文档中的“建议”,让学生改进ChatGPT的输出(例如,纠正错误或误传信息并扩展浅显的内容)。
第四步:让学生提交他们的提示和改进后的ChatGPT回复,并突出显示他们添加的内容。
2. 反思与引用
第一步:要求学生确定与ChatGPT可以解答的课程内容相关的主要问题或议题。
第二步:让学生评估ChatGPT输出提供的参考信息,然后确认正确的参考信息并/或提供额外的参考信息。ChatGPT的显著弱点在于它难以正确引用学术著作,并且经常编造假引用。
第三步:要求学生提交对其初始ChatGPT提示的修订回应,其中包括经核实的参考信息以及注释式书目。
3. 其他视角
第一步:要求学生确定与ChatGPT可以解答的课程内容相关的主要问题或议题。
第二步:让学生从不同的角度对ChatGPT的输出做出回应,应用批判性视角,澄清错误信息,或对ChatGPT的回应中提供的特定论点进行扩展。
4. 反思式学习
第一步:要求学生确定与ChatGPT可以解答的课程内容相关的主要问题或议题。
第二步:让学生多次向ChatGPT提交相同的问题,这将产生各种不同的ChatGPT回应。
第三步:让学生就ChatGPT对他们问题的回应来写一篇反思文章。他们从ChatGPT中学到了什么,以及在ChatGPT的某些回应中未解决而其他回应中解决了什么问题?他们是否发现ChatGPT的回应存在偏见,如果是这样,那么是如何存在的?
课程大纲示例
学生可能不完全理解使用ChatGPT是一种学术不端行为,主要是因为ChatGPT和类似的人工智能程序非常新,许多大学没有为学生提供或传达任何关于人工智能程序使用的标准政策。以下是教师教学大纲中可能包含的一些示例语言。
教师应明白,即使有AI软件检测程序,使用AI生成的文本也很难证明,而且随着ChatGPT的改进,这将变得更加困难。对于传统的抄袭事件,教师很容易通过识别抄袭来源并将学生的文本与来源进行比较来确认学生的学术不端行为。教师将可能被剽窃的学生文本与已发表的来源进行比较的能力,在人工智能生成的文本中是不存在的。此外,学生疑似人工智能提交的作业可能只是非常普通的写作示例,人工智能检测器可能会将其误识别为“由人工智能撰写”。
除了识别人工智能生成的文本的挑战之外,很难确定什么是允许的和不允许的。如果学生使用ChatGPT来检查他们的原始文本的语法和可读性,这是否是一种不恰当的使用?Grammarly和其他常见写作软件中包含的写作工具只是人工智能软件的更基本版本,微软Word未来的更新预计将包括一种形式的ChatGPT来检查语法和写作风格。
如果教师不希望学生在课程中使用ChatGPT或类似的人工智能程序,教学大纲中的明确声明(见下例)应直接解决这个问题:
教学大纲示例1:本课程中提交的所有书面作业必须由您原创。如果你使用外部资源,你必须在作业中正确引用该来源。使用ChatGPT或类似的人工智能软件并将工作作为自己的成果提交是一种学术不诚实行为。
如果你希望你的学生以学术诚实的方式使用ChatGPT或其他生成式人工智能软件——类似于他们可能如何使用和引用其他传统资源——可以考虑增加教学大纲语言,指导他们正确使用生成式人工智能。以下是三个潜在的教学大纲示例:
教学大纲示例2:人工智能生成的内容(例如来自ChatGPT)可以成为研究和学习的一个有用工具。本课程提交的所有作品必须是您的原创作品。使用人工智能生成的内容而没有适当的引用或将人工智能生成的内容作为您自己的内容提交,将被视为剽窃。
教学大纲示例3:人工智能工具,如ChatGPT,对于研究、头脑风暴和产生想法很有价值。如果你正在使用人工智能工具,那么批判性地参与信息并发展自己的理解和分析是至关重要的。直接提交人工智能生成的内容,而没有适当的引用、实质性的修改或批判性分析,被认为是剽窃。
教学大纲示例4:在本课程中,学生应正确引用和归因所有来源,包括人工智能生成的内容。如果您选择在您的作品中使用人工智能生成的内容(例如,来自ChatGPT),您必须提供适当的归属权,明确指出内容的来源。不这样做被认为是剽窃。
结论
ChatGPT和人工智能软件是我们未来在政治学、学术界、政治运动、政府和我们世界的一部分。今天的许多政治学学生可能会将ChatGPT或类似的人工智能软件作为他们未来职业生涯中的重要工具。人工智能软件在法律实践中可能发挥重要作用,从成箱的证据中提取重要信息,协助起草动议和引用相关判例法。ChatGPT还将协助开发和撰写竞选演讲、政策文件、评估计划以及许多其他重要任务。微软已经与人工智能合作,最近发布了其Teams软件的高级版本,该版本集成了基于ChatGPT的工具,用于总结会议记录、组织个人任务和翻译文本。
许多教师对ChatGPT的担忧与前几代人对计算器、互联网和维基百科的担忧相呼应。十年前,教师们经常禁止使用维基百科;如今,学生们创建维基页面并为维基百科主题做出贡献,这是他们课程的一部分。
与其将ChatGPT视为对学术界的威胁和学生作弊的潜在工具,也许我们可以将其视为更复杂的谷歌、维基百科和Grammarly的下一个迭代。与此同时,我们不能忽视人们对ChatGPT的严重担忧。ChatGPT最值得关注的问题之一是“垃圾进,垃圾出”。ChatGPT可以回答许多问题,但人工智能软件实际上什么也不“知道”。人工智能没有标准或编辑审查程序来评估偏见,区分事实与虚构,并可靠地向用户提供适当的参考。尽管最新版本的ChatGPT-4在语言技能方面有了很大的提高,并且不太可能提供“幻觉”,但这些问题仍然是盲目使用人工智能软件的学生们严重关切的问题。ChatGPT-4显示的重大改进使我们不禁想知道随着不可避免地发布ChatGPT X.x和其他新的和改进的人工智能软件的版本,几年后可能会有什么样的改进和能力。
作为政治学教师,我们帮助学生培养负责任地使用人工智能软件所需的技能,并在他们为政治科学课堂后的职业生涯和生活做准备时更好地理解其挑战和弱点,这一点尤为重要。
(因篇幅限制,参考文献从略)
〇 编辑、排版:焦磊
〇 审校:郭瑞涵 大兰