美国宪法是人工智能撰写的?
AI写作检测器可信吗?让我们深入研究它们背后的理论。
编译:王庆法
人工智能生成的詹姆斯·麦迪逊使用人工智能撰写美国宪法的图像。
如果你将美国最重要的法律文件——美国宪法——输入到一个旨在检测由人工智能模型(如ChatGPT)编写的文本的工具中,它会告诉你该文件几乎肯定是由人工智能编写的。但除非詹姆斯·麦迪逊是时间旅行者,否则情况不可能如此。为什么人工智能写作检测工具会出现误报?我们采访了几位专家以及人工智能写作检测器 GPTZero 的创建者来找出答案。
在一些新闻报道中,由于怀疑使用人工智能写作工具,过于热心的教授给整班打不及格,以及孩子们被错误地指控使用 ChatGPT,生成式人工智能在教育领域引起了轰动。一些人认为这代表着一场生存危机。依靠过去一个世纪发展起来的教育方法的教师一直在努力寻找保持现状的方法——依靠论文作为衡量学生对某个主题的掌握程度的传统。
尽管依靠人工智能工具来检测人工智能生成的文字很诱人,但迄今为止的证据表明它们并不可靠。由于误报,GPTZero、ZeroGPT和 OpenAI 的文本分类器等 AI 写作检测器 不能被信任用来检测由 ChatGPT 等大型语言模型 (LLM) 编写的文本。
如果你向 GPTZero 提供美国宪法的一部分,它会说该文本“可能完全由人工智能编写”。在过去的六个月里,其他人工智能探测器的屏幕截图多次在社交媒体上疯传,显示出类似的结果,引发了人们的困惑,并引发了大量关于开国元勋是机器人的笑话。事实证明,《圣经》中的选集也发生了同样的情况,这些选集也显示为人工智能生成的。
为了解释为什么这些工具会犯如此明显的错误(并且经常返回误报),我们首先需要了解它们是如何工作的。
了解 AI 检测背后的概念
不同的人工智能写作检测器使用的检测方法略有不同,但都有相似的前提:有一个人工智能模型已经在大量文本(由数百万个写作示例组成)上进行了训练,并且有一组推测的规则来确定该写作是否是正确的,更有可能是人类还是人工智能生成的。
例如,根据该服务的常见问题解答,GPTZero 的核心是一个神经网络,该网络接受“大型、多样化的人类写作和人工智能生成文本语料库,重点是英语散文”的训练。接下来,系统使用“困惑度”和“突发性”等属性来评估文本并进行分类。
在机器学习中,困惑度是衡量一段文本与人工智能模型在训练过程中学到的内容的偏差程度的指标。正如人工智能公司 Hugging Face 的玛格丽特·米切尔 (Margaret Mitchell) 博士告诉 Ars 的那样,“困惑是‘据我所见,这种语言有多令人惊讶?’”
因此,测量困惑度背后的想法是,当他们编写文本时,像 ChatGPT 这样的 AI 模型会自然地找到他们最了解的内容,这些内容来自他们的训练数据。输出越接近训练数据,困惑度等级越低。人类是更加混乱的作家——或者至少理论上是这样——但人类也可以以较低的困惑度写作,尤其是在模仿法律或某些类型的学术写作中使用的正式风格时。此外,我们使用的许多短语都非常常见。
假设我们正在猜测短语“I'd like a cup of _____”中的下一个单词。大多数人会用“水”、“咖啡”或“茶”来填补空白。用大量英语文本训练的语言模型也会做同样的事情,因为这些短语在英语写作中经常出现。这三个结果中任何一个的复杂度都非常低,因为预测是相当确定的。
现在考虑一个不太常见的补全:“我想要一杯蜘蛛。” 人类和训练有素的语言模型都会对这句话感到非常惊讶(或“困惑”),因此它的困惑度会很高。(在撰写本文时,“我想要一杯蜘蛛”这句话在 Google 搜索中只给出了一个结果,而“我想要一杯咖啡”的结果为 375 万个。)
“我想要一杯蜘蛛”的唯一 Google 搜索结果。这不是一个常见的短语,因此它具有很高的困惑度。因此从理论上讲,机器不太可能写出这样的文字。
如果根据模型的训练,一段文本中的语言并不令人惊讶,那么困惑度就会很低,因此 AI 检测器更有可能将该文本分类为 AI 生成的文本。这让我们想到了美国宪法这个有趣的案例。从本质上讲,宪法的语言在这些模型中根深蒂固,以至于他们将其归类为人工智能生成的,从而产生了误报。
GPTZero 的创建者 Edward Tian 告诉 Ars,“美国宪法是一个反复输入到许多大型语言模型的训练数据中的文本。因此,许多大型语言模型经过训练,可以生成与宪法和其他常用文本类似的文本。”GPTZero 预测大型语言模型可能生成的文本,因此发生了这种令人困惑的现象。”
问题在于,人类作家也完全有可能创造出低困惑度的内容(如果他们主要使用诸如“我想要一杯咖啡”之类的常见短语进行写作),这严重破坏了人工智能的检测器的可靠性。
《圣经》创世记的一部分被 ZeroGPT 标记为 88.2% 是由人工智能生成的。
GPTZero 检测文本的另一个属性是“突发性”,它是指某些单词或短语快速连续出现或在文本中“突发”的现象。本质上,突发性评估整个文本中句子长度和结构的可变性。
人类作家经常表现出动态的写作风格,导致文本具有可变的句子长度和结构。例如,我们可能会先写一个长而复杂的句子,然后写一个短而简单的句子,或者我们可能会在一个句子中使用一系列形容词,而下一个句子中则不会使用任何形容词。这种可变性是人类创造力和自发性的自然结果。
另一方面,人工智能生成的文本往往更加一致和统一——至少到目前为止是这样。语言模型仍处于起步阶段,可以生成长度和结构更规则的句子。这种可变性的缺乏可能会导致突发性分数较低,表明文本可能是人工智能生成的。
然而,突发性也不是检测人工智能生成内容的万无一失的指标。与困惑一样,也有例外。人类作家可能会以高度结构化、一致的风格写作,从而导致突发性得分较低。相反,人工智能模型可以经过训练,在句子长度和结构上模拟更接近人类的可变性,从而提高其突发性得分。事实上,随着人工智能语言模型的改进,研究表明它们的写作看起来越来越像人类的写作。
最终,没有任何神奇的公式可以始终区分人类编写的文本和机器编写的文本。人工智能写作检测器可以做出强有力的猜测,但误差幅度太大,无法依靠它们来获得准确的结果。
马里兰大学研究人员在 2023 年进行的一项研究凭经验证明,人工智能生成文本的检测器在实际场景中并不可靠,而且它们的性能仅比随机分类器稍好一些。它们不仅返回误报,而且检测器和水印方案(试图以泄露秘密的方式改变单词选择)很容易被“意译攻击”击败,“意译攻击”修改语言模型输出,同时保留其含义。
“我认为它们大多是万金油,”人工智能探测器产品的人工智能研究员西蒙·威利森(Simon Willison)说。“每个人都迫切希望它们能发挥作用,尤其是教育界的人,而且销售每个人都想要的产品很容易,尤其是当很难证明它是否有效时。”
此外,斯坦福大学研究人员最近的一项研究表明,人工智能写作检测对非英语母语人士存在偏见,对他们的人类写作作品产生很高的误报率,如果人工智能检测器得到广泛使用,他们可能会在全球讨论中受到惩罚。。
虚假指控的代价
沃顿商学院的Ethan Mollick教授等一些教育工作者正在接受这种人工智能注入的新现实,甚至积极推广使用 ChatGPT 等工具来辅助学习。莫里克的反应让人想起一些老师在将袖珍计算器引入课堂时的反应:它们最初引起争议 ,但最终被广泛接受。
“没有任何工具可以可靠地检测 ChatGPT-4/Bing/Bard 的写作,”Mollick 最近在推特上写道。“现有工具是在 GPT-3.5 上进行训练的,它们的误报率很高(10% 以上),而且非常容易被击败。” 此外,ChatGPT 本身无法评估文本是否是 AI 编写的,他补充道,因此你不能只是粘贴文本并询问它是否是由 ChatGPT 编写的。
AI 生成的学生正在接受机器人帮助的图像。
在与 Ars的对话中,GPTZero 的 Tian 似乎看到了不祥之兆,并表示他计划将公司从普通的人工智能检测转向更加模糊的领域。“与 Turn-it-in 等其他检测器相比,我们的重点不再是构建检测器来捕捉学生,相反,下一版本的 GPTZero 将不再检测人工智能,而是突出其中最人性化的部分,并帮助教师和学生操控人工智能参与教育的水平,”他说。
他是怎么看待人们使用 GPTZero 来指责学生的学术欺诈的?与传统的抄袭检查公司不同,Tian说: “我们不希望人们使用我们的工具来惩罚学生。相反,就教育用例而言,停止依赖于个人层面的检测(一些教师惩罚学生,一些教师对人工智能技术没有意见) ,而是将这些技术应用于学校(或)校董会(层面) ,甚至在全国范围内,更为合理,因为我们如何能够制定正确的政策,以应对使用人工智能技术的学生,直到我们了解到底发生了什么,以及人工智能的全面参与程度?”
然而,尽管存在准确性方面的固有问题,GPTZero 仍然标榜自己是“为教育工作者打造的”,并且其网站自豪地展示了据称使用该技术的大学列表。Tian既定的不惩罚学生的目标与他想用自己的发明赚钱的愿望之间存在着一种奇怪的张力。但无论动机如何,使用这些有缺陷的产品都会给学生带来可怕的影响。也许人们使用这些不准确和不完善的工具带来的最具破坏性的结果是错误指控的个人成本。
2023年7月GPTZero网站截图。
《今日美国》报道的一个案例以惊人的方式凸显了这个问题。基于人工智能文本检测工具,一名学生被指控作弊,不得不向荣誉委员会陈述自己的案子。他的辩护包括展示他的谷歌文档历史记录以展示他的研究过程。尽管董事会没有发现作弊的证据,但准备为自己辩护的压力导致学生经历了恐慌。类似的场景在美国已经发生了数十次(如果不是数百次),并且通常记录在令人绝望的 Reddit 帖子中。
对学术不诚实行为的常见处罚通常包括成绩不及格、留校察看、停学,甚至开除,具体取决于违规的严重程度和频率。这是一项很难面对的指控,而利用有缺陷的技术来判决这些指控几乎就像现代学术政治迫害。
“人工智能写作是无法检测到的,而且很可能一直如此”
鉴于误报率很高以及可能会不公平地惩罚非英语母语人士,很明显,检测人工智能生成文本的科学远非万无一失,而且可能永远不会万无一失。人类可以像机器一样写作,机器也可以像人类一样写作。一个更有用的问题可能是:在机器辅助下写作的人能理解他们在说什么吗?如果有人使用人工智能工具以他们不理解的方式填充事实内容,那么有能力的读者或老师应该很容易弄清楚。
人工智能写作辅助将继续存在,如果使用得当,人工智能语言模型可以以负责任和合乎道德的方式加快写作速度。教师可能希望鼓励负责任的使用并提出以下问题:写作是否反映了作者的意图和知识?人类作者能保证所包含的每一个事实吗?
同时也是学科专家的老师可以在事后对学生作业的内容进行测验,看看他们对作业的理解程度。写作不仅仅是知识的展示,也是一个人声誉的投射,如果人类作者不能确保写作中所体现的每一个事实,那么人工智能的辅助就没有得到适当的使用。
与任何工具一样,语言模型可能使用不当,也可能使用得熟练。这项技能还取决于环境:你可以用画笔画整面墙,也可以创作《蒙娜丽莎》。这两种场景都是该工具的适当使用,但每种场景都需要不同程度的人类注意力和创造力。同样,一些死记硬背的写作任务(也许是生成标准化的天气预报)可以通过人工智能适当加速,而更复杂的任务则需要更多的人文关怀和关注。没有非黑即白的解决方案。
目前,Ethan Mollick 告诉 Ars,尽管教育工作者感到恐慌,但他不认为任何人都应该使用人工智能写作检测器。“我不是人工智能检测方面的技术专家,” Mollick说。“我可以从一个从事人工智能工作的教育者的角度来说,到目前为止,人工智能写作是无法检测到的,而且很可能一直如此,人工智能检测器的误报率很高,因此不应该使用它们。”