半路杀出个“ChatGPT”,谷歌能不能招架住?
01
摘要
02
ChatGPT
解决NLP系统局限性的一个潜在途径是元学习,在语言模型的背景下,这意味着模型在训练时开发了广泛的技能和模式识别能力,然后在推理时使用这些能力快速适应或识别所需的任务。语境学习使用预训练语言模型的文本输入作为任务规范的一种形式。该模型以自然语言指令和/或一些任务演示为条件,然后通过简单地预测接下来会发生什么来完成任务的进一步实例。
GPT-3比其前身“GPT-2”(仅由15亿个参数组成)大100多倍,比微软在2020年推出的“图灵NLG”语言模型(由170亿个参数组成)大10倍。这表明GPT-3具有更强的性能和适用性,其超越其他自然语言处理(NLP)系统、语音识别和推荐系统的“微调最先进算法”(“SOTA”)的能力进一步证实了这一点。GPT-3拥有1750亿个参数,可以在“少射”设置下实现80%以上的响应精度。 来源:《OpenAI影响分析:微软、谷歌和英伟达》
GPT-3没有被编程去做任何特定的任务。它可以作为聊天机器人、分类器、摘要器和其他任务执行,因为它可以理解这些任务在文本层面上的样子。 资料来源:Andrew Mayne, OpenAI的科学传播者
WebGPT经过训练,可以实时梳理互联网上可用的数据,以生成更准确的响应,解决了GPT-3模型目前只能通过截至2021年的数据进行预训练的限制……WebGPT还可以在其响应中引用来源,解决了对ChatGPT吐出的当前响应的准确率的担忧。与此同时,研究人员和工程师仍在努力更好地完善这种能力,以便该模型能够梳理和“挑选”最可靠和准确的来源。 来源:《Twilio:尚未盈利,已经过时》
03
谷歌的决心
“对话应用程序语言模型”(LaMDA)也在今年的I/O活动上公布的。LaMDA被训练参与对话,以帮助谷歌更好地理解“搜索查询的意图”。虽然LaMDA仍处于研究阶段,但最终将突破性技术集成到谷歌搜索中,不仅会使搜索引擎更加友好,而且还会使搜索结果具有更高的准确性。
我们还在Beyond the Imitation Game Benchmark (BIG-bench)上探索了PaLM正在出现的和未来的能力,这是最近发布的包含150多个新的语言建模任务的套件,并发现PaLM实现了突破性的性能。我们将PaLM的性能与Gopher和Chinchilla进行了比较,在这些任务的58个共同子集中进行了平均。 有趣的是,我们注意到PaLM的性能作为规模的函数遵循类似于先前模型的对数线性行为,这表明规模带来的性能改进还没有稳定下来。PaLM 540B 5-shot也比被要求解决相同任务的人的平均表现要好。 来源:谷歌
04
对谷歌的影响
PaLM通过将扩展能力与新颖的架构选择和训练方案相结合,为更强大的模型铺平了道路,并使我们更接近Pathways的愿景:“使单个AI系统能够在数千或数百万个任务中进行概括,理解不同类型的数据,并以显著的效率做到这一点。” 来源:谷歌
05
结语