OpenAI 宣布 GPT-4——下一代 AI 语言模型
导读:ChatGPT 的创建者 OpenAI 今天发布了 GPT-4,它可以接受文本或图像输入。
经过数月的媒体猜测,OpenAI 宣布推出 GPT-4,是其 AI 语言模型系列中的最新版本,已经为 ChatGPT 和新 Bing 等应用程序提供支持。
该公司昨天的发布声称此模型“比以往任何时候都更具创造性与协作性”,并且“可以更准确地解决难题”。
GPT-4可以解析文本和图像输入,但目前还是只能通过文本进行响应。OpenAI 还警告说,该系统还存在着许多与早期语言模型相同的问题,包括编造信息(或“幻觉”)的倾向以及生成暴力与有害文字的情况。
OpenAI 表示,它已经与多家公司合作,将 GPT-4 集成到这些公司的产品中,包括 Duolingo、Stripe 和 Khan Academy 等知名平台。
GPT-4 模型通过 ChatGPT Plus(OpenAI 每月 20 美元的 ChatGPT 订阅)向公众提供,并为微软的 Bing 聊天机器人提供支持。目前GPT-4 的 API 已经开放给开发者,可以直接构建新应用。
OpenAI 表示 GPT-4 与其前身 GPT-3.5 之间的区别在于日常对话中是“微妙的。
OpenAI 首席执行官 Sam Altman在推特上表示,GPT-4“仍然存在缺陷,仍然存在局限”,但它能够“在第一次使用时就比你花更多时间处理更令人印象深刻。”
OpenAI表示,GPT-4 在许多测试和基准测试中的表现中有不少独特性,包括 Uniform Bar Exam、LSAT、SAT Math 和 SAT Evidence-Based Reading & Writing 测试的数据。
但 OpenAI 的公告却谦虚地说:
“人们期望越高,失望就越高,”OpenAI首席执行奥特曼在 1 月份接受关于 GPT-4 的采访时说。“炒作就像...没有真正的 AGI,这正是对我们的期望。”
上周,微软德国首席技术官在接受媒体采访时透露该系统将于本周推出,媒体进一步活跃起来。这位高管还指出该系统将是多模态的——也就是说,不仅能够生成文本,还能生成其它媒体。许多 AI 研究人员认为,集成文本、音频和视频的多模态系统是构建功能更强大的 AI 系统的最佳途径。
GPT-4 确实是多模态的,但使用的媒体比一些人预测的要少。OpenAI 表示该系统可以接受文本和图像输入并返回文本输出。该模型同时解析文本和图像的能力使其能够解释更复杂的输入。
阐述 GPT 的原始研究的论文发表于 2018 年,GPT-2 于 2019 年公布,GPT-3 于 2020 年公布。这些模型是在巨大的文本数据集上训练的,其中大部分是从互联网上抓取的,用于挖掘统计模式。然后使用这些模式来预测哪个词跟在另一个词之后。这是一个描述起来相对简单的机制,但最终结果是灵活的系统,可以生成、总结和写作,以及执行基于文本的任务,如翻译或生成代码。
2022 年底,OpenAI推出了 ChatGPT——这是一种基于 GPT-3.5 的对话式聊天机器人,任何人都可以访问。ChatGPT 的推出在科技界引发了一场狂潮,微软很快推出了自己的 AI 聊天机器人 Bing,并作为 Bing 搜索引擎的一部分,而谷歌也紧随其后。
这些 AI 语言模型的广泛可用性带来了一众问题和挑战。如今教育系统开始面对那此受人尊敬论文的真实性质疑,是否由机器编写;由于AI 生成的内容大量涌入, Stack Overflow 和 Clarkesworld 等网站已经关闭ChatGPT提交。
在 GPT-4 公告中,OpenAI 强调说,此系统已经接受了六个月的安全训练,并且在内部测试中,“响应不被允许的内容请求可能性降低了 82%,产生事实内容的可能性提高了 40%,响应也优于 GPT-3.5。”
编辑:高朋
相关阅读: