查看原文
其他

GPT-4o 速度翻倍、成本减半,API 性价比高 | 语音视觉能力超越现有模型 | 免费用户也能用 GPT-4o

思辨view kate人不错 2024-05-19

OpenAI 于 2024 年 5 月 13 日宣布推出其新的旗舰模型 GPT-4o,该模型可以实时处理语音、视频、图像和文本。所有用户今天都将开始访问 GPT-4o,GPT-4o 是智能且快速的模型。

GPT-4o 也是 LMSys arena 上测试的版本 im-also-a-good-gpt2-chatbot,且在测试中表现优异,评分很高。

GPT-4o 的主要特点

  • 接受任意组合的文本、音频和图像输入,并生成相应的输出。
  • 响应音频输入的速度与人类在对话中的响应时间相似(平均 320 毫秒)。
  • 在英语文本和代码方面与 GPT-4 Turbo 性能相当,在非英语文本方面有显著改进
  • 速度更快,与 GPT-4 Turbo 相比,GPT-4o 速度提高 2 倍,价格降低一半,速率限制提高 5 倍。
  • 在图像和音频理解方面优于现有模型。

模型可用性

  • GPT-4o 的文本和图像功能从今天开始在 ChatGPT 中推出。
  • 免费用户可使用 GPT-4o,Plus 用户的消息限制提高 5 倍。
  • 未来几周内将在 ChatGPT Plus 中以 α 版本推出带有 GPT-4o 的新语音模式。
  • 开发者现在可以在 API 中访问作为文本和图像模型的 GPT-4o。
  • 计划在未来几周内向 API 中的一小群可信赖合作伙伴推出对 GPT-4o 新语音和视频功能的支持。

新的标记器在中文文本的压缩效果更佳,使得使用 API 的成本更加经济实惠。在接下来的两周内,GPT-4o 速率限制将增至 GPT-4 Turbo 的 5 倍——10M TPM。

OpenAI 官方发布了很多视频,值得一看。这里只展示部分:

https://www.youtube.com/@OpenAI/videos

更多视频

GPT-4o 能力卓越

GPT-4o 最具吸引力的亮点之一就是它卓越的语音处理能力。

简单体验 GPT-4o

速度比 GPT-4 Turbo 快很多,但还没有达到 GPT-3.5 的速度水平,与 Groq llama3 70B 280 tokens/s 速度相比还有一定差距。从 OpenAI 发布的图表和我的简单体验来看,GPT-4o 的性能非常出色。

速度提升,成本降低,与 Claude 3 Opus 相比,GPT-4o 性价比非常高。此外,它的音频和图像处理能力显著增强,向构建 LLM OS 的目标又迈进了一步。接下来,我计划在 Open Interpreter 中进一步体验它。

再次强调,生成速度的提升非常重要,瞬间就能完成复杂任务,给人一种从 100M 网速升级到 1000M 网速的感觉。

尤其值得推荐的是,OpenAl Translator 已经搭配了最新的 GPT-4o API。

ChatGPT 免费用户也能用 GPT-4o

1️⃣ 体验 GPT-4 级别的智能。

2️⃣ 从模型和网络获取响应。

3️⃣ 分析数据并创建图表。

4️⃣ 聊聊你拍的照片。

5️⃣ 上传文件,以获取摘要、写作或分析的帮助。

6️⃣ 发现并使用 GPT 和 GPT 商店。

7️⃣ 使用记忆功能构建更有帮助的体验。

推荐官网探索 GPT-4o 的能力

请访问 https://openai.com/index/hello-gpt-4o/

结尾

新推出的语音和视频模式真正让人惊艳。它让人与计算机之间的互动变得更加自然和直观,仿佛电影中的场景成了现实。非常期待早日使用上它。

GPT-4o 的发布带来了诸多创新和改进,您对这些新功能和性能提升有何看法?欢迎在评论区分享您的体验和见解。让我们一起参与这场关于人工智能的精彩讨论!


精选历史文章,请看这里:

Claude 3 深度探索:从提示技巧到高级 API 使用指南

Gemini 1.5 Pro 探索,它的长上下文能力比 GPT4 好用在哪?

继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存