查看原文
其他

剑指 Meta:Mistral Large2 凌晨开源,媲美 Llama3.1

金色传说大聪明 赛博禅心
2024-08-31

要点如下

  • 刚刚, Mistral AI 发布 Mistral Large 2,123B 大小,128k 上下文,与 Llama 3.1 不相上下。

  • 支持包括法语、德语、西班牙语、意大利语、葡萄牙语、阿拉伯语、印地语、俄语、中文、日语和韩语在内的数十种语言

  • 支持 Function Calling 和 Retrieval

  • 开源地址: https://huggingface.co/mistralai/Mistral-Large-Instruct-2407

  • 可用于研究和非商业用途,商用需获取许可

  • 在线使用:https://chat.mistral.ai/chat

  • 开发者平台:https://console.mistral.ai/

  • 云服务:可在 Google Cloud 、Azure AI Studio、Amazon Bedrock 和 IBM watsonx.ai 上调用


简单使用

可在这里使用:https://chat.mistral.ai/chat

不够聪明啊,ahhhhhh


版本特色

  • 多语言设计:支持多种语言,包括英语、法语、德语、西班牙语、意大利语、中文、日语、韩语、葡萄牙语、荷兰语和波兰语。

  • 精通代码:熟练掌握 80 多种编程语言,如 Python、Java、C、C++、JavaScript 和 Bash 等。还熟悉一些更具体的语言,如 Swift 和 Fortran。

  • Agent 支持:原生支持 Function Calling 和 JSON 输出。

  • 好的推理:数学和推理能力远超前代,与 GPT-4o、Claude 3 Opus 和 Llama 3.1 405B 不相上下

  • 128k 上下文:,加之在 la Plateforme 实施的输出限制模式,大大促进了应用开发和技术栈的现代化。

  • 开源许可:允许用于研究和非商业用途的使用和修改。


推理测试

表现远超之前的 Mistral Large,与 GPT-4o、Claude 3 Opus 和 Llama 3.1 405B 相媲美


代码生成测试


MultiPL-E 性能测试


GSM8K(8-shot)和 MATH(0-shot,无 CoT)测试


语言覆盖

 官方给的图,剑指 Meta

语言性能测试


更多信息

按 Mistral 的说法,他们会围绕以下模型在 la Plateforme 上进行后续整合:

  • 通用模型:Mistral Nemo 和 Mistral Large

  • 专业模型:Codestral 和 Embed

其中 Mistral NeMo 是一款与 NVIDIA 合作开发的 12B 模型,一周前发布的,具体参见:https://mistral.ai/news/mistral-nemo/


同时,Mistral 的 Large2 模型已可在 Google Cloud 、Azure AI Studio、Amazon Bedrock 和 IBM watsonx.ai 上进行调用。更多的安排参考:


继续滑动看下一个
赛博禅心
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存