查看原文
其他

SiliconCloud上新:GLM-4-9B,通用能力超越Llama 3

SiliconCloud 硅基流动 2024-07-02

今天,智谱发布了第四代 GLM 系列开源模型:GLM-4-9B。

GLM-4-9B 系列模型包括:基础版本 GLM-4-9B(8K)、对话版本 GLM-4-9B-Chat(128K)、超长上下文版本 GLM-4-9B-Chat-1M(1M)和多模态版本 GLM-4V-9B-Chat(8K)。GLM-4-9B 模型具备了更强大的推理性能、更长的上下文处理能力、多语言、多模态和 All Tools 等突出能力。

目前,SiliconCloud已上线GLM-4-9B-Chat开源模型。欢迎试用:

https://cloud.siliconflow.cn/models/text/chat/17885302522

注意!!!GLM-4-9B-Chat已进入“6.18购物狂欢节”福利包:“每人送3亿token”。注册即可畅玩(截止6月18日23:59):

www.siliconflow.cn/zh-cn/siliconcloud

据智谱介绍,在预训练方面,他们引入了大语言模型进入数据筛选流程,最终获得了10T高质量多语言数据,数据量是ChatGLM3-6B模型的3倍以上。同时,它们采用了FP8技术进行高效的预训练,相较于第三代模型,训练效率提高了3.5倍。在有限显存的情况下,他们探索了性能的极限,并发现6B模型性能有限。因此,在考虑到大多数用户的显存大小后,他们将模型规模提升至9B,并将预训练计算量增加了5倍。

Github:https://github.com/THUDM/GLM-4

关于SiliconCloud

SiliconCloud是集合主流开源大模型的一站式云服务平台,为开发者提供更快、更便宜、更全面的模型API。

目前,SiliconCloud已上架包括GLM-4-9B-Chat、DeepSeek V2、Mixtral、Llama 3、Qwen、SDXL、InstantID在内的多种开源大语言模型、图片生成模型,支持用户自由切换符合不同应用场景的模型。同时,SiliconCloud提供开箱即用的大模型推理加速服务,为生成式AI应用带来更高效的用户体验。

真正在乎大模型推理性能和成本的开发者,绝不会错过SiliconCloud。更何况,现在还送3亿token。快试试吧:

www.siliconflow.cn/zh-cn/siliconcloud
硅基流动致力于打造大模型时代的AI基础设施,通过算法、系统和硬件的协同创新,跨数量级降低大模型应用成本和开发门槛,加速AGI普惠人类。

扫码加入技术交流群

官方网站:www.siliconflow.cn
简历投递:talent@siliconflow.cn
商务合作:contact@siliconflow.cn
继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存