Founder Park 直播预告|和无问芯穹夏立雪聊聊:中国大模型的 Scaling Law 难题
Scaling Law 已成为大模型进化的「不二法门」。
大模型参数量越大、数据集规模越大、算力消耗越大,性能就越好。性能越好,越受欢迎,业务拓展与运营的成本就越高。
相比较海外的大模型大厂,国内的大模型公司会面临更严峻的算力问题,资金问题、显卡限购的问题,以至于有不少人质疑,中国大模型到底有没有 Scaling Law?
成立不足一年的无问芯穹,试图回答这个问题,解决中国的算力难题。
无问芯穹联合创始人 & CEO 夏立雪认为,国内整体算力水平距离国际先进还有明显差距,光靠芯片工艺提升或是多元芯片的迭代已远远不够,需要建立一个大模型生态系统,让不同模型能自动部署到不同硬件上,让各种算力得到有效利用。
3 月 31 日,无问芯穹发布基于多芯片算力底座的无穹 Infini-AI 大模型开发与服务平台,支持了 Baichuan2、ChatGLM2、ChatGLM3、ChatGLM3 闭源模型、Llama2、Qwen、Qwen1.5 系列等共 20 多个模型,以及 AMD、壁仞、寒武纪、燧原、天数智芯、沐曦、摩尔线程、NVIDIA 等 10 余种计算卡,支持多模型与多芯片之间的软硬件联合优化和统一部署。
为什么 CUDA 会垄断大模型算力市场?
英伟达之外,算力市场还有没有新的可能性?
Scaling Law 到底如何影响大模型的进化?
国内算力市场的机遇在哪里?
本周三晚 8 点,无问芯穹联合创始人 & CEO 夏立雪将做客 Founder Park 视频号直播间,与极客公园创始人 & 总裁张鹏聊聊中国大模型的 Scaling Law 难题。
推荐阅读
无问芯穹(Infinigence AI,简称“无穹”)
依托行业领先且经过验证的AI计算优化能力与算力解决方案
追求大模型落地的极致能效
打造 “M 种模型” 和 “N 种芯片” 间的“M×N”中间层产品
实现多种大模型算法在多元芯片上的高效、统一部署
我们链接上下游企业
共建AGI时代大模型基础设施
加速AGI落地千行百业
长按识别 关注我们