查看原文
其他

更轻量的百度百舸,CCE Stack智算版发布

百度百舸·AI 异构计算平台,是百度智能云将百度内部强大的 AI 工程能力面向市场推出的解决方案,支持了百度集团内部各类 AI 项目的落地,比如文心大模型、自动驾驶等。百度百舸能够构建超大规模的 AI 集群,提供长期稳定的任务运行环境,配置最佳的软硬一体解决方案,加速训练和推理任务的快速进行。

今年9月的智能经济高峰论坛上,百度智能云正式发布了百度百舸·AI 异构计算平台2.0。
此次发布的2.0版本在 AI 计算、AI 存储、AI 容器等模块能力上进行了全面增强,同时推出了全新的 AI 加速套件,数据湖存储加速提升训练效率5~10倍,分布式训练加速提升训练吞吐50%~150%,推理加速降低时延40%~60%。
在公有云和专有云场景,百度百舸2.0最大提供单集群 EFLOPS 级别的算力,支持万卡规模的集群训练任务。
为了方便用户能够以更轻量敏捷的方式构建自己的 AI 基础设施,百度智能云推出了 CCE Stack 智算版。相比容器引擎 CCE Stack 标准版,智算版特别增加了支持 AI 应用的能力。
这个版本可以轻便地部署在已有的基础设施上——直接部署在客户的物理机,或者部署在已有的私有云平台上,实现快速交付百度百舸·AI 异构计算平台。

CCE Stack 智算版包含了 AI 容器、AI 加速等百度百舸2.0的核心模块,包括异构资源调度、GPU 容器虚拟化、AI 任务管理、训练、推理和数据集加速等能力,并可按需选配 AI 存储和 RDMA 网络等模块。

业界首推的双引擎 GPU 容器虚拟化模式,提供用户态和内核态两种实现。用户态能够实现进程融合、显存交换、编解码实例等,性能更好;内核态隔离性强,可以实现算力隔离以及显存隔离。

支持共享混部,拓扑感知以及亲和调度等策略,让用户实现极致的 AI 资源利用率。

AI 加速套件通过数据集加速、训练加速和推理加速等,使得模型迭代效率和模型性能都得到进一步提升。

提供多元芯片,支持昆仑芯等各类国产芯的虚拟化和资源调度。

CCE Stack 智算版的推出将帮助更多传统企业快速建设 AI 基础设施,获得 AI 工程能力,加速智能化升级步伐。

更多百度百舸技术细节可关注公众号【百度智能云技术站】或点击阅读原文


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存