查看原文
其他

更轻量的百度百舸,CCE Stack 智算版发布

LJ & BZC 百度智能云技术站 2023-07-25

百度百舸·AI 异构计算平台,是百度智能云将百度内部强大的 AI 工程能力面向市场推出的解决方案,支持了百度集团内部各类 AI 项目的落地,比如文心大模型、自动驾驶等。百度百舸能够构建超大规模的 AI 集群,提供长期稳定的任务运行环境,配置最佳的软硬一体解决方案,加速训练和推理任务的快速进行。


今年 9 月的智能经济高峰论坛上,百度智能云正式发布了百度百舸·AI 异构计算平台2.0。

此次发布的 2.0 版本在 AI 计算、AI 存储、AI 容器等模块能力上进行了全面增强,同时推出了全新的 AI 加速套件,数据湖存储加速提升训练效率 5~10 倍,分布式训练加速提升训练吞吐 50%~150%,推理加速降低时延 40%~60%。

在公有云和专有云场景,百度百舸 2.0 最大提供单集群 EFLOPS 级别的算力,支持万卡规模的集群训练任务。

为了方便用户能够以更轻量敏捷的方式构建自己的 AI 基础设施,百度智能云推出了 CCE Stack 智算版。相比容器引擎 CCE Stack 标准版,智算版特别增加了支持 AI 应用的能力。

这个版本可以轻便地部署在已有的基础设施上——直接部署在客户的物理机,或者部署在已有的私有云平台上,实现快速交付百度百舸·AI 异构计算平台。

CCE Stack 智算版包含了 AI 容器、AI 加速等百度百舸 2.0 的核心模块,包括异构资源调度、GPU 容器虚拟化、AI 任务管理、训练推理和数据集加速等能力,并可按需选配 AI 存储和 RDMA 网络等模块。

业界首推的双引擎 GPU 容器虚拟化模式,提供用户态和内核态两种实现。用户态能够实现进程融合、显存交换、编解码实例等,性能更好;内核态隔离性强,可以实现算力隔离以及显存隔离。

支持共享混部,拓扑感知以及亲和调度等策略,让用户实现极致的 AI 资源利用率。

AI 加速套件通过数据集加速、训练加速和推理加速等,使得模型迭代效率和模型性能都得到进一步提升。

提供多元芯片,支持昆仑芯等各类国产芯的虚拟化和资源调度。

CCE Stack 智算版的推出将帮助更多传统企业快速建设 AI 基础设施,获得 AI 工程能力,加速智能化升级步伐。
- - - - - - - - - - END - - - - - - - - - - 
点击阅读原文,了解云原生AI 更多内容

传送门
  1. 构建AI原生的智能计算基础设施,百度百舸·AI异构计算平台2.0发布
  2. 适合跑AI的云,一文看懂AI IaaS和AI PaaS
  3. 超大模型工程化实践打磨,百度智能云发布云原生 AI 2.0 方案
  4. IDC 发布《云原生 AI - 加速 AI 工程化落地》报告,百度智能云领跑云原生 AI 能力
  5. 双引擎 GPU 容器虚拟化,用户态和内核态的技术解析和实践分享
  6. 超大规模AI异构计算集群的设计和优化
  7. AI 应用的全流程存储加速方案技术解析和实践分享
  8. 面向高性能计算场景的存储系统解决方案

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存