NVIDIA 与软银公司合作,利用 Grace Hopper 超级芯片建设面向生成式 AI 和 5G/6G 的软银下一代数据中心
基于 Arm 架构的超级芯片和 BlueField-3 DPU 带来革命性的架构,以实现生成式 AI 驱动的无线通信
COMPUTEX—2023 年 5 月 29 日—NVIDIA 和软银公司今天宣布,双方正在合作打造一个基于 NVIDIA GH200 Grace Hopper™ 超级芯片、面向生成式 AI 和 5G/6G 应用的开创性平台。软银计划在日本各地的全新分布式 AI 数据中心采用该平台。
为在全球范围内快速部署生成式 AI 应用和服务铺平道路,通过与 NVIDIA 合作,软银将打造能够在多租户通用服务器平台上托管生成式 AI 和无线应用的数据中心,以降低成本和更节能。
该平台将使用全新 NVIDIA MGX™ 参考架构和基于 Arm Neoverse 的 GH200 超级芯片,有望提高应用程序工作负载的性能、可扩展性和资源利用率。
软银公司总裁兼首席执行官 Junichi Miyakawa 表示:“随着我们进入一个社会与 AI 共存的时代,对数据处理和电力的需求将不断增长。软银将提供下一代社会基础设施,以支持日本的超级数字化社会。与 NVIDIA 的合作将帮助我们的基础设施利用 AI 实现更高的性能,包括对 RAN 的优化。我们期待这也可以帮助我们降低能耗,创建一个互连的数据中心网络,用于共享资源并托管一系列生成式 AI 应用。”
NVIDIA 创始人兼首席执行官黄仁勋表示:“对加速计算和生成式 AI 的需求正在推动数据中心架构的根本性变革。NVIDIA Grace Hopper 是一个革命性的计算平台,专为处理和扩展生成式 AI 服务而设计。与以往富有远见的其它举措一样,软银正在引领世界创建一个电信网络来承载生成式 AI 服务。”
相比以往的数据中心,这些新数据中心的分布将更加均衡,并能够同时处理 AI 和 5G 工作负载。这将让它们更好地保持峰值运行,同时保持低时延并大幅降低总体能源成本。
软银正在为自动驾驶、AI 工厂、增强现实和虚拟现实、计算机视觉和数字孪生开发 5G 应用。
虚拟 RAN 的吞吐量破纪录
NVIDIA Grace Hopper 和 NVIDIA BlueField®-3 DPU 将加速软件定义的 5G vRAN 以及生成式 AI 应用,而无需定制硬件加速器或专用 5G CPU。此外,配备 BlueField-3 的 NVIDIA Spectrum 以太网交换机将为 5G 提供高精度时间同步协议。
该解决方案在 NVIDIA 加速的 1U MGX 服务器设计上实现了突破性的 5G 速度,根据公开的 5G 加速器数据,它实现了业内吞吐量最高的 36Gbps 下行链路容量。运营商一直难以通过行业标准服务器实现如此高的下行链路容量。
全新参考架构
NVIDIA MGX 是一个模块化参考架构,让系统制造商和超大规模企业客户能够快速、经济地构建 100 多种服务器机型,适用于各种 AI、HPC 和 NVIDIA Omniverse™ 应用。
通过将 NVIDIA Aerial™ 软件引入到高性能的软件定义的云原生 5G 网络中,这些 5G 基站将允许运营商动态地分配计算资源,并实现比竞品高 2.5 倍的能效。
Arm 首席执行官 Rene Haas 表示:“生成式 AI 的未来发展需要高性能、节能的计算,就像 NVIDIA 基于 Arm Neoverse 的 Grace Hopper 超级芯片那样。结合 NVIDIA BlueField DPU,Grace Hopper 使软银新的 5G 数据中心能够运行最苛刻的计算和内存密集型应用,并为 Arm 上的软件定义 5G 和 AI 带来指数级的能效提升。”
点击 “阅读原文”,或扫描下方海报二维码,观看 NVIDIA 创始人兼 CEO 黄仁勋为 COMPUTEX 2023 带来的主题演讲直播回放,了解 AI、图形及其他领域的最新进展!