大公司|英伟达要用GPU反向整合CPU,还要为游戏厂商生成(而非设计)游戏角色
「大公司最新动态,只在值得关注时更新」
撰写:王杰夫
编辑:吴洋洋
Key Updates
AI的转折点已经到来,英伟达要成为这一切的基础设施。
深度学习并不需要“微积分”这种复杂计算,反而需要大量的简单计算,这让GPU比CPU更适合AI。
以前CPU整合GPU,现在GPU反过来整合CPU。
GH200 Grace Hopper是一个CPU与GPU封装在一起的超级芯片,已经投产。
4个英伟达数据中心DGX GH200的算力就能够超过天河2号(中国最强的超级计算机)了。
5月29日在台北举办的COMPUTEX大会上,英伟达CEO黄仁勋用长达两个小时的演讲,全面展示了英伟达在AI时代的野心。
他反复提到生成式AI的出现意味人工智能的转折点已经到来,未来社会对于算力的需求将会更加巨大,而英伟达要做的事情就是成为这一切的基础设施。
在CPU的时代豪赌GPU
而这一切要追溯到12年前(2011年),当时还是英特尔CPU(中央处理器)的时代,英伟达的主要产品GPU(图形处理器)的市场看起来并不大,客户主要是图形设计师和游戏玩家。但AI研究者们发现,GPU在深度学习算法方面的潜力要比CPU更大。你可以把CPU当作1个能算微积分的研究生,而GPU就是100个只会加减乘除的高中生,但深度学习并不需要“微积分”这种复杂计算,反而需要大量的简单计算。
当时,黄仁勋做了一场影响未来芯片产业的豪赌,将筹码押注在深度学习的发展上。用当时年营收的1/6研发CUDA(统一计算设备架构),该项目可以将多个GPU串联到一起做并行计算——即使当年的黄仁勋再乐观,估计也没有预计到今天一个服务器集群就有上百个GPU的景象。
5月29日的演讲中,黄仁勋反复将CPU服务器与GPU服务器在训练大模型的效率上做对比,无论在功耗还是效率上,GPU都碾轧式地领先。
“耗费1000万美元,可以组成有960个CPU的服务器集群,消耗11千兆瓦时的电力,最终完成1次训练;而同样多资金投入,可以组成包含48个GPU的服务器集群,消耗3.2千兆瓦时的电力,完成44次训练。”他举例说。
这意味着,同样完成一次大模型训练,用GPU只需要用CPU时4%的硬件投入和1.2%的电力消耗。用黄仁勋的总结就是:“用得越多,省得越多。”
以前CPU整合GPU
现在GPU反过来整合CPU
5月29日的演讲中,黄仁勋宣布GH200 Grace Hopper已经正式投产,这是一个CPU与GPU封装在一起的超级芯片。过去,CPU是核心处理器,GPU是协处理器,而随着GPU逐渐成为AI基础设置,现在需要CPU担任协处理器的角色。
目前,英伟达GPU的运算主要受到CPU内存的限制,对此它的解决办法就是把CPU和GPU整合到一起,使用LPDDR5x和NVIDIA NVLink这两个技术,让CPU与GPU的数据传输效率更好,内存负载更强。
除此以外,黄仁勋更是将256个超级芯片GH200连接在一起,组成了更强大的数据中心DGX GH200,它专门为提供最大吞吐量和可扩展性而设计,这台性能怪兽的算力为1 exaflops FP8性能(或近 9 petaflops FP64 性能,FP8和FP64是两种衡量超算性能的计算标准)。作为对比,目前中国最强的超级计算机天河2号的实际峰值算力为33.86 petaflops FP64,意味着4个英伟达数据中心DGX GH200的算力就能够超过天河2号了。
黄仁勋表示,Google、Meta和微软将成为首批使用DGX GH200来探索生成式AI的公司。而英伟达自己也将部署一个名为Helios的超级计算机,它由4个DGX GH200系统(1024个GH200超级芯片)组成,用于自家的研发工作。
英伟达帮你用AI生成游戏角色
除了硬件外,5月29日,英伟达还推出了一款名为Avatar Cloud Engine (ACE)的游戏角色生成软件。黄仁勋现场演示了一段游戏画面,主角进入到一家赛博朋克风格的拉面店询问老板最近生意如何,而这位老板表示最近不太平,周围有黑帮骚扰。
黄仁勋表示,这位老板NPC(Non-Player Character,非游戏玩家,通常是游戏开发者为游戏内置的非真人角色)的回复是由类似ChatGPT的大语言模型生成的,他们会为这个NPC设定背景故事,NPC会结合自己的背景回答玩家问题,就像是真人一样。之后,能够为游戏生成NPC角色的软件ACE会再将文本转成语音,同时为NPC生成对应的面部表情。
随着生成式AI的快速发展,越来越多游戏公司开始尝试将AI用于NPC的设计中,它们希望这种方式能够降低设计NPC的成本,同时还能带给玩家更真实的体验。
中国尚不在发行名单上
除了超级芯片、超级数据中心、自动生成游戏角色的生成式技术,发布会上,英伟达还推出了一个新的数据中心服务器架构MGX,以及一个高速网络平台Spectrum-X。同时,英伟达还宣布了将与软银合作建立分布式数据中心,将与全球最大的营销服务机构WPP集团合作构建生成式AI内容引擎。
英伟达这些最强大的硬件设备依旧无法进入中国市场。美国政府在2022年8月向英伟达下达禁令,限制英伟达向中国出售其A100和H100图形处理器。这两款最高端的芯片就主要被用于训练大型语言模型,美国政府希望借此限制中国在人工智能方面的发展。
不过,黄仁勋5月初接受《金融时报》采访时曾说:“如果中国不能从美国购买,他们就会自己制造。中国是科技领域一个非常重要的市场。”有统计表明,这个禁令导致英伟达在去年第三季度损失了4亿美元的潜在订单。
当然,想要成为AI基础设施的公司不止英伟达一家,Google与Meta都在研发自己的AI芯片。Google早在2018年就推出了专用芯片TPU,目前已经更新到第四代了;Meta的MTIA芯片还在研发中,据说节能会是其主要优势。
-END-
新皮层New New Thing
Hello!
我们是一个诞生于GPT浪潮、由《第一财经》YiMagazine孵化的全新内容IP。
和每一位关心技术、关照人的命运的读者一样,我们希望在这个有史以来不确定性最高的时代,更好地理解快速变化的科技世界,也更好地理解生而为“高级智能”的我们自己。在这个目标下,我们计划从学术、商业、伦理、监管等多个角度报道和讨论与“智能”相关的议题。请注意,我们说的是智能,不只是AI。
请扫码关注我们吧!
上一篇大公司:
大公司|微软6月上线AI版Windows——Windows Copilot,和ChatGPT共享插件
若想了解更多当日资讯,请点击阅读往期智能晚报
智能晚报|英国政府对AI态度收紧;律师诉状引用ChatGPT给出的案例是编造的...
喜欢就关注我们吧,记得“设为星标”哦~
与记者交流,可添加微信(请备注公司名称和姓名):
王杰夫 微信号: wjfsty
张司钰 微信号: helianthus351
吴洋洋 微信号: qitianjiuye
再次,喜欢就关注我们吧,记得“设为星标”