查看原文
其他

【招商电子】英伟达FY24Q1跟踪报告:业绩超市场预期,数据中心数季乐观需求望持续推动成长

鄢凡团队 招商电子 2023-07-23

事件:

英伟达(NASDAQ: NVDA)于5月24日发布FY2024 Q1季报,第一财季营收71.9亿美元,同比-13%/环比+19%,毛利率为66.8%,同比-0.3pct/环比+0.7pct。财报公布后英伟达盘后涨幅超20%,综合财报及交流会议信息,总结要点如下:


评论:

1、FY24Q1营收71.9亿美元超指引上限,毛利率66.8%接近指引上限。

FY24Q1营收为71.9亿美元,同比-13%/环比+19%,超过指引上限(67亿美元),毛利率为66.8%,同比-0.3pct/环比+0.7pct,接近预期指引上限(67%)。毛利率很大程度上恢复到之前的峰值水平,公司通过创新和交付更高价值的产品以及提供更多软件产品来抵消高成本。


2、数据中心收入再创单季新高,四大业务平台营收均实现环比增长。

1)数据中心:FY24Q1营收为42.8亿美元,同比+14%/环比+18%,生成式AI正在推动计算需求的指数级增长,并推动市场快速转向NVIDIA加速计算;2)游戏:FY24Q1营收为22.4亿美元,同比-38%/环比+22%,环比增长主要受笔记本电脑和台式机的40系列GeForce RTX GPU销售推动;3)专业可视化:FY24Q1营收为2.95亿美元,同比-53%/环比+31%,移动和桌面工作站需求的增长推动了环比增长,公共部门、医疗保健和汽车等关键垂直领域的需求强劲;4)汽车:FY24Q1营收为2.96亿美元,同比+114%/环比+1%,同比增长主要系NVIDIA DRIVE Orin在多款新能源汽车上的快速增长,环比增速放缓系一些中国客户需求增速放缓调整生产计划。


3、FY24Q2营收指引同环比增长均超50%,数据中心景气度望持续数个季度。

FY24Q2营收指引中值为110亿美元(上下浮动2%),同比+64%/环比+53%,环比增长将主要受到数据中心的推动,反映出与生成式AI和大型语言模型相关的需求急剧增长,将数据中心业务的可见性延长了几个季度,公司已经为今年下半年采购了大量供应。今年下半年数据中心的供应量将大大超过H1,公司预计下半年将比上半年大幅增长。FY24Q2毛利率指引为70%,同比+24.15pcts/环比+3.20pcts。资本支出预计约为3亿至3.5亿美元。


投资建议:数据中心需求乐观态势持续,关注AI算力供应链相关受益标的。

英伟达表示数据中心的景气需求将持续数个季度,随着AI大模型的发展和应用推广,算力需求与日俱增,数据中心将成为未来算力需求的核心保障,AI服务器等核心算力设施需求亦将同步增长。考虑到未来AI服务器出货量有望逐步提升,建议关注服务器硬件层面所涉及到的GPU、CPU、存储、PCB/IC载板、连接器及线缆、散热、电源、模拟芯片、接口类芯片、RAID卡、功率器件等零部件,同时建议关注国际GPU龙头英伟达及其产业链标的。


风险提示:竞争加剧风险;贸易摩擦风险;行业景气度变化风险;宏观经济及政策风险。





附录:英伟达FY2024Q1业绩说明会纪要


时间:2023年5月24日

出席:

Simona Jankowski - VP, IR

Colette Kress - EVP & CFO

Jensen Huang - Founder, President & CEO


会议纪要根据公开信息整理如下:


业绩介绍:第一季度营收为71.9亿美元,环比+19%,同比-13%。强劲的环比增长受到创纪录的数据中心收入的推动。游戏和专业可视化平台渠道库存出现修正。数据中心由于全球加速计算平台的强劲增长,收入达到创纪录的42.8亿美元,环比增长18%,同比增长14%。生成式AI正在推动计算需求的指数级增长,并推动市场快速转向NVIDIA加速计算,这是训练和部署人工智能的最通用、最节能、最低TCO的方法。生成式AI推动了对公司产品的需求大幅上升,为我们创造了机会和跨市场广泛的全球增长。


数据中心业务:

三大客户类别:云服务提供商(CSP)、消费者互联网公司和企业。


首先世界各地的CSP都在竞相部署我们的旗舰Hopper和Ampere架构GPU,以应对企业和消费者对训练和推理人工智能应用的兴趣激增。多家云计算服务提供商宣布了H100在其平台上的可用性,包括在微软Azure、谷歌云和甲骨文云基础设施上的私人预览,在AWS上即将推出的产品,以及在新兴的GPU专业云提供商如CoreWeave和Lambda上的全面可用性。除了采用企业人工智能之外,这些CSP还作为生成式AI先驱表现出对H100的强劲需求。


其次,消费互联网公司也走在采用生成式AI和基于深度学习的推荐系统的前沿,推动了强劲的增长。例如,Meta现在已经为其人工智能生产和研究团队部署了H100驱动的大提顿人工智能超级计算机。


第三,企业对人工智能和加速计算的需求强劲。我们在汽车、金融服务、医疗保健和电信等垂直领域看到了增长势头,在这些领域,人工智能和加速计算正迅速成为客户创新路线图和竞争定位的关键。例如,彭博宣布其有一个价值500亿美元的参数模型BloombergGPT,以帮助处理金融自然语言处理任务如情感分析,命名实体识别,新闻分类,问答。


汽车保险公司CCC Intelligent Solutions正在使用人工智能估算维修费用。美国电话电报公司(AT&T)正在与我们合作开发人工智能,以改进车队调度,这样他们的现场技术人员就可以更好地为客户服务。其他使用NVIDIA AI的企业客户包括德勤的物流和客户服务,以及安进的药物发现和蛋白质工程。本季度,我们开始出货DGX H100,这是我们的Hopper一代人工智能系统,客户可以在本地部署。通过与微软Azure、谷歌云和甲骨文云基础设施合作推出DGX云,我们从云端为客户提供NVIDIA DGX的服务。


无论客户是在本地部署DGX还是通过DGX Cloud部署DGX,他们都可以访问NVIDIA人工智能软件,包括NVIDIA Base Command、AI框架和预训练模型。我们为客户提供构建和运营人工智能的蓝图,扩展我们在系统、算法、数据处理和培训方法方面的专业知识。我们还宣布了NVIDIA AI foundations,这是DGX Cloud上提供的模型代工服务,使企业能够构建,改进和操作定制的大型语言模型和生成式AI模型,使用我们自己的专有数据进行训练,在独特领域特定任务上受到赞誉。它们包括用于大型语言模型的NVIDIA NeMo,用于图像、视频和3D的NVIDIA Picasso,以及用于生命科学的NVIDIA BioNeMo。每项服务都有六个要素:预先训练的模型、数据处理和管理框架、专有的基于知识的行业数据库、用于微调、对齐和保护的系统、优化的推理引擎,以及来自NVIDIA专家的支持,以帮助企业针对其定制用例微调模型。


领先的企业服务平台ServiceNow是DGX云和NeMo的早期采用者。他们正在开发定制的大型语言模型,专门针对ServiceNow平台进行数据训练。我们的合作将让ServiceNow创建新的企业级生成式AI产品,全球数千家企业在ServiceNow平台上运行,包括IT部门、客户服务团队、员工和开发人员。生成式AI也推动了主账户的阶梯式增长。由于它们的大小和复杂性,这些工作流需要加速。今年4月发布的最新MLPerf行业基准显示,NVIDIA的推理平台的性能领先于行业,在不同工作负载下具有无与伦比的多功能性。为了帮助客户大规模部署生成式AI应用程序,在GTC上,我们宣布了四个利用NVIDIA AI软件堆栈的主要新推理平台。其中包括用于AI视频的L4 Tensor Core GPU,用于omniverse和图形渲染的L40,用于大型语言模型的H100 NVL,以及用于LLMs以及推荐系统和矢量数据库的Grace Hopper Superchip。


Google Cloud是第一个采用我们的L4推理平台的CSP,它推出了G2虚拟机,用于生成AI推理和其他工作负载,如Google Cloud Dataproc、Google Elf、Google AlphaFold和Google Cloud的Immersive Stream,可以提供3D和AR体验。此外,谷歌正在将我们的Triton与带有谷歌Kubernetes引擎的法语服务器和基于云的Vertex AI平台整合在一起。


网络方面,我们看到CSP和企业客户对生成式AI和加速计算的强劲需求,这需要NVIDIA Mellanox网络平台这样的高性能网络。与通用CPU基础设施相关的需求仍然疲软。随着生成式人工智能应用的规模和复杂性不断增长,高性能网络对于在数据中心规模上提供加速计算至关重要,以满足对训练和推理的巨大需求。我们的400gig Quantum-2 InfiniBand平台是人工智能专用基础设施的黄金标准,在微软Azure等主要云和消费者互联网平台上得到广泛采用。


通过将网络内计算技术与业界唯一的端到端数据中心规模优化软件堆栈相结合,客户在大规模基础设施投资上通常可以享受到吞吐量增加20%。对于多租户云过渡到支持生成式AI,我们的高速以太网平台配备BLUEFIELD-3 DPU和Spectrum-4以太网交换,提供最高可用的以太网网络性能。


BLUEFIELD-3已投入生产,并已被多个超大规模客户和CSP客户采用,包括Microsoft Azure、Oracle Cloud、CoreWeave、百度等。我们期待在下周的台湾国际电脑展上分享更多有关我们400gig Spectrum-4加速人工智能网络平台的信息。


最后,我们的Grace数据中心CPU正在为客户进行送样。在本周于德国举行的国际超级计算机大会上,布里斯托尔大学宣布了一款基于NVIDIA Grace CPU超级芯片的新型超级计算机,其能效比之前的超级计算机高6倍。这增加了Grace在人工智能、云和超级计算应用程序中CPU-only和CPU/GPU机会的增长势头。即将到来的BLUEFIELD-3、Grace和Grace Hopper超级芯片将使新一代超级节能加速数据中心成为可能。


游戏业务:

第一季度游戏收入为22.4亿美元,环比增长22%,同比下降38%。强劲的环比增长是由笔记本电脑和台式机的40系列GeForce RTX GPU销售推动的。总体而言,终端需求保持稳定,与季节性保持一致,显示出在消费者支出充满挑战的背景下的韧性。GeForce RTX 40系列GPU笔记本电脑开始了一个伟大的开端,具有四项NVIDIA发明,RTX路径跟踪,DLSS 3 AI渲染,反射超低延迟渲染和Max-Q节能技术。它们在工业设计、性能和电池寿命方面为游戏玩家和创作者带来了巨大的进步。


与我们的桌面产品一样,40系列笔记本电脑支持NVIDIA Studio平台或软件技术,包括创意数据科学和人工智能工作流的加速,以及Omniverse为内容创作者提供无与伦比的工具和功能。在桌面应用,我们量产了RTX 4070,它加入了之前发布的RTX 4090, 4080和4070 Ti GPU系列。RTX 4070比RTX 2070快了近3倍,为我们的大量客户提供了令人惊叹的升级。


上周我们推出了60系列,RTX 4060和4060 Ti,将我们最新的架构带给全球的核心玩家,起价仅为299美元。这些GPU首次提供了两倍于主流价格最新游戏机的性能。4060 Ti今天开始上市,4060将在7月份上市。从开发到运行时间,生成式AI将改变游戏和内容创作。在本周早些时候的微软Build开发者大会上,我们展示了带有NVIDIA RTX GPU的Windows PC和工作站将如何以人工智能为核心。NVIDIA和微软在端到端软件工程方面进行了合作,从Windows操作系统到NVIDIA图形驱动程序,以及NeMo的LLM框架,帮助NVIDIA RTX Tensor Core GPU上的Windows成为生成式人工智能的超级动力平台。


上个季度,我们宣布与微软合作,将Xbox PC游戏引入GeForce NOW。双方合作的第一款游戏《战争机器5》现已上市,未来几个月还将推出更多游戏。现在GeForce now上有超过1600个游戏,具有云游戏服务上最丰富的内容。


专业可视化业务:

第一季度收入为2.95亿美元,环比增长31%,同比下降53%。移动和桌面工作站需求的增长推动了环比增长,公共部门、医疗保健和汽车等关键垂直领域的需求强劲。我们相信渠道库存调整已经过去。我们的Ada Lovelace GPU架构在工作站的发展开启了一个主要的产品文件周期。在GTC上,我们宣布了六款适用于笔记本电脑和台式工作站的新型RTX GPU,并计划在未来几个季度进一步推广展示。


生成式AI是NVIDIA支持的工作站的主要新工作负载。我们与微软的合作将windows转变为创作者和设计师的理想平台,利用生成式AI来提高他们的创造力和生产力。在GTC上,我们宣布了NVIDIA Omniverse Cloud,这是一项运行在微软Azure上的NVIDIA完全托管服务,包括全套Omniverse应用程序和NVIDIA OVX基础架构。使用这个全栈云环境,客户可以设计、开发、部署和管理工业元数据应用程序。NVIDIA Omniverse Cloud将于今年下半年开始提供。


微软与NVIDIA还将把Office 365应用程序与Omniverse连接起来。一些公司正在使用Omniverse Cloud将他们的工作流程数字化,从设计和工程到智能工厂和3D内容生成(技术难度)。汽车行业一直是Omniverse的领先早期采用者,包括宝马集团、通用汽车和捷豹路虎等公司。


汽车业务:

第一季度营收为2.96亿美元,环比增长1%,同比增长114%,强劲的同比增长是由NVIDIA DRIVE Orin在多款新能源汽车上的快速增长推动的。正如我们在3月份宣布的那样,未来六年,我们的汽车设计业务将从一年前的110亿美元增加到140亿美元,这让我们看到了未来几年的持续增长。随后,由于NAV在中国的一些客户需求增速放缓正在调整生产计划,环比增速放缓,我们预计这种动态将在今年余下的时间里持续。


本季度,我们扩大了与世界领先的NAV制造商BID的合作伙伴关系。我们的新设计中标使比亚迪将DRIVE Orin扩展到下一代高产量的王朝和海洋系列车型,这些车型将于2024年开始生产。


利润表:GAAP毛利率为64.6%,非GAAP毛利率为66.8%。毛利率现在已经很大程度上恢复到之前的峰值水平,我们已经吸收了更高的成本,并通过创新和交付更高价值的产品以及提供更多软件产品来抵消高成本。按季度变化来看,GAAP运营费用下降了3%,非GAAP运营费用下降了1%。在过去的四个季度中,我们将运营费用保持在大致相同的水平。我们正在克服游戏和专业可视化的库存修正工作,现在希望增加对业务的投资,同时提供运营杠杆。我们以现金分红的形式向股东返还了9900万美元。截至第一季度末,我们的股票回购授权剩余约70亿美元。


FY2024Q2指引:

总收入预计为110亿美元,上下浮动2%。我们预计这一环比增长将主要受到数据中心的推动,反映出与生成式AI和大型语言模型相关的需求急剧增长。这种需求将我们的数据中心的可见性延长了几个季度,我们已经为今年下半年采购了大量的供应。GAAP和非GAAP毛利率预计分别为68.6%和70%,上下浮动50个基点。GAAP和非GAAP运营费用预计分别约为27.1亿美元和19亿美元。GAAP和非GAAP其他收入和支出预计约为收入9000万美元,不包括非关联投资的损益。GAAP和非GAAP税率预计为14%,上下浮动1%,不包括任何离散项目。资本支出预计约为3亿至3.5亿美元。进一步的财务细节包括首席财务官评论和其他信息在我们的IR网站上提供。


Q&A:


Q:您提到本季度收入的绝大部分增长将来自数据中心,那么4月到7月关键驱动因素是什么?下半年的供应链可见性如何?供应链目前能支持7月份以后多大程度的环比增长呢?


A:公司预计在Q1和Q2之间环比增长,是因为生成式人工智能大型语言模型正在推动需求,这在消费互联网公司、电信运营商、人工智能初创企业中都有广泛应用,它们关注公司提供的架构,包括最新的Hopper架构和Ampere架构,公司通常会同时销售两种架构,这也是深度推荐系统推动增长的关键领域。


公司目前正在处理本季度两种架构的供应,同时也为下半年采购了大量供应。公司通过一些重要的供应链流程来满足客户需求,它们正在为一些大企业构建平台,比如电信运营商、大型消费互联网公司、人工智能公司等。公司预计数据中心需求的增长可能会延续几个季度,因此公司正努力迅速获得下半年的大量供应。


Q:公司在推动服务器加速以支持人工智能方面进展如何?当与TSMC和其他合作伙伴商谈更长的合作周期时,公司如何考虑未来几年的订货交付时间,以实现最佳的供需匹配?


A:随着ChatGPT的到来,公司正在全力开发Ampere和Hopper的产品,它们帮助人们明确了如何从大型语言模型技术过渡到基于聊天机器人的产品和服务。防护(guardrail)和校准系统的集成、人类反馈的强化学习、专有知识的知识向量数据库、搜索连接,所有这些都以一种非常奇妙的方式融合在一起,这就是我为什么称之为iPhone时刻的原因。英伟达的供应链流程非常重要,公司批量生产超级计算机的巨型系统,包括GPU,其主板上有35,000个其他组件。网络、光纤、收发器、网卡、智能网卡、交换机,所有这些必须结合在一起,才能建立起一个数据中心,公司下半年将大幅增加采购。


为什么全世界的数据中心都在向加速计算发展。众所周知,加速计算是一个全栈问题,是一个全栈挑战,在大量应用领域成功做到这一点,需要15年时间,届时足以加速几乎整个数据中心的主要应用程序,将数据中心的能耗和成本大幅降低一个数量级,需要花费很多成本,因为涉及所有软件和所有系统等。当生成式人工智能出现时,它触发了计算平台的一个顶级应用程序——ChatGPT。当下,世界上价值1万亿美元的数据中心几乎完全由CPU占据,而且还在增长。但是在过去的四年里安装的价值1万亿美元的设施,都是完全基于CPU和done mix的,基本上是不加速的。在未来,随着生成式人工智能成为世界上大多数据中心生成信息的主要工作负载,由于加速计算非常节能,数据中心方面的资本支出将非常显著地转向加速计算,虽然全球数据中心的资本支出预算有限,但与此同时出现了重组全球数据中心的惊人订单。所以,目前正处于一个十年过渡期的开始,这是回收利用世界数据中心,并将其打造为加速计算的时期。数据中心的支出发生了巨大的转变,从传统计算转向使用智能网卡、智能交换机以及GPU的加速计算,并且工作负载将主要是生成式人工智能。


Q:可见性是否意味着数据中心销售额在第三季度和第四季度可以继续增长,或者保持在Q2的水平?非常强劲的需求对竞争格局有什么影响?在定制ASIC方面,这是否会带来更多竞争?在其他GPU解决方案或其他类型的解决方案方面,会带来更多竞争吗?如何看待未来两到三年竞争格局的变化?


A:公司相信下半年的供应量将大大超过H1,计划在下半年比上半年大幅增长。关于竞争,公司有来自各个方向的竞争,特别是资金雄厚的创新型初创企业,全世界数不胜数。公司面临来自现有半导体公司的竞争,在内部项目上面临来自电信运营商的竞争。NVIDIA的核心价值主张是提供成本最低的解决方案,公司总是拥有成本最低的解决方案。因为加速计算是一个全栈问题,是一个全栈挑战,必须设计所有软件和所有库以及所有算法,将它们集成到优化框架中,对整个数据中心的体系结构进行优化,一直深入到框架中、模型中,其中所需软件工程、分布式计算、基础计算机科学的工作量很大,这是最难的计算。因此,第一,这是一个全栈挑战,必须在整个过程中对其进行优化,而且是在数量惊人的栈之间进行优化,公司有400个加速库,加速库和框架的数量非常多。


第二,关于利用率,这是指可以加速的应用程序类型的数量,公司架构的多样性保持了高利用率。如果只做一件事情,而且速度很快,那么数据中心很大程度上没有得到充分利用,并且很难扩大规模。事实上,通用GPU加速了如此多的栈,使我们的利用率非常高。


第三,生成式人工智能是一个大规模的问题,它是一个数据中心规模的问题,这是另一种思维方式,即计算机是数据中心,而不是芯片,这种情况以前从未发生过。在这个特定的环境中,网络操作系统、分布式计算引擎、网络设备、交换机架构以及计算系统。计算结构的整个系统就是计算机,即人们想要操作的。因此,为了获得最佳性能,必须了解全栈,必须了解数据中心规模,这就是加速计算。


所以第一点是吞吐量,这是软件密集型问题和数据中心架构问题,第二点是利用率通用性问题,第三点是数据中心专业知识。公司已经建立了五个自己的数据中心,并帮助世界各地的公司建立数据中心。


公司将自己的架构集成到世界上所有云中。从交付产品的那一刻起,到在部署中站稳脚跟,数据中心的运营时间是经过测量的,如果不擅长,不精通,可能需要几个月的时间。一些世界上最大的超级计算机是在一年半前安装的,现在即将上线。公司已经将数据中心和超级计算机转化为产品,团队在这方面的专业知识深厚。因此,公司的价值主张归根结底是,将所有这些技术都转化为基础架构,以尽可能低的成本实现最高的吞吐量。公司面临的市场竞争非常激烈,挑战非常大。


Q:当思考数据中心业务未来的增长驱动因素时,比如考虑到云服务协议的扩展持续增长,公司应该如何评估软件转化为盈利的效果?另外,对于人工智能企业软件套件和纯软件收入的其他增长驱动因素而言,公司在这方面的竞争地位如何?


A:软件对于公司的加速平台非常重要,公司的最新架构和几乎所有产品都包含了大量的软件。公司目前提供多种不同的模型,帮助客户开始进行生成式人工智能和加速计算方面的工作。无论是DGX云服务,还是为客户构建模型提供的服务,都非常重要,可见NVIDIA AI企业平台的重要性。所以,随着公司发展,所有这些方面都将继续增长,包括体系结构、基础架构以及提供服务的可用性和监控能力等。


我们可以实时观察到生成式人工智能和云服务提供商(CSPs)的增长,无论是用于模型训练、模型优化还是模型部署。正如之前所说,推理现在是加速计算的主要驱动力,因为生成式人工智能已经在许多应用中发挥了巨大作用。有两个领域需要一套新的软件栈,这两个领域分别是企业和工业。企业需要一套新的软件栈,因为许多企业需要拥有各种能力,无论是大型语言模型、自适应能力还是根据自己的原则使用专有数据的能力。如果希望能够在高性能计算环境中进行上述操作,公司提供了DGX Cloud来帮助创建模型。如果希望能够在任何云平台上部署聊天机器人或人工智能,因为与多个云供应商有服务和协议约定,可以根据不同的应用选择在各种云平台上进行部署。


对于企业客户,公司提供了NVIDIA AI Foundation来帮助创建定制模型,并提供了NVIDIA AI Enterprise。NVIDIA AI Enterprise是世界上唯一一个既具备企业安全性,又得到企业支持的GPU加速栈。它包含了4000个不断更新的包,构成了NVIDIA AI Enterprise的基础,代表了整个人工智能工作流的端到端操作引擎。它是唯一一个从数据摄取、数据处理(显然,在训练一个人工智能模型时,需要处理大量数据,并进行打包、整理和对齐等一系列操作,以准备好数据进行训练)等方面进行支持的工具。


这么多的数据处理可能会占用大约40%,50%或60%的计算时间。其次是模型的训练和优化,再次是模型的部署和推理。NVIDIA AI Enterprise持续支持和更新这4000个软件包和安全补丁。对于企业而言,如果他们想要部署自己的引擎,就像他们想要部署Red Hat Linux一样,是非常复杂的软件,需要在每个云平台以及本地部署,它必须是安全的,并且有支持。因此,NVIDIA AI Enterprise是第二个关键点。


第三个是Omniverse。人们开始意识到,需要让人工智能符合伦理一样,对于机器人来说也是一样,需要让人工智能符合物理学。让人工智能符合道德规范包括一项名为强化学习人类反馈的技术。在工业应用和机器人的情况下,这是强化学习全方位反馈。Omniverse是机器人应用和行业中软件定义的重要引擎。因此,Omniverse也需要成为一个云服务平台。


因此,公司的软件栈,包括AI Foundation、AI Enterprise和Omniverse,在与世界各地云服务提供商建立的合作伙伴关系中都得到了应用。在Azure云上,公司与其合作伙伴关系涵盖了AI和Omniverse。与GTP和Oracle合作方面,在DGX Cloud的AI领域和AI Enterprise中公司也有很好的合作伙伴关系。AI Enterprise已经在这三家云服务提供商中得到整合。因此,我认为为了将人工智能的影响延伸到云以外的企业和行业,需要两种新的软件栈,以实现这一目标,通过将其放入云中,并将其与世界各大云服务提供商的云平台集成,这是公司与销售、营销和领导团队合作的绝佳方式。


Q:关于InfiniBand与Ethernet的争论,您认为它会如何发展?公司需要InfiniBand用于人工智能的低延迟性能,能否谈谈InfiniBand解决方案与公司在核心计算方面的连接情况,以及这是否挤压了Ethernet的空间?另外,公司没有进行股票回购,仍有大约70亿美元的股票回购授权,这只是时间的问题吗?


A:对,公司仍有70亿美元的股票回购授权,上个季度公司没有进行任何回购,但公司会择机回购。


InfiniBand和Ethernet是数据中心中针对不同应用的目标网络技术,它们都有各自的优势。InfiniBand在上个季度取得了创纪录的成绩,公司预计将会迎来创纪录的一年,NVIDIA的Quantum InfiniBand有着非常出色的发展规划。但是这两种网络技术有很大的区别。InfiniBand设计用于类似人工智能工厂的场景。如果数据中心为少数人和特定用例运行少数应用,并且持续不断地进行运算,而且基础设施存在成本,那么InfiniBand和Ethernet之间的整体吞吐量差异可能在15%到20%之间。如果在基础设施上投入了5亿美元,而差异有10%到20%,相当于1亿美元,InfiniBand基本上是免费的。这就是人们选择使用InfiniBand的原因。


InfiniBand在某种程度上可以说是免费的。数据中心吞吐量的差异非常大,这是无法忽视的,尤其是当你将其只用于一个应用程序时。然而,如果你的数据中心是一个多用户的云数据中心,由数百万人共享,运行着大量的小型作业,那么Ethernet是更适合的选择。

然而,目前还有一个新趋势,即云计算正朝着生成型人工智能云的方向发展。这种云计算不仅仅是一个人工智能工厂,而是一个多用户的云,旨在运行生成型人工智能工作负载。这个新的领域提供了一个巨大的机会。我们计划在Computex上宣布一个针对这个领域的重要产品线,重点关注以太网为基础的生成型人工智能应用程序的云计算。总之,InfiniBand的表现非常出色,我们业绩的YoY和QoQ都创下了纪录。


Q: 您提到推理作为一个非常大的机会。我想这个问题可以分为两个部分。首先,推理与使用量相关,而训练更多是一次性的。其次,您是否可以提供一些关于推理和训练的定性信息,例如您认为哪个机会更大,或者它们之间的比例是多少?


A: 在生成型人工智能中,推理和训练有一些差别。首先,训练过程永远不会结束。每次部署时,都会收集新的数据,并利用这些新数据进行训练。因此,训练是一个持续不断的过程。此外,还需要处理数据和创建向量数据库,以增强大型语言模型。同样,对于收集到的结构化和非结构化数据,需要进行向量化处理。构建推荐系统、大型语言模型、向量数据库,这三者是未来计算的核心引擎。


这些引擎是持续运行的。越来越多的公司意识到它们拥有一个智能工厂,用于训练、处理数据、向量化以及学习数据的表示等。对于推理部分,可以提供各种类型的API,包括开放的API和集成到工作流程中的API。公司可能会开发数百种API,其中一些是自己构建的,还有一些来自我们与ServiceNow和Adobe等公司在AI基础设施方面的合作。


公司将创建许多生成型人工智能API,供其他公司将其连接到自己的工作流程中或作为应用程序使用。此外,还会有许多互联网服务公司参与其中。因此,您可以看到生成型人工智能的应用领域在不断增长,同时也可以看到AI推理和API市场的迅速发展。


总结起来,全球数据中心的投资总额约为1万亿美元,过去主要使用CPU。然而,随着越来越多的人意识到通用计算无法有效扩展数据中心,加速计算成为未来发展的趋势。现在,生成型人工智能作为加速计算的杀手级应用出现,所以在未来的四到十年中,大部分基础设施投资将集中在生成型人工智能和加速计算上,从GPU数量到加速交换机和网络芯片的投资都将大幅增加。

 

Q: 云客户也在谈论着如何大幅降低每个搜索请求的成本,这对公司会有什么影响?在GTC上推出的一些特殊保险产品是如何应对的,将如何帮助客户降低每个搜索请求的成本?


A: 无论你是构建一个大型语言模型,还是使用这个大型语言模型的较大版本,你可以将它们转化为中型、小型和微型模型。微型模型可以放入手机和个人电脑等设备中,它们都可以完成相同的任务。但是显然,大型语言模型具有更强大的零样本学习能力和泛化能力,它可以做更多令人惊叹的事情,而大型模型可以教会较小的模型如何成为优秀的人工智能。因此,你可以使用大型模型生成提示来完善较小的模型等等。因此,你需要首先构建非常大的模型,然后训练一系列较小的模型。这正是我们推出多种不同推理规模的原因。我们发布了L4、L40、H100和H100HGX等多个规模的推理产品。你可以拥有任何需要的模型规模。


另外,这些模型最终与应用程序相连接。这些应用程序可能包括图像输入、视频输出,视频输入、文本输出,图像输入、文本输入、3D输出,视频输入以及未来的3D图形输出等。因此,输入和输出需要进行大量的前后处理。前后处理是不能被忽视的。这也是为什么大多数专用芯片的论点不成立的原因之一,因为模型本身只占推理过程的大约25%,剩下的工作是预处理和后处理、安全性、解码等等。


我认为推理的多模态性和多样性将在云端、本地以及多云环境中进行。这也是为什么我们在各个云平台都有AI企业解决方案的原因。这也是为什么我们与戴尔有着伟大的合作伙伴关系,我们刚刚宣布了名为Helix项目的合作,它将集成到第三方服务中。我们也与ServiceNow和Adobe有着紧密合作关系的原因,因为它们将创建一系列生成型人工智能功能。因此,生成型人工智能具有广泛的多样性和影响力,需要具备刚才描述的一些基本能力,才能真正应对整个领域的挑战。


Q: 考虑到您们的InfiniBand、Ethernet解决方案与加速计算平台之间的高度关联,网络运营率是否与计算设备的出货量相匹配?未来,团队将采取什么措施来进一步提升网络带宽,以跟上计算复杂性、数据集增加、对更低延迟和更好流量可预测性的要求的显著增长步伐?


A: 几乎每个对人工智能有所了解的人都会谈到芯片,加速器芯片,实际上,这几乎完全忽略了整个问题的核心。我之前提到过,加速计算是关于堆栈的问题,关于软件和网络的问题。我们早期发布了一个名为Doga的网络堆栈,以及加速库Magnum IO,这两个软件是我们公司的瑰宝。但由于难以理解,几乎没有人谈论它们,但正是它们使我们能够连接成千上万个GPU。


如果数据中心的操作系统,也就是基础设施不是非常出色,怎么能连接成千上万个GPU呢?这就是我们在公司如此关注网络的原因。我们有Mellanox,Mellanox是世界上性能最高、无可争议的高性能网络的领导者,这也是我们两家公司合并的原因。


此外,您还可以看到我们的网络扩展,从NVLink开始,这是一种具有超低延迟的计算结构,并且使用初始化内存进行通信,而不是网络数据包。然后,我们将NVLink连接到多个GPU内部,并且我还描述了超越GPU的连接方式,几天后我会在Computex上详细介绍。然后,它与InfiniBand连接在一起,包括NIC、SmartNIC BlueField-3,我们已经开始全面生产。还有交换机,所有经过端到端优化的光纤。这些设备以令人难以置信的速率运行。


如果您想将智能人工智能工厂连接到您的计算结构中,我们还将在Computex上发布一种全新类型的以太网。因此,将所有这些GPU和计算单元连接到整个网络中的计算结构领域非常复杂。并且我们没有专门去分开它,我们将整个系统视为一个计算平台。正如应该的那样,我们将其作为组件销售给全球各种数据中心,以便它们可以将其集成到所需的任何风格或架构中,并且我们仍然可以运行我们的软件堆栈。


这就是我们将其拆分的原因,我们的方式更加复杂,但它使NVIDIA的计算架构能够集成到世界上任何数据中心中,无论是各种云端还是各种本地部署,甚至边缘计算和5G。这种方式确实非常复杂,但它给我们带来了无限的可能性。


Q: 在未来的几个季度中,正如Colette所讨论的那样,数据中心业务的可见性将大幅提高。您可以谈一下超大规模客户在购买硬件方面的混合模式,是为了他们自己内部工作,还是为了他们自己的第三方客户,以及在数据中心业务的巨大增长中,您销售的系统支持DGX Cloud服务的情况,并且自推出以来您对该业务潜力了解?


A: 理想的情况是NVIDIA DGX Cloud占10%,云服务提供商(CSPs)云占90%。之所以如此,一方面是因为我们的DGX Cloud采用了纯粹的NVIDIA堆栈。它的架构符合我们的要求,并实现了最佳性能。它使我们能够与云服务提供商深度合作,创建性能最高的基础设施。


另一方面,它使我们能够与云服务提供商合作,创建市场。例如,我们正在与Azure合作,将Omniverse Cloud引入全球各行各业。这种计算堆栈是前所未有的。现在,随着所有生成式人工智能、三维技术和物理技术的发展,配以大规模数据库、高速网络和低延迟网络,这种虚拟工业虚拟世界从未存在过。


因此,我们与微软合作,在Azure云中创建Omniverse Cloud。这使我们能够共同开发新应用程序和开拓新市场。我们作为一个团队共同推向市场,我们通过将客户引入我们的计算平台而获益,他们也通过在他们的云中拥有我们的服务也获益。此外,Azure、GCP和OCI提供的数据、服务和安全服务等都可以通过Omniverse Cloud进行即时访问,这是一个巨大的双赢。


对于客户而言,NVIDIA的云服务可以在任何地方进行。一个标准的堆栈可以在所有云中运行。如果他们希望将自己的软件在云服务提供商的云中运行并自行管理,我们非常乐意。因为NVIDIA AI Enterprise、NVIDIA AI Foundations和NVIDIA Omniverse,虽然NVIDIA Omniverse还需要一定时间,但都将在云服务提供商的云中运行。因此,我们的目标是推动架构的发展,与合作伙伴深入合作,创建新的市场和新的应用程序,并为客户提供灵活性,使他们能够在各个环境中运行,包括本地环境。这就是我们做出这个决定的主要原因,而且效果非常好。我们与三个CSP目前已经在DGX Cloud上展开合作,他们的销售团队、市场团队和领导团队都非常出色。合作非常成功。


总结发言


计算机行业正在经历两个同时进行的转型:加速计算和生成式人工智能。CPU的性能提升已经放缓,但计算需求依然强劲,尤其在生成式人工智能的推动下更是如此。加速计算是NVIDIA引领的一种全栈、数据中心规模的方法,是未来的最佳发展路径。全球数据中心基础设施已经投资了1万亿美元,基于上一时代的通用计算方法。现在,企业们正竞相部署加速计算以迎接生成式人工智能时代。在未来的十年里,全球大多数数据中心都将采用加速计算技术。


我们正在大幅增加供应以满足激增的需求。大型语言模型能够学习多种形式的编码信息。在大型语言模型的指导下,生成式人工智能模型能够生成令人惊叹的内容,并通过模型微调、保护、对齐指导原则和基于事实进行验证,生成式人工智能正在从实验室走向工业应用。随着与云服务提供商的规模扩张,我们还在为全球最大的企业构建平台。无论是在我们的云服务提供商合作伙伴中还是在Dell Helix的本地环境中,无论是在像ServiceNow和Adobe这样的领先企业平台上,还是在定制的NVIDIA AI Foundations平台上,我们都可以帮助企业利用其领域专业知识和数据,安全有效地利用生成式人工智能。


在未来的几个季度中,我们将推出一系列产品,包括H100、Grace和Grace Hopper超级芯片以及BlueField-3和Spectrum4网络平台。它们都已经投入生产。它们将帮助提供数据中心规模的计算,同时实现高能效和可持续计算。欢迎您关注下周的Computex展会,届时我们将展示接下来的发展。


团队介绍

(团队亟需有志于硬科技产业研究的优秀人才加入,新招人员将以深圳为主,兼顾上海和北京,如有意向,请准备简历和一份深度研究代表作,通过微信或yanfan@cmschina.com.cn邮箱发送给鄢凡,也欢迎各位业内朋友推荐优秀人才)

鄢凡:北京大学信息管理、经济学双学士,光华管理学院硕士,14年证券从业经验,08-11年中信证券,11年加入招商证券,现任研发中心董事总经理、电子行业首席分析师、TMT及中小盘大组主管。11/12/14/15/16/17/19/20/21/22年《新财富》电子行业最佳分析师第2/5/2/2/4/3/3/4/3/5名,11/12/14/15/16/17/18/19/20年《水晶球》电子2/4/1/2/3/3/2/3/3名,10/14/15/16/17/18/19/20年《金牛奖》TMT/电子第1/2/3/3/3/3/2/2/1名,2018/2019 年最具价值金牛分析师。

曹辉:上海交通大学工学硕士,2019/2020年就职于西南证券/浙商证券,2021年加入招商电子团队,任电子行业分析师,主要覆盖半导体领域。

王恬:电子科技大学金融学、工学双学士,北京大学金融学硕士,2020年在浙商证券,2021年加入招商电子团队,任电子行业分析师。

程鑫:武汉大学工学、金融学双学士,中国科学技术大学统计学硕士,2021年加入招商电子团队,任电子行业研究助理。

谌薇:华中科技大学工学学士,北京大学微电子硕士,2022年加入招商电子团队。


联系方式

鄢   凡 18601150178

曹   辉  15821937706 

王   恬  18588462107

程   鑫  13761361461

谌   薇  15814056991

投资评级定义

股票评级

以报告日起6个月内,公司股价相对同期市场基准(沪深300指数)的表现为标准:

    强烈推荐:公司股价涨幅超基准指数20%以上

    增持:公司股价涨幅超基准指数5-20%之间

    中性:公司股价变动幅度相对基准指数介于±5%之间

    回避:公司股价表现弱于基准指数5%以上


行业评级

以报告日起6个月内,行业指数相对于同期市场基准(沪深300指数)的表现为标准:

    推荐:行业基本面向好,行业指数将跑赢基准指数

    中性:行业基本面稳定,行业指数跟随基准指数

    回避:行业基本面向淡,行业指数将跑输基准指数



重要声明

特别提示

本公众号不是招商证券股份有限公司(下称“招商证券”)研究报告的发布平台。本公众号只是转发招商证券已发布研究报告的部分观点,订阅者若使用本公众号所载资料,有可能会因缺乏对完整报告的了解或缺乏相关的解读而对资料中的关键假设、评级、目标价等内容产生理解上的歧义。

本公众号所载信息、意见不构成所述证券或金融工具买卖的出价或征价,评级、目标价、估值、盈利预测等分析判断亦不构成对具体证券或金融工具在具体价位、具体时点、具体市场表现的投资建议。该等信息、意见在任何时候均不构成对任何人的具有针对性、指导具体投资的操作意见,订阅者应当对本公众号中的信息和意见进行评估,根据自身情况自主做出投资决策并自行承担投资风险。

招商证券对本公众号所载资料的准确性、可靠性、时效性及完整性不作任何明示或暗示的保证。对依据或者使用本公众号所载资料所造成的任何后果,招商证券均不承担任何形式的责任。

本公众号所载内容仅供招商证券客户中的专业投资者参考,其他的任何读者在订阅本公众号前,请自行评估接收相关内容的适当性,招商证券不会因订阅本公众号的行为或者收到、阅读本公众号所载资料而视相关人员为专业投资者客户。

 

 

一般声明

本公众号仅是转发招商证券已发布报告的部分观点,所载盈利预测、目标价格、评级、估值等观点的给予是基于一系列的假设和前提条件,订阅者只有在了解相关报告中的全部信息基础上,才可能对相关观点形成比较全面的认识。如欲了解完整观点,应参见招商证券发布的完整报告。

本公众号所载资料较之招商证券正式发布的报告存在延时转发的情况,并有可能因报告发布日之后的情势或其他因素的变更而不再准确或失效。本资料所载意见、评估及预测仅为报告出具日的观点和判断。该等意见、评估及预测无需通知即可随时更改。

本公众号所载资料涉及的证券或金融工具的价格走势可能受各种因素影响,过往的表现不应作为日后表现的预示和担保。在不同时期,招商证券可能会发出与本资料所载意见、评估及预测不一致的研究报告。招商证券的销售人员、交易人员以及其他专业人士可能会依据不同的假设和标准,采用不同的分析方法而口头或书面发表与本资料意见不一致的市场评论或交易观点。

本公众号及其推送内容的版权归招商证券所有,招商证券对本公众号及其推送内容保留一切法律权利。未经招商证券事先书面许可,任何机构或个人不得以任何形式翻版、复制、刊登、转载和引用,否则由此造成的一切不良后果及法律责任由私自翻版、复制、刊登、转载和引用者承担。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存