查看原文
其他

AI的决定性时刻!

硬核调研 2023-03-23

声明:本文仅梳理公司和行业的最新基本面,并非在当前时间点推荐买卖公司,本公众号不具备个股操作指导功能,投资有风险,入市需谨慎

英伟达GTC 2023主题演讲速递及观点更新

英伟达 CEO 黄仁勋《切勿错过 AI 的决定性时刻》主题演讲强调了加速计算和人工智能在各个领域的应用。同时,英伟达公布了包括全新的量子计算系统、云服务平台、视觉图像系统等AI技术的最新应用,主要内容包括:

1)发布【DGX云和NVDIA AI FOUNDATIONS】

2)发布【H100-NVL】

3)加速库

4)Grace CPU等数据中心硬件

5)Omniverse

1、英伟达AI云服务降低生成式门槛

英伟达发布NVDIA AI FOUNDATION,包括NEMO、PICASSO、BIONEMO等三项服务内容。其中NEMO为英伟达自2020年5月发布后的重要更新,进一步支持了构建定制的语言文本转文本生成式模型。客户可以引入自己的模型,或从 Nemo 涵盖了 GPT-8、GPT-43 到 GPT-530 等数十亿参数的预训练模型入手。PICASSO和BIONEMO则进一步支持了视觉语言模型和生物医药生成式AI模型开发服务。

DGX云和NVDA AI FOUNDATIONS将有力支持企业研发和部署生成式AI模型的脚步,进一步打开应用空间。

2、H100-NVL有望加速下游应用落地

本次英伟达发布H100 NVL。H100 NVL是专门针对生成式AI语言模型用户的H100加速器变体,双GPU提供188GB HBM3内存(NVDA产品序列中最高),预计23H2开始发货,可将大型语言模型的处理成本降低一个数量级。我们认为该款产品的应用有望降低生成式AI的应用成本,加速下游应用落地。

3、看好生成式AI行业机会

ChatGPT是历史上用户数量增长最快的应用,其生成的文本令人赞叹。生成式AI是一种新型计算机,一种我们可以用人类语言进行编程的计算机。每个人都可以是程序员。

AI行业的技术进步将给电子行业投资带来重大变化,持续看好服务器/应用/平台企业机会

4、算力保障人工智能技术飞速发展,GPU支撑强大算力落地。

Ch­a­t­G­PT应用场景下的GPU通常指GP­G­PU,去掉GPU为了图形处理而设计的加速硬件单元,保留了GPU的SI­MT架构和通用计算单元。所以对于Ch­a­t­G­PT场景下的AI训练、矩阵运算等通用计算类型的任务仍然保留了GPU的优势,即高效搬运,运算,重复性的有海量数据的任务。#国内公司海光信息的DCU产品归属的GP­G­PU范畴可广泛用于包括Ch­a­t­G­PT所处的人工智能及大数据等领域。

5、PCB&连接器满足算力数量需求,广泛应用数据中心领域。

Ch­a­t­G­PT大模型的特点带来了陡增的算力需求,仅GPT3模型就需要上千片A100芯片超一个月的训练时间,其中包括1750亿个参数、45TB数据量。服务器、交换机等作为算力的载体和传输硬件,将极大提升PCB和连接器等部件的用量。以传统核心算力板卡供应商胜宏科技为例,公司支持主要供应英伟达A100+H100的板卡,单价较高。连接器公司鼎通科技的通信数据中心业务占比高达60%,公司I/O连接器、CA­GE和背板连接器产品直接供应安费诺、莫仕、泰科等头部公司,最终应用于数据中心与服务器领域。

今天就聊这么多,感兴趣的戳文末阅读原文链接,加入星球,有更多投资策略、教程和工具,等着你。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存