AI算力产业链专题报告:国产算力迈入自强新纪元(附下载)
需要下载本报告的朋友,可以扫描下方二维码进圈,5万+份报告,3000+会员,高清原版,无限制下载,持续更新
(公众号资源有限,仅能展示部分少数报告,加入星球获取更多精选报告)
(精选报告来源:报告研究所)
一、国内 AI 产业有望迎来跨越式发展
1.1 海外 AI 产业蓬勃发展
OpenAI 于 2023 年 3 月发布 GPT-4,谷歌于 2023 年 12 月发布 Gemini 大模型,并在近期推出 Gemini1.5 pro 以及开源模型 Gemma,大模型能力持续迭代升级。伴随大模型能力的提升,海外 AI 应用蓬勃发展,云大厂比 如微软推出 copilot、bing AI 等,谷歌推出 workspece、聊天机器人 Gemini 等外,B 端垂直企业服务、C 端应用 等层出不穷。据 SensorTower 数据显示,2023 年,AI 应用年度下载量和内购收入分别上涨 60%和 70%,超过 21 亿次和 17 亿美元(其中 2023H1 下载量突破 3 亿次)。英伟达提到,FY24 全年估计 40%收入来自 AI 推理端。近期 openai sora、谷歌 Genie 发布,视频应用领域 AI 能力边界大幅跃升,AI 向基础世界模型、AGI 领域迈进。
从支撑 AI 发展的基础设施角度,不管是从英伟达、超微电脑、台积电、AMD 等硬件厂商的业绩和指引, 还是从海外云厂商的 capex 投入,都印证海外 AI 产业的持续提速。英伟达 FY24Q3、FY24Q4 业绩持续超过分析师预期,主要来自 AI 带动数据中心业务超预期带动,英伟达 对下一季度指引乐观,预计 FY25Q1 收入 240 亿美元,同样超过分析师预期的 219 亿美元。超微电脑 FY24Q2 营收超预期,FY24Q3 预计净销售额在 37 亿美元至 41 亿美元之间,远超市场预期,主要得益于 AI 系统强劲需 求的驱动。台积电预计未来几年 AI 相关业务 CAGR 将达 50%,上调远期 AI 营收占比目标,预期 2027 年 AI 营收占比达到高双位数(high teen),此前预期为低双位数(low teen)。AMD 在 2023 年 12 月上调加速器规 模预测,预计到 2027 年,人工智能加速器的整体市场规模将达 4000 亿美元,CAGR 达到 70%,此前 2023 年 8 月 AMD 预计 2027 年人工加速器行业规模为 1500 亿美元。海外云厂商对 AI 投入展望持续乐观。谷歌指引 2024 年资本支出将明显增长。meta 指引 2024 年资本开支 300 亿美元-370 亿美元,上限上调 20 亿美元。微软表示,基于对云和人工智能基础设施的投资、第三方产能合 同的交付转移到下一季度,预计下一季度资本支出将环比大幅增加。亚马逊预计 2024 年资本支出将同比增加。
1.2 国内大模型基本实现能力边界突破
国内厂商也加快研发节奏,纷纷发布大模型产品,并不断持续迭代更新。2023 年 3 月-6 月间,包括百度、 清华智谱、阿里巴巴、科大讯飞、百川智能等厂商相继发布自己的大模型产品,后续持续迭代更新,在 2023 年 9 月、10 月前后发布重要更新,提升模型能力。国内领先的大模型基本在 2023 年 10 月至 11 月实现了能力边界 的突破,实现看齐甚至部分能力超越 ChatGPT,并且后续在持续的进一步迭代升级。随着国内大模型能力的提 升,AI 应用预计 2024 年也将迎来加速落地。
参考国内中文模型评测机构 SuperCLUE 发布中文大模型基准测评,对比来看,国内大模型厂商的能力在 快速提升。2023年5月,国内大模型总体与 GPT3.5有约20分的差距,国产得分最高的星火认知大模型总分 53.58, 而 GPT3.5 为 66.18。2023 年 11 月,国产头部大模型已基本完成对 GPT3.5 的总分超越,与 GPT4-Turbo 的差距 也在快速缩小,74.02 分的文心一言 4.0、72.88 分的 Moonshot 等大模型超越了 59.39 分的 GPT3.5,与 89.79 分 的 GPT4 仍有距离。SuperCLUE 最新的 2024 年 2 月测评结果显示,国产第一梯队大模型已将与 GPT4.0 的得分 差距拉至 10 分以内,其中文心一言 4.0 总分 87.75,GLM-4 总分 86.77,通义千问 2.1 总分 85.7、Baichaun3 总 分 82.59、Moonshot(kimichat)总分 82.37、讯飞星火 V3.5 总分 81.01,而 GPT4.0-Turbo 总分 92.71、GPT3.5 总分 64.34。
近期 Kimi 支持 200 万字超长文本,用户数激增,国内模型的能力和应用的展望进一步乐观。2024 年 3 月 18 日,月之暗面宣布 Kimi 智能助手已支持 200 万字超长无损上下文(2023 年 10 月刚发布时,Kimi 可支持的 无损上下文输入长度为 20 万字),在长文本处理能力上取得了突破性进展,并于即日起开启产品内测。Kimi 的月活用户从 2023 年底的 50 万左右增至接近 300 万,网页端的日活从 3 月 9 日的 12 万多增至 14 日的 35 万左 右,3 月 21 日,Kimi 因访问量暴增而疑似宕机。
1.3 国家大力推动 AI 建设与应用落地
2024 年 2 月 19 日,国务院国资委召开中央企业人工智能专题推进会。会议认为,加快推动人工智能发展, 是国资央企发挥功能使命,抢抓战略机遇,培育新质生产力,推进高质量发展的必然要求。中央企业要主动拥 抱人工智能带来的深刻变革,把加快发展新一代人工智能摆在更加突出的位置,不断强化创新策略、应用示范和人才聚集,着力打造人工智能产业集群,发挥需求规模大、产业配套全、应用场景多的优势,带头抢抓人工 智能赋能传统产业,加快构建数据驱动、人机协同、跨界融合、共创分享的智能经济形态。会议强调,中央企 业要把发展人工智能放在全局工作中统筹谋划,深入推进产业焕新,加快布局和发展人工智能产业。要夯实发 展基础底座,把主要资源集中投入到最需要、最有优势的领域,加快建设一批智能算力中心,进一步深化开放 合作,更好发挥跨央企协同创新平台作用。开展 AI+专项行动,强化需求牵引,加快重点行业赋能,构建一批 产业多模态优质数据集,打造从基础设施、算法工具、智能平台到解决方案的大模型赋能产业生态。10 家头部 中央企业签订倡议书,表示将主动向社会开放人工智能应用场景。
二、国产算力基础设施迎来发展机会
2.1 AI 发展需要强大算力基础设施支撑
大语言模型所使用的数据量和参数规模呈现“指数级”增长,带来智能算力需求爆炸式增长。OpenAI 在 2018 年推出的 GPT 参数量为 1.17 亿,预训练数据量约 5GB,而 GPT-3 参数量达 1750 亿,预训练数据量达 45TB,而当前来看,大模型参数进一步提升,已经达到万亿级,并持续迭代发展。训练阶段算力需求与模型参数数量、 训练数据集规模等有关,参考天翼智库测算信息,根据 OpenAI 发布的论文《Scaling Laws for Neural Language Models》数据,训练阶段算力需求=6×模型参数数量×训练集规模,GPT-3 模型参数约 1750 亿个,预训练数据 量为 45TB,折合成训练集约为 3000 亿 tokens,GPT-3 的总算力消耗约为 3646PFLOPS-day,实际运行中,GPU 算力除用于模型训练,还需处理通信、数据读写等任务,对算力会有更大消耗。面向推理侧算力需求,参考天 翼智库测算信息,根据 OpenAI 发布的论文《Scaling Laws for Neural Language Models》数据,平均每 1000 个 token 对应 750 个单词,推理阶段算力需求=2×模型参数数量×token 数。ChatGPT 上市仅 5 天就突破 100 万用户,两 个月内用户就突破 1 亿大关,现在每周活跃用户维持在亿量级。假设按照 1 亿的 ChatGPT 的活跃用户数、日活 跃用户 2000 万人,平均每位用户单次查询对应 1000 个 token,每天查询 10 次,GPT-3 模型每日对话产生推力 算力需求为 810PFLOPS-day,同样考虑到有效算力比率,实际运行中需要更大算力支撑。
人工智能的发展将带动算力规模高速增长,继而刺激算力基础设施的需求。根据中国信通院数据,2022 年 全球计算设备算力总规模达到 906EFLOPS,预计未来 5 年全球算力规模增速将超 50%。IDC 数据显示,2022 年中国通用算力和智能算力规模分别达 54.5EFLOPS(基于 FP64)和 259.9EFLOPS(基于 FP16),2027 年通 用算力和智能算力规模将达到 117.3EFLOPS 和 1117.4EFLOPS,预估未来 5 年复合增长率 16.6%和 33.9%。
运营商加大智能算力基础设施投入。中国移动 2024 年计划总体资本开支 1730 亿元同比下降 4%,用于算力资本开支计划 475 亿元同比增长 21%。中国电信 2024 年计划总体资本开支 960 亿元同比下降 4%,用于产业数 字化资本开支 370 亿元同比增长 4%,用于云/算力投资 180 亿元。中国联通 2024 年计划总体资本开支 650 亿元 同比下降 12%,公司表示投资重点将由稳基础的联网通信业务转向高增长的算网数智业务。在相关 AI 服务器采 购方面,2023 年 8 月,中国电信启动 2023-2024 年 AI 算力服务器集采,整体采购规模为 4175 台,中标总价超 84 亿元。2023 年 9 月,中国移动启动了 2023 年至 2024 年新型智算中心(试验网)采购项目,采购人工智能服 务器(2454 台)、数据中心交换机(204 套)及其配套产品等,总价约 33 亿元(标包 4-12 总额,标包 1-3 采购 失败)。2024 年 3 月,中国联通发布 2024 年人工智能服务器集中采购项目资格预审公告,涵盖人工智能服务 器合计 2503 台,关键组网设备 RoCE 交换机合计 688 台。同时,三大运营商也在积极加快智算中心等基础设施 的建设。
国内互联网厂商资本开支呈现回暖态势。2023年全年腾讯资本开支为238.93亿元,同比增长32.6%,2023Q1、 2023Q2、2023Q3、2023Q4 腾讯的资本开支分别为 44.11、39.35、80.05、75.24 亿元,分别同比-36.7%、+31.1%、 +236.8%、+33.1%。阿里巴巴在 2023 年前三季度单季资本开支同比均呈现下滑,2023Q1、2023Q2、2023Q3 阿 里巴巴的资本开支分别为 25.13、60.07、41.12 亿元,分别同比-72.7%、-46.0%、-62.5%,2023Q4 同比转为正增 长,资本开支为 72.86 亿元,同比增长 25.8%。
英伟达持续升级 GPU,算力持续提升。2024 年 3 月 GTC 上,英伟达发布 GB200 超级芯片,采用 Blackwell 架构,采用台积电的 4 纳米(4NP)工艺,整合两个独立制造的裸晶(Die)形成一个 Blackwell GPU,两个 Blackwell GPU 与一个 GraceCPU 结合成为 GB200 superchip。Blackwell GPU 共有 2080 亿个晶体管,上一代 H100 只有 800 亿晶体管,整体性能明显提升。一个 GB200 NVL72 就最高支持 27 万亿参数的模型。英伟达表示,过去在 90 天内训练一个 1.8 万亿参数的 MoE 架构 GPT 模型,需要 8000 个 Hopper 架构 GPU,15 兆瓦功率,如今同样给 90 天时间,在 Blackwell 架构下只需要 2000 个 GPU,以及 1/4 的能源消耗。
2.2 禁运持续升级,国产化大势所趋
美国对中国先进芯片进口限制持续升级。2023 年 10 月,美国颁布新的半导体出口限制,对芯片算力和性 能密度做了更严格的规定,A100/A800、H100/H200/H800、L4、L40s 均不满足出口条件。在 2022 年 8 月,美 国首次针对中国实施大规模芯片出口制裁,停止出口 A100 和 H100 两款芯片和相应产品组成的系统。本次制裁 主要限制总计算性能(算力*位宽)≥4800 且互联带宽≥600GB/s 的高端 AI 芯片出口,在制裁后,英伟达为中 国重新设计了 A800 和 H800 两款“阉割版”芯片,主要在互联速率和双精度计算性能上做了限制。2023 年 10 月升级版本的芯片禁令加大了打击力度,性能满足以下条件均受出口管制:(1)总计算能力 TPP(算力*位宽)超过 4800 的芯片;(2)TPP 超过 1600 且 PD(TPP/芯片面积)超过 5.92 的芯片;(3)2400≤TPP<4800,且 1.6≤PD<5.92 的芯片;(4) 1600≤TPP,且 3.2≤PD<5.92 的芯片。在此要求下,A100/A800、H100/H200/H800、L4、L40s 均 不满足出口条件,英伟达只能全方位削弱芯片算力,向中国提供 H20、L20、L2 芯片。而近日美国政府再次升 级对华半导体出口管制措施。参考钛媒体信息,北京时间 2024 年 3 月 30 日凌晨,美国商务部下属的工业与安 全局(BIS)发布“实施额外出口管制”的新规措施,修订了 BIS 于 2022、2023 年 10 月制定的两次出口限制新 规,全面限制英伟达、AMD 以及更多更先进 AI 芯片和半导体设备向中国销售,此次新规中,BIS 删除和修订 了部分关于美国、中国澳门等地对华销售半导体产品的限制措施,包括中国澳门和 D:5 国家组将采取“推定拒 绝政策”,并且美国对中国出口的 AI 半导体产品将采取“逐案审查”政策规则,包括技术级别、客户身份、合 规计划等信息全面查验。
国内算力自立自强是必然趋势。此前国内对英伟达芯片依赖度较高,2022 年,中国 AI 加速卡市场中,英 伟达占据 85%的出货量,而国产芯片中,华为、百度昆仑、寒武纪、燧原各自占比 10%、2%、1%、1%。IDC 数据显示,2023 年上半年,中国加速芯片的市场规模超过 50 万张。从技术角度看,GPU 卡占有 90%的市场份 额,从品牌角度看,中国本土 AI 芯片品牌出货超过 5 万张,占比整个市场 10%左右的份额。当前禁运持续升级, 但是国内人工智能发展的趋势和力度并不会因此而发生变化,相反我们更需要重视人工智能的发展,美国对于 中国先进芯片的限制升级可能将进一步推动我国高水平科技自立自强的步伐。预计未来国产化比例将大幅提升,短期由于国内算力芯片供需的缺口,包括 H20 等在内的海外芯片也预计 对国内算力行业进一步形成补充。H20 芯片在单卡性能上不具备突出优势,但利用 NVLINK 技术集群性能提升。
2.3 当前国产芯片性能或已接近 A100,或优于 H20
目前华为海思、寒武纪、平头哥、壁仞科技、百度昆仑芯、燧原科技、海光等国内 GPU 厂商均已推出用 于训练、推理场景的算力芯片,并且持续迭代升级,性能在不断提升。而生态方面,国内 GPU 厂商也推出软 件开发包,支持 TensorFlow、Pytorch 等主流框架,并且基于自身的软件建立了开发平台,吸引更多的开发者 建立完善生态体系。国产头部芯片单芯片算力或已接近 A100,或优于 H20。以 FP16 精度为例,国产芯片中华为昇腾 910 算力 为 256TFLOPS,略低于 A100 的 312TFLOPS,相较于 H100 的 1513TFLOPS 有较大差距,但强于 H20 的 148TFLOPS。此外,平头哥含光 800 在 INT8 精度,壁仞科技 BR100 在 FP32 精度均超过 A100。在单颗芯片 峰值算力上,国产芯片已经满足大规模使用条件。随着国产芯片能力的提升,国内算力产业发展将进一步提速。
三、国产算力产业链环节梳理
3.1 服务器:AI 高增,国产算力芯片发展或带来格局生变
完整报告下载:因篇幅限制,本报告完整版PDF已分享到报告研究所知识星球,扫描图片中二维码进圈即可下载!
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
欢迎加入报告研究所知识星球社群,入圈后您可以享受以下服务:
1、报告持续更新,分享最新、最专业、最深度的行业研究报告、投行报告、白皮书、蓝皮书、公司研报等。公众号发布的报告可同步下载;
2、海量研究报告均可下载PDF高清版,无限制;
3、会员可以提问方式获取具体报告需求;
温馨提示
应广大粉丝要求,「报告研究所」成立了报告交流群,欢迎各位公司企业、投行、投资机构、政府机构、基金、创业者及金融资本圈朋友加入!
这里能且不限于:“行业交流、报告交流、信息交流、寻求合作等......”
入群方式:添加助理微信touzireport666,发送「个人纸质名片」或「电子名片」审核后即可入群。
我们是报告专业研究机构及知识服务平台。专注于分享国内外各类行业研究报告、热点专题报告、调研分析报告、白皮书、蓝皮书等。所有报告来源于国内外数百家知名研究机构,覆盖新能源汽车、数字经济、新材料、新能源、信息技术、先进制造、节能环保等新兴产业,并涉及医药生物、金融、互联网+、医疗大健康等众多行业及细分领域。目前报告已累积近50000+,并持续更新。
报告涵盖但不限于:
1、新能源汽车、数字经济、新材料、新能源、信息技术、先进制造、节能环保;
2、互联网、新媒体、短视频、抖音、快手、小红书;
3、元宇宙、5G、区块链、人工智能;
4、房地产、金融、券商、保险、私募;
5、零售、快消品、餐饮、教育、医疗、化妆品、旅游酒店;