深度|光模块调研更新
之前的关于阿里AI的纪要,被阿里投诉,无奈删除。
加之之前的半导体内容果然又惨遭删除。所以要看完整纪要,请加入星球。
需要更及时的看到干货信息,以及部分文章因敏感性问题删除,因此只在星球留存,望周知。请加星主微信!
本纪要首发星球。添加星主微信号:chain-capital,加入星球及时获得相关纪要信息。绝大数调研信息只发到星球,比如有粉丝在后台问某个具体公司的调研信息,我们已经上传星球。
之前连续发布AIGC相关文章,因篇幅原因放在文末供参考。
问答环节:
为什么光模块是 AI算力中 A股最耀眼明珠?
1、独家针对底部光模块进行发声看多,并重点推荐中际旭创,今年以来持续基于算力看好,召开多次光模块会议澄清800G才是重点(而不是cpo)今日旭创/新易盛/源杰/天孚/华工/剑桥/世佳/博创等多家光模块&光芯片集体股价大涨,我们重申为什么光模块是AI算力中A股最耀眼的明珠:1、chatgpt横空出世,引发全球ai军备竞赛,北美巨头领先,微软/英伟达率先大规模投入算力,预计后续谷歌/亚马逊/meta等相继跟上,所以北美算力投入最大最早。
2、北美算力投入, gpu用英伟达,交换机用思科/arista/juniper等,北美算力需求真正能直接用到中国企业的领域只有光模块(其他 pcb 等都是间接采购),且亚马逊/谷歌/meta/微软/英伟达等的第一大供应商都是中国企业,所以光模块才是 AI 算力中 A 股最耀眼的明珠!
3、我们一直强调,砍单砍的是200G/400G,算力加单加的是800G ,所以800G才是核心,最近英伟达加单800G。
4、 A1行情到现阶段,市场对于光模块最强主线,强化绝对估值水平,但弱化短期增速。光模块绝对估值水平(比如新易盛、华工科技为代表今年仍20x PE) ,相比很多应用端仍具备显著优势。
5、为什么最强: 1) A1浪潮的算力和应用流量驱动800G, 1.6T高速率加速迭代,大方向受益逻辑顺畅,发展趋势向好;2)相比服务器&半导体等环节,国内光模块企业全球竞争实力突出,且短期受制裁风险较弱头部光模块厂商海外设厂,进一步降低贸易风险) ;3)直接映射海外巨头。
供应商(英伟达、微软、谷歌、亚马逊、Meta等) ,该板块具有稀缺性;4)市场对CPO、LPO、硅光、薄膜铌酸锂等新技术重视程度非常高,但是投资考虑点并非只看中这些新技术的绝对实力PK,很多是考虑在新技术变革下,未来哪家公司边际变化或者弹性大(比如CPO对于联特、天孚; LPO对于剑桥;硅光对于博创)。
光模块/光芯片接下来怎么看?
1、基本面:今年业绩一般,上半年板块业绩下滑,下半年逐步开始恢复,24-25年进入高景气周期,海外需求先动,国内需求跟上。
2、估值端:我们跟踪光模块板块十几年,历史估值波动区间30-50倍,去年击穿历史下限到15倍,我们认为能够回归历史,甚至击穿历史。
3、光模块板块进入行情扩散阶段,龙头持续新高,板块相关标的补涨。
AI产业带动800G光模块快速放量,LPO成目前最有性价比方案
Q1 : AI服务器需求爆发下,为什么说800G光模块是一个大节点,为什么不是400G?
(1)首先,A服务器对于底层数据的传输速率和时延要求非常高,对应的架顶交换机需匹配底层的数据传输带宽,且可能还需有时延冗余,需要高速率光模块匹配。例如英伟达DGXH100服务器配有8个H100 GPU模组,假设每个GPU需要2个200G光模块,则每台服务器内部至少是16个200G,对应架顶交换机端口则至少需要4个800G。(2)其次,800G光芯片更具有经济性和性价比。800G采用100G EML芯片,而200G/400G所采用的是50G光芯片,经测算相同速率下,100G光芯片成本较2颗50G光芯片成本可降低30%。
Q2:什么是LPO ?为什么说LPO是目前AI服务器最有性价比、最具落地性的 800G 方案?
LPO(Linear-drive Pluggable Optics)是线性驱动可插拨光模块,在数据链路中只使用线性模拟元件,无CDR或DSP的设计方案。相较DSP方案,LPO可大幅度减少系统功耗和时延功耗相较DSP可下降接近50%),而系统误码率和传输距离有所牺牲,深度契合目前AI计算中心的短距离大带宽低功耗低时延的数据连接需求。
Q3 :如何看待云计算厂商今年资本开支放缓?会影响800G光模块的导入节奏吗?
23年是云计算资本开支低点,北美4大云厂商在20-22年资本开支经历了快速增长( 20-22年增速为17%/10%/14% ) ,云计算建设有些提前释放,且一些云厂商在目前经济环境下有压力。但随着AI算力需求爆发,未来2-3年云计算厂商将加大算力数据投入,且今年下半年资本开支存在超预期可能。不会影响。23年光模块市场规模增长的放缓更多来自于成熟速率光模块价格的下跌而非需求量的下降,各大云计算厂商对于光模块的总体需求仍在增,未来3年A1算力缺口10倍,各大云巨头纷纷抢先下注AI服务器,预计23年800G需求为70-90 万只,呈爆发式增长。
请点击此链接,获得更多调研纪要内容,或请添加星主微信号:chain-capital
免责声明:本文所载内容并非给他人所做的操作建议。本文所载内容仅供参考之用,读者不应单纯依靠本文的信息而取代自身的独立判断,应自主做出决策并自行承担风险。本文不作为任何法律文件,观点仅供参考,文中的所有信息或所表达意见不构成投资、法律、会计或税务的最终建议,作者不就文中的内容对最终操作建议做出任何担保。在任何情况下,作者不对任何人因使用本资料中的任何内容所致的任何损失负任何责任。市场有风险,入市需谨慎。
之前连续发布AIGC相关文章。
重磅|英伟达&OpenAI炉边谈话:人工智能的今天和未来的愿景
热点解读|Microsoft365 Copilot彰显AI应用潜力