该内容已被发布者删除 该内容被自由微信恢复
文章于 2月16日 下午 4:31 被检测为删除。
查看原文
被用户删除
科技

如何理解7万亿的大卫星…

Jason 信息平权 2024-02-11

大年初一看得眼都花了...

  1. sam altman 7万亿美元超级大卫星...

  2. 英伟达要做ASIC了

  3. NV的多模订单下到2025了

  4. 月之暗面杨植麟访谈(超级推荐)


  1. 7万亿美金是不是扯淡

说实话,第一反应这TM也太扯淡了...外网朋友们黑的很直白了,7trn不仅可以把所有semi巨头买一圈,顺便还可以买个meta最后给altman剩个3千亿美金带回家:


毕竟对面是玩石油的,不放个超级大卫星如何洗脑...而且XJB搭过model的都懂,CAGR设个100%鼠标往后拉10个column,别说7 trillion说不定10 trn都给你拉出来。而现实世界是有地心引力的。

但如果试图给sam altman的pitch book圆个逻辑,怎么圆?我还真想了想...

1)你猜我们全球人民在智能机上历史总花费是多少?2008年至今累计销量150亿部,ASP 350美金(前高后低),累计5万亿美金...是不是格局打开了

2)7万亿美金买多少GPU?按照目前H100价格,假设80%用来买卡,毛估估大概3亿张,说实话也就全球平均20多个人共享一张H100等效算力...按照模型对现实生活工作渗透率或替代率慢慢往上爬,似乎就算一个人分1/20张H100也不够用啊。我做个小小的揣测,sam估算7万亿的时候也没仔细考虑算力价格下降曲线,这毕竟是个复杂函数难以估算,假如单位算力价格尤其是推理价格按照18个月除以10的速度下降,也就是技术导致的通缩速度远超现实世界钞票的打印速度,那么现在看起来的7万亿能买到的算力3年后就可以用现实世界的700亿美金获取。当然函数的另一头会释放巨大的价格杠杆撬动量远超人均1/20张卡,从而在中间找到一个价值量的平衡。因此现在喊出来的7万亿背后的概念可能也并不夸张....甚至再简单点,如果没有英伟达这个90%毛利率的中间商赚差钱,是不是7万亿美金瞬间少个0了。当然这个中间商现在有点强势...

3)回到智能机的例子,你说全球人均配一个能力卓越的agent或agent集群的花费应该是多少?按照7万亿美金72亿人倒算大概人均1000美金,这也不是智能机不是互联网,按照生产力(蒸汽机或者电)标准去衡量,是不是也不算太高?当然拍这个金额太艺术一点都没有确信度。但至少有一点很确定,AI比智能机的“硅含量”会高得多,智能机承载了太多交互、便携、甚至消费电子美感等额外开销,硅含量也就40-50%?AI的硅含量90%以上吧...


2. 英伟达为什么做ASIC

首先ASIC存在的价值是什么?1降本,2防止NV一家独大。说实话看完上次TPU那个纪要,我觉得所有ASIC团队在NV面前都是弱鸡...(包括最成功的TPU)。NV系统能力(软件通信算法等等)不是这些百号人的design house小作坊能比的。首先到了LLM时代,ASIC本就与GPU差距进一步拉大,模型更大之后对精度的容忍度发生质变,其次大家美好的愿望是训练差距太大,那就到推理阶段上ASIC。但目前基于自回归模型的推理是访存密集型算力,尤其是只要高并发型的应用服务,且单卡存算比例又不够的情况下,对片间互联能力的要求再次提高,NvLink的优势又凸显了...大家的另一个美好愿望是模型架构稳固后的算子数量稳固,目前看早着呢,基于transformer的微创新、垂直模型的算子多样性,如之前文章所说,我们还在一条指数曲线的早期,计算层尚处于活跃地震带...

那英伟达做ASIC,图啥?试图给几个Hypothesis,1)预见到推理需求的猛增,以价换量,杀死竞争(客户自己的亲儿子们),提前占坑;2)能力复用,资源侵占,说实话我不清楚NV做的ASIC会custom到什么程度和GPU架构又会有多大区别,但至少从HBM、cowos角度,如果淡化计算本身而注重存力,是一种将上游资源进一步侵占的手段;3) 和其他大公司一样,内部能力的产品化,如果这个角度那价值也不大。NV的serdes、switch等各类IP都是业界领先水平,拿到其他领域估计也是秒杀。但传闻中列举的5G、汽车等等似乎听起来意思都不大,这些ASP几百美金的“廉价硅”,如何与GPU drugs媲美...

这个问题我也问了几位专家,甚至NV的大佬,也都表示不能太理解背后意图。

也看了几个行的解读,BofA的思路清奇,利好1)EDA 新思和cadence,毕竟更多high end芯片项目account要开启,其次AMD说不定跟着一起下水;2)利好Intel,18A已经宣称拿到4个HPC客户且intel之前有过ASIC代工经验,NV出于供应链分散以及降本,说不定ASIC业务部分放到Intel;3)直接利空的的确是Marvel,NV传闻直接提及了Ericsson和诺基亚等,都是MRVL现有客户。


3. NV多模订单下到了2025Q1

来自Ace的P总刚刚做的调研,专家应该是Finisar的?我印象最深的一句话是“NV排产预测非常准”,可能就是自信吧,毕竟爬升期很难miss,就一直满产当然是准。这一波re rating就是2025年的问题开始形成共识,多模这个信息算是个上游校验。


4. 月之暗面杨植麟访谈

重点提炼下:

1)再次确认合成数据就是下一步玩家们拉开差距的重点,说不定让GPT-6之后的模型训练拔掉“数据线”,真的实现自我进化。

2)历史上所有架构演进本质上都是在实现context length的有效提升,而transformer是目前看到唯一值得被scale up的架构,其他架构要么scale不上去,要么scale了也无法实现AGI。transformer不是不变的,微创新一直在发生,但其灵魂或思想肯定会长期存在。

3)假如有一天实现了10亿context length,什么问题都解决了。隐约觉得context length的提升是存在“摩尔定律”的。(那算力就是摩尔定律的平方?)

4)非常重要的一点,可能呼应了前文我们对推理需求的判断。YZL认为2026年推理算力是训练算力需求的10倍,因为会出现新的范式,推理即训练,推理不仅仅为用户服务,而且是模型在为自身提供合成数据。如果这样,由于推理是分布式的,模型的训练变相得也成为分布式的,能源问题也得到解决。


(完)




BofA报告放这里了:



继续滑动看下一个

如何理解7万亿的大卫星…

Jason 信息平权
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存