查看原文
其他

英伟达砍单50亿美元中国芯片订单,美国升级芯片禁令我们就不能做大模型了吗?

一非的科技钱包 一非深度观察 2023-11-01

最近美国升级芯片禁令,根据新的法令,英伟达必须立刻停止对华芯片出口,其中包括接近50亿美元的AI芯片订单,国内的大型科技公司都受到了冲击。

根据报道,美国商务部于10月17日发布了一系列新的芯片出口限制,扩大了对高级人工智能芯片的定义,并对运往40多个国家的芯片产品提出额外的许可要求,以避免转售给中国。

新的限制措施定于11月16日生效。这意味着美国将更严格地管控芯片技术的输出,尤其是那些涉及到人工智能领域的芯片,比如英伟达的A100、A800、H100、H800等。

英伟达在AI的技术水平

这些芯片都是基于英伟达自研的架构,具有强大的算力和能效,可以支持各种人工智能应用,比如自然语言处理、计算机视觉、推荐系统等。

这些应用都需要大量的数据和计算资源,所以需要使用大模型来训练和推理。大模型是指那些参数量很大、层数很深、结构很复杂的神经网络模型,比如GPT-3、BERT、ResNet等。这些模型可以提高人工智能的性能和普适性,但也需要消耗巨大的电力和时间。

英伟达的芯片在大模型训练方面有着显著的优势,其中一个原因是它们采用了先进的制程工艺和光刻技术

制程工艺是指芯片上晶体管的尺寸和密度,通常用纳米来表示。

制程工艺越先进,光刻技术越精细,就意味着芯片上可以集成更多更小的晶体管,从而提高芯片的性能和能效。

目前,英伟达已经使用了5纳米制程工艺和193纳米浸没式光刻技术,而且正在研发3纳米制程工艺和13.5纳米极紫外光刻技术。

这些技术都是全球最先进的水平,也是美国最想保护的核心技术。而中国由于受到美国的封锁,芯片制程还没有达到这个水平,所以大模型的训练芯片难产。

之前为了规避美国的禁令,英伟达做了一些调整,采用阉割后的芯片卖给中国。所谓阉割版,

就是指降低了芯片的性能和功耗,以满足美国政府对出口芯片总处理性能(TPP)的限制。

比如A800和H800就是A100和H100的阉割版,分别降低了一半左右的算力和功耗。这样做虽然损失了一些利润和竞争力,但也保住了中国市场。而且这些阉割版芯片还卖得很火,因为它们依然比国产芯片要强大得多,但价格不便宜。

所以英伟达的黄仁勋也很意,既规避了制裁,也赚了不少钱,买到的中国科技公司也蛮高兴。

但是这次美国彻底禁止了英伟达向中国出口任何高级人工智能芯片,无论是原版还是阉割版,都不行了。

这就让英伟达再想招也不行了,只能干着急

根据报道,英伟达已经从中国的阿里巴巴、字节跳动、百度和腾讯等公司获得了价值50亿美元的芯片订单,其中今年将交付10亿美元,明年将交付40亿美元。

但现在这些订单都要被取消了,英伟达不仅损失了巨额收入,还可能面临违约赔偿的风险。

中国公司要有志气

那么,这对中国科技公司来说意味着什么呢?是不是就意味着我们就不能做大模型了呢?

当然不是!我们有华为啊!

华为可是我们自己的国产芯片厂商,而且也有自己的人工智能芯片系列——昇腾(HUAWEI Ascend)。

这些芯片都是基于华为自研的达芬奇架构,具有强大的算力和能效,可以支持各种人工智能应用。而且华为的芯片不受美国禁令的影响,可以自由出口给中国的科技公司。

事实上,3年前科大讯飞被制裁后,已经第一个找上了华为,一直用华为的昇腾910B芯片来训练自己的大模型,最近已经发布了星火大模型3.0,全面对标GPT3.5。

科大讯飞的董事长说:

“我们知道被制裁,第一时间就找上了华为,国内做AI芯片的不少,不过大部分是推理芯片,只有训练芯片才是核心技术”

“华为比起英伟达的训练能力还是差一点,可是你不用它怎么会好,除了华为自研系统,我们是第一家和他全面合作的,我们都互相推进,一点点地更新算法和能力,才有了现在的进步。”

华为的AI芯片

科大讯飞使用的昇腾910B芯片是华为尚未正式公开发布的一款人工智能芯片,是昇腾910的升级版。

它采用了7纳米制程工艺和248纳米光刻技术,具有640 TOPS @INT8和320 TFLOPS @FP16的算力,功耗310W。

这样的性能已经接近英伟达的A800芯片了。


而且昇腾910B芯片在科大讯飞已经做过训练,在语音识别、语音合成、机器翻译等任务上都取得了很好的效果。

其它的科技公司或迟或早也会找上华为,因为华为不仅有昇腾910B芯片,还有更先进的昇腾910C和昇腾920芯片。

这些设计中的芯片都准备了5纳米制程工艺和193纳米浸没式光刻技术,具有更高的算力和能效。

比如昇腾920芯片就有1.5 POPS @INT8和750 TFLOPS @FP16的算力,功耗400W。

从规划来看,这样的性能已经超过了英伟达的A100芯片了。

最重点的是芯片制程

现在来看,这些中国的科技公司之前依赖英伟达,不找华为,主要的原因还是偷懒,因为和华为对接,需要对大模型进行剪裁,也要重新做许多适配工作。

他们一方面觉得华为的接口不多,团队适配有困难,会耽误时间,另一方面主要还是考虑芯片的制裁导致华为不能出高精度的芯片。

现在好了,美国一个禁令,这些问题都解决了,有总比没有强吧。

大模型训练消耗的是电力,制程越先进,单位训练要的电量就越小。

微软在多次大模型训练时消耗的GPU和电费就非常惊人:

  • 微软用几亿美元,耗费上万张英伟达A100芯片打造超算平台,只为给ChatGPT和新版必应提供更好的算力。假设每个A100 GPU的成本约为10000美元,那么上万张GPU的总成本约为1亿美元以上。


  • ChatGPT一次模型训练需要的总算力消耗是3640PF-days,耗资约1200万美元。假设微软每年训练10次ChatGPT,那么每年的训练成本约为1.2亿美元。


  • 以ChatGPT在1月的独立访客平均数1300万计算,其对应芯片需求为3万多片英伟达A100 GPU,大概需要的算力成本为8亿美元,每天的电费成本在5万美元左右。假设这样的用户量和业务规模保持一年不变,那么每年的运营成本约为9.8亿美元。

综上所述,微软一年时间在多次大模型训练时消耗的GPU和电费大约为:

  • GPU成本:1亿 + 30亿 + 1.2亿 + 8亿 = 40.2亿美元

  • 电费成本:5万 * 365 = 1825万美元

总计:40.3825亿美元

这是一个非常惊人的数字,显示了人工智能的耗电量的可怕。

现在英伟达已经用5纳米制程来制造芯片,马上要突破到3纳米,我们还差一些。

现在就看上海微电子的28纳米光刻机了,据说多重曝光能达到11纳米,但还是不够,需要尽快突破到5纳米以下。话说发明极紫光刻技术的林本坚也是中国人,我们咋这么难呢。

目前,世界上最先进的光刻机是荷兰阿斯麦公司(ASML)生产的NXE:3400B,它采用了13.5纳米的极紫外(EUV)光源和0.55的NA,可以实现3纳米制程工艺。

而中国目前最先进的光刻机是上海微电子试运行的SMEE28EUV,它采用了248纳米的深紫外(DUV)光源和0.9的NA,可以实现28纳米制程工艺。

可以看出,中国在光刻机方面与国际水平有着巨大的差距,主要原因是缺乏核心技术和关键零部件。

比如EUV光源、高精度镜头、高速扫描平台等。这些技术和零部件都是美国和欧洲等国家掌握和垄断的,中国很难获得和突破。

但是我们不能因此就气馁和放弃,我们要坚持自主研发和创新,努力提高自己的技术水平和产业能力。

我们要相信自己有能力打造出属于自己的芯片和光刻机。

我们要向那些为中国芯片事业奋斗和牺牲的人们学习,比如林本坚、张汝京、潘教垣等。他们都是中国人,在国外学习和工作过,掌握了先进的芯片技术和知识。

林本坚曾经在美国加州理工学院(Caltech)攻读博士学位,并在那里发明了极紫外光刻技术。这项技术被认为是芯片制造领域最重要的技术之一,也是目前最先进的光刻技术。

他曾经担任过台积电的研究院长,也就是他,最近还说:

“美国人的制裁并不能阻碍中国获得最先进的芯片技术,这只能害了美国的芯片企业,让他们不能轻松的出口。而中国把省下来的这些资金投入到自主研发的芯片技术上,很快就能达到先进水平,并实现赶超”


这就是我今天要给大家分享的内容,希望对大家有所启发和帮助。

如果你喜欢我的文章,请点赞、评论、转发,让更多的人看到。

如果你有任何问题或建议,欢迎在评论区留言,我会尽快回复你。

谢谢大家的关注和支持,我们下期再见!


继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存