英伟达砍单50亿美元中国芯片订单,美国升级芯片禁令我们就不能做大模型了吗?
最近美国升级芯片禁令,根据新的法令,英伟达必须立刻停止对华芯片出口,其中包括接近50亿美元的AI芯片订单,国内的大型科技公司都受到了冲击。
根据报道,美国商务部于10月17日发布了一系列新的芯片出口限制,扩大了对高级人工智能芯片的定义,并对运往40多个国家的芯片产品提出额外的许可要求,以避免转售给中国。
新的限制措施定于11月16日生效。这意味着美国将更严格地管控芯片技术的输出,尤其是那些涉及到人工智能领域的芯片,比如英伟达的A100、A800、H100、H800等。
英伟达在AI的技术水平
这些芯片都是基于英伟达自研的架构,具有强大的算力和能效,可以支持各种人工智能应用,比如自然语言处理、计算机视觉、推荐系统等。
这些应用都需要大量的数据和计算资源,所以需要使用大模型来训练和推理。大模型是指那些参数量很大、层数很深、结构很复杂的神经网络模型,比如GPT-3、BERT、ResNet等。这些模型可以提高人工智能的性能和普适性,但也需要消耗巨大的电力和时间。
英伟达的芯片在大模型训练方面有着显著的优势,其中一个原因是它们采用了先进的制程工艺和光刻技术。
制程工艺是指芯片上晶体管的尺寸和密度,通常用纳米来表示。
制程工艺越先进,光刻技术越精细,就意味着芯片上可以集成更多更小的晶体管,从而提高芯片的性能和能效。
目前,英伟达已经使用了5纳米制程工艺和193纳米浸没式光刻技术,而且正在研发3纳米制程工艺和13.5纳米极紫外光刻技术。
这些技术都是全球最先进的水平,也是美国最想保护的核心技术。而中国由于受到美国的封锁,芯片制程还没有达到这个水平,所以大模型的训练芯片难产。
之前为了规避美国的禁令,英伟达做了一些调整,采用阉割后的芯片卖给中国。所谓阉割版,
就是指降低了芯片的性能和功耗,以满足美国政府对出口芯片总处理性能(TPP)的限制。
所以英伟达的黄仁勋也很意,既规避了制裁,也赚了不少钱,买到的中国科技公司也蛮高兴。
但是这次美国彻底禁止了英伟达向中国出口任何高级人工智能芯片,无论是原版还是阉割版,都不行了。
这就让英伟达再想招也不行了,只能干着急。
根据报道,英伟达已经从中国的阿里巴巴、字节跳动、百度和腾讯等公司获得了价值50亿美元的芯片订单,其中今年将交付10亿美元,明年将交付40亿美元。
但现在这些订单都要被取消了,英伟达不仅损失了巨额收入,还可能面临违约赔偿的风险。
中国公司要有志气
那么,这对中国科技公司来说意味着什么呢?是不是就意味着我们就不能做大模型了呢?
当然不是!我们有华为啊!
这些芯片都是基于华为自研的达芬奇架构,具有强大的算力和能效,可以支持各种人工智能应用。而且华为的芯片不受美国禁令的影响,可以自由出口给中国的科技公司。
事实上,3年前科大讯飞被制裁后,已经第一个找上了华为,一直用华为的昇腾910B芯片来训练自己的大模型,最近已经发布了星火大模型3.0,全面对标GPT3.5。
科大讯飞的董事长说:
“我们知道被制裁,第一时间就找上了华为,国内做AI芯片的不少,不过大部分是推理芯片,只有训练芯片才是核心技术”
“华为比起英伟达的训练能力还是差一点,可是你不用它怎么会好,除了华为自研系统,我们是第一家和他全面合作的,我们都互相推进,一点点地更新算法和能力,才有了现在的进步。”
华为的AI芯片
科大讯飞使用的昇腾910B芯片是华为尚未正式公开发布的一款人工智能芯片,是昇腾910的升级版。
它采用了7纳米制程工艺和248纳米光刻技术,具有640 TOPS @INT8和320 TFLOPS @FP16的算力,功耗310W。
这样的性能已经接近英伟达的A800芯片了。
而且昇腾910B芯片在科大讯飞已经做过训练,在语音识别、语音合成、机器翻译等任务上都取得了很好的效果。
其它的科技公司或迟或早也会找上华为,因为华为不仅有昇腾910B芯片,还有更先进的昇腾910C和昇腾920芯片。
这些设计中的芯片都准备了5纳米制程工艺和193纳米浸没式光刻技术,具有更高的算力和能效。
比如昇腾920芯片就有1.5 POPS @INT8和750 TFLOPS @FP16的算力,功耗400W。
从规划来看,这样的性能已经超过了英伟达的A100芯片了。
最重点的是芯片制程
现在来看,这些中国的科技公司之前依赖英伟达,不找华为,主要的原因还是偷懒,因为和华为对接,需要对大模型进行剪裁,也要重新做许多适配工作。
他们一方面觉得华为的接口不多,团队适配有困难,会耽误时间,另一方面主要还是考虑芯片的制裁导致华为不能出高精度的芯片。
现在好了,美国一个禁令,这些问题都解决了,有总比没有强吧。
大模型训练消耗的是电力,制程越先进,单位训练要的电量就越小。
微软在多次大模型训练时消耗的GPU和电费就非常惊人:
微软用几亿美元,耗费上万张英伟达A100芯片打造超算平台,只为给ChatGPT和新版必应提供更好的算力。假设每个A100 GPU的成本约为10000美元,那么上万张GPU的总成本约为1亿美元以上。
ChatGPT一次模型训练需要的总算力消耗是3640PF-days,耗资约1200万美元。假设微软每年训练10次ChatGPT,那么每年的训练成本约为1.2亿美元。
以ChatGPT在1月的独立访客平均数1300万计算,其对应芯片需求为3万多片英伟达A100 GPU,大概需要的算力成本为8亿美元,每天的电费成本在5万美元左右。假设这样的用户量和业务规模保持一年不变,那么每年的运营成本约为9.8亿美元。
综上所述,微软一年时间在多次大模型训练时消耗的GPU和电费大约为:
GPU成本:1亿 + 30亿 + 1.2亿 + 8亿 = 40.2亿美元
电费成本:5万 * 365 = 1825万美元
总计:40.3825亿美元
这是一个非常惊人的数字,显示了人工智能的耗电量的可怕。
现在英伟达已经用5纳米制程来制造芯片,马上要突破到3纳米,我们还差一些。
现在就看上海微电子的28纳米光刻机了,据说多重曝光能达到11纳米,但还是不够,需要尽快突破到5纳米以下。话说发明极紫光刻技术的林本坚也是中国人,我们咋这么难呢。
目前,世界上最先进的光刻机是荷兰阿斯麦公司(ASML)生产的NXE:3400B,它采用了13.5纳米的极紫外(EUV)光源和0.55的NA,可以实现3纳米制程工艺。
而中国目前最先进的光刻机是上海微电子试运行的SMEE28EUV,它采用了248纳米的深紫外(DUV)光源和0.9的NA,可以实现28纳米制程工艺。
可以看出,中国在光刻机方面与国际水平有着巨大的差距,主要原因是缺乏核心技术和关键零部件。
比如EUV光源、高精度镜头、高速扫描平台等。这些技术和零部件都是美国和欧洲等国家掌握和垄断的,中国很难获得和突破。
但是我们不能因此就气馁和放弃,我们要坚持自主研发和创新,努力提高自己的技术水平和产业能力。
我们要相信自己有能力打造出属于自己的芯片和光刻机。
我们要向那些为中国芯片事业奋斗和牺牲的人们学习,比如林本坚、张汝京、潘教垣等。他们都是中国人,在国外学习和工作过,掌握了先进的芯片技术和知识。
林本坚曾经在美国加州理工学院(Caltech)攻读博士学位,并在那里发明了极紫外光刻技术。这项技术被认为是芯片制造领域最重要的技术之一,也是目前最先进的光刻技术。
他曾经担任过台积电的研究院长,也就是他,最近还说:
“美国人的制裁并不能阻碍中国获得最先进的芯片技术,这只能害了美国的芯片企业,让他们不能轻松的出口。而中国把省下来的这些资金投入到自主研发的芯片技术上,很快就能达到先进水平,并实现赶超”
这就是我今天要给大家分享的内容,希望对大家有所启发和帮助。
如果你喜欢我的文章,请点赞、评论、转发,让更多的人看到。
如果你有任何问题或建议,欢迎在评论区留言,我会尽快回复你。
谢谢大家的关注和支持,我们下期再见!