查看原文
其他

英伟达黄仁勋:将通过中国云服务商提供AI超算能力

直新闻 2023-03-31
直新闻是深圳卫视全媒体新闻品牌
由《直播港澳台》团队出品

更多分析请下载直新闻APP
参与评论请在新浪微博@直新闻

3月22日,在美国英伟达(NVIDIA)公司举办的年度GTC开发者大会上,其CEO黄仁勋发表了名为《切勿错过AI的决定性时刻》(Don’t Miss This Defining Moment in AI)的演讲,在长达78分钟的视频中,他四次用“iPhone时刻”来形容AI当下的发展,并称“这将是我们迄今为止最重要的一次GTC大会”。英伟达在会上不仅发布了可为ChatGPT提速10倍的专用GPU芯片,还向芯片制造业甩出一枚技术“核弹”。

针对算力需求巨大的ChatGPT,英伟达发布了NVIDIA H100 NVL,这是一种具有94GB内存和加速Transformer引擎的大语言模型(LLM)专用解决方案,配备了双GPU NVLINK的PCIE H100 GPU。黄仁勋表示,当前唯一可以实际处理ChatGPT的GPU是英伟达HGX A100(OpenAI便是使用A100 GPU训练和运行ChatGPT),而H100 GPU的处理速度比A100 GPU快十倍,可以将大语言模型的处理成本降低一个数量级。

光刻是芯片制造过程中最复杂、最昂贵、最关键的环节。会上,英伟达宣布了一项改变光刻行业的应用——通过光刻计算库cuLitho,将计算光刻加速40倍以上,大大提高芯片代工厂在这一工序上的效率,为2nm以及更先进制程的到来做好准备。台积电、ASML、新思科技等公司均参与合作并引入这项技术。其中台积电将于6月开始对cuLitho进行生产资格认证。

另据第一财经独家报道,英伟达CEO黄仁勋表示:“我们在欧美与云服务提供商合作,提供英伟达的DGX系统AI超级计算机的能力。在中国,我们有特别定制的Ampere和Hopper芯片。这些会通过中国云提供商,比如阿里巴巴、腾讯、百度这些企业提供落地的能力,我完全相信他们有能力去提供顶级的系统服务,对于中国初创公司一定会有机会来开发自己的大语言模型。”

来源丨第一财经 金融时报 财联社

编辑丨刘立平,深圳卫视直新闻主编


推荐阅读

‍‍

更多精彩内容 搜索微博“直新闻

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存