查看原文
其他

NVIDIA危机!微软、OpenAI、Google大模型公司“自产”AI运算芯片

Meta Space DAO Meta Space DAO 2023-12-21

点击蓝字 关注我们



人工智慧领域已经成为各大科技公司竞争的新焦点,NVIDIA凭借其顶尖的AI芯片技术成为了主要的受益者。然而,随着科技公司之间展开大规模模型的竞争,芯片供应短缺问题日益严重,价格也飙升不已。因此,许多科技公司开始着手自主研发芯片,传统芯片制造商也看到了这个庞大的市场机会,开始挑战NVIDIA的地位。

人工智慧领域的竞争不仅局限于OpenAI和Google等互联网巨头之间的大模型竞争,支持这些运算的芯片领域也涌现出激烈竞争,大模型的“制造者”们也纷纷加入了这一竞赛。



OpenAI 计划从CEO Sam Altman投资的一家初创公司Rain AI订购更高效的NPU芯片;

微软推出两款自研芯片Azure Maia100 和 Azure Cobalt100;

Google刚推出的新模型Gemini 1.0采用的就是自己设计的芯片 TPUs v4 和 v5e。

在此之前,英伟达一直是这些大型模型公司的主要供应商,但现在这些大模型公司正试图在一定程度上实现自给自足,他们正在向英伟达发起挑战,这其中有一些老牌芯片制造商。

美国超威半导体公司(AMD)已经发布了新一代AI芯片MI300X,同时成功从英伟达手中夺走了Meta、微软和OpenAI等三大客户。

AI芯片市场竞争激烈,但要想挑战英伟达这个“宝座”的地位,绝非易事。

大模型公司自给芯片




今年以来,NVIDIA A100、A800、H100、H800等支持AI大模型训练的芯片一直供不应求,不仅科技公司,就连各国政府和风险投资公司也加入了这场争夺。

NVIDIA目前占据主导地位,其AI芯片供不应求,导致AI市场再次面临GPU短缺问题。微软在2023财年报告中多次提到,他们对于为其云服务获取足够的GPU感到担忧。OpenAI的CEO Sam Altman也多次公开表达了对芯片短缺和高成本的不满。今年5月,他曾明确表示OpenAI正面临严重的算力不足问题,这也直接影响了用户体验,导致ChatGPT经常出现卡顿和反应延迟的情况。


据报导,OpenAI 执行 ChatGPT 的成本每天在 70 万美元。路透社指出,每个 ChatGPT 查询的成本约为 4 美分,如果此类查询增长到 Google 搜寻的 1/10,则需要预先投入价值约 480 亿美元的 GPU,每年需要花费 160 亿美元的芯片才能维持执行。


为了摆脱对NVIDIA的芯片依赖,OpenAI 正在考虑研发自己的 AI芯片,以应对全球 GPU 的短缺,缩减 GPT 的训练成本。


前几天,OpenAI 一份订购意向书曝光,Altman 任职 CEO 期间,该公司承诺从一家初创公司 Rain AI 订购芯片,金额高达 5100 万美元,而 Altman 投资了这家公司。


值得一提的,这款芯片是基于神经拟态(Neuromorphic)技术的 “类脑” AI芯片NPU,据说 “模仿了人脑的结构和功能”,支援并行和分散式地处理资讯,非常适合 AI 应用中的 “计算密集型任务”,能够实现低耗、高效地处理资讯。但目前,该芯片仍在研发阶段。


不仅是 OpenAI,微软和 Google 等大型科技公司也在一直打造更高效的芯片。

11 月 16 日,微软在年度 IT 专业人士和开发者大会Ignite上推出两款自研芯片—云端 AI芯片微软 Azure Maia 100、伺服器 CPU 微软 Azure Cobalt 100。


Maia 100 旨在为 AI 工作负载执行基于云的训练和推理,而 Cobalt 100 则用于通用工作负载。微软的资料中心预计,将在 2024 年初同时采用 Arm CPU 和专用 AI 加速器。微软表示,除了在 Bing 和 Office AI 产品上测试该芯片外,OpenAI 也正在测试该芯片。


Google也开始行动,其刚刚释出的、号称 “吊打” GPT-4 的大模型 Gemini1.0,用的就是Google自研的 TPUs v4 和 v5e 芯片。

Google称,在 TPUs 上,Gemini 的执行速度明显快于早期规模更小、效能更弱的模型。此外,Google 还发布了 TPU 系统 Cloud TPU v5p,旨在为训练前端 AI 模型提供支援,从而加速 Gemini 的开发。


包括苹果、华为等硬体厂商,越来越多的科技巨头都开始自主设计和开发自己的芯片,以满足自身的业务需求和差异化竞争。

NVIDIA 的防御与扩张





NVIDIA有自己的护城河


据英国《金融时报》 报导,今年以来,NVIDIA已经投资了二十多家公司,包括从价值数十亿美元的大型新人工智慧平台到将人工智慧应用于医疗保健或能源等行业的小型初创企业。


NVIDIA表示,公司在投资时并没有特殊条款,不要求被投企业必须使用英伟达芯片。

NVIDIA风险投资部门 NVentures 的负责人 Mohamed Siddeek 表示:“对于NVIDIA来说,进行初创企业投资的首要标准是相关性。” 他强调,“使用我们的技术、依赖我们的技术、在我们的技术上建立业务的公司,我想不出我们投资的公司有哪家没有使用NVIDIA的产品。”


NVIDIA CUDA计算平台以及软硬体生态,也为NVIDIA护城河构筑了更加坚固的河堤。


CUDA 是一种NVIDIA推出的平行计算架构,执行相同任务的情况下,支援 CUDA 系统的NVIDIA GPU 比 CPU 的速度要快 10 到 100 倍。正是得益于 CUDA 系统,GPU 才得以打败 CPU,成为今天执行大资料计算的基础。


还有成本

Futurum Group的高阶分析师Todd R. Weiss 表示,建立自己的芯片摆脱依赖 “乍一看,是一个很酷的主意”,但设计自己的芯片、建立自己的芯片制造设施,永无止境地开发更新更好的芯片路线图所需的成本,还要担心自己的供应链问题,“这并不比从他人手中购买晶片更简单。”


芯片的战场,还在芯片制造商之间


2023年12月6日,美国超威半导体公司(AMD),NVIDIA的主要竞争对手,举办了名为“Advancing AI”的发布会。在这个发布会上,AMD汇聚了微软、Meta等科技公司的高管,并正式发布了他们的新一代AI芯片MI300X。

与英伟达的H100 HGX相比,MI300X加速器在执行大型语言模型的推理任务时,无论是吞吐量还是时延表现都明显优于后者,并且价格也更加具有竞争力。

要真正降低成本,关键在于观察芯片制造商的竞争局面。只有当AMD、NVIDIA等大型芯片制造商竞相提高产能并降低价格时,成本才有望降低。而对于大型模型公司来说,自主研发芯片无疑是为了在激烈的“军备竞赛”中多一项竞争优势。


Meta、微软和 OpenAI 公司随后在 AMD 投资者活动上表态,未来他们将会使用 AMD最新的AI芯片。

·END·

往期推荐

1. 世界币(世界币)两日狂涨,新推的“世界币2.0”是什么?

2. 菲律宾封杀币安:警告明年2月前退出市场,KOL、网络推广可能有刑事责任

3. 分析师:美国政府默许Tether存在 USDT实质上是美国CBDC!

4. 俄罗斯推“挖矿合法化”吸外汇!拟立法让矿工将加密货币作为商品出口



点赞   分享   在看

点一下    给小编 💕 加个油

继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存