查看原文
其他

Vertex AI 是 Google 的一场豪赌

Founder Park Founder Park 2023-09-17

本文作者:Matthew Lynley,《Supervised》主编,专注人工智能和大数据领域。
原文标题:MapReduce, TensorFlow, Vertex: Google's bet to avoid repeating history in AI

原文链接:
https://www.supervised.news/p/mapreduce-tensorflow-bard-also-hello

Transformer,一个诞生于 Google,却首先成就了 OpenAI 的大模型基石技术,其实并不是 Google 第一次「错过」。

是第三次。

第一次发生在世纪初,Google 发布了原始的 MapReduce 基础架构,后来被 Hadoop 摘走了果实。

第二次,2015 年 TensorFlow 发布,Google 重蹈覆撤。这个框架降低了深度学习的应用门槛,可以说引发了现代机器学习产业的第一波浪潮,然而,Pytorch 后来居上。

这两次前车之鉴会在后面详细展开。

我们首先看看 Google 正在为夺回基于 Transformer 的 LLM 市场做些什么。


豪赌 Vertex AI

在刚刚结束的 Google Cloud Next 大会上,Google 非常强调 Vertex AI,为它投入了大量资源,公布一系列升级内容,并推出多款模型(包括竞争对手 Anthropic 的 Claude 2 和 Meta 的 Llama 2),甚至还邀来英伟达的黄仁勋站台。

Vertex AI 是一个机器学习全流程开发平台。可提供整个模型开发的生命周期管理,包括数据预处理、模型训练、模型库选择、模型部署和在线测试等各个阶段。开发者可以利用 Vertex AI 简化模型性能维护工作,同时支持原生数据集和 AI 集成,轻松调用预训练模型快速解决实际问题。

简单来说,Vertex AI 将构建大模型的工程能力打包了,开发者可以借助它更规范、科学地构建定制化模型,同时快速调用多个模型横向对比确定最终产出(的模型)。

但是,从开发人员和消息人士的口风来看,Vertex AI 诞生以来一直是一款令人困惑的产品,从品宣到 AI 领域的实践都是如此。

Vertex 现在可以提供多种模型并服务于各种应用场景,这样就同时与 Azure AI Studio 和 Amazon Bedrock 短兵相接了。

Google 正期望自己能靠人工智能领域首屈一指的经验和专业知识积累,在该公司历史上第一场真正决定生死存亡的作战中击败微软和亚马逊。

与此同时,它正在与 OpenAI 开展一场错综复杂的对抗赛,作战目标是构建一个强大的基础模型,并通过 PaLM 2 将模型推广出去,最终推出下一代多模态模型 Gemini。

Google 同英伟达近期公布的合作计划可能是另一件关键武器,该计划旨在重新夺回 Google 在 TensorFlow 中失去的地位。这件武器就是新的语言模型开发框架 PaxML,基于 Google 研发的一流 AI 框架 JAX 打造。

为了更好地理解 Google 面临的困境,我们先来快速回顾一下该公司第一项革命性技术 MapReduce 失败的历史。


Google 的两次错过

Google 很久以前就聘用了一批高水平的科学家和工程师,外加一群产品经理、设计师等角色,后者的职权曾一直在公司的技术人才之下。随着时间的推移,这种情况发生了变化,但大家一直公认 Google 是一个工程优先的组织。

这种战略在很长一段时间里都非常有效。Google 的开创性技术使公司能够通过搜索引擎抓取整个网络的内容,并将它们索引成单一事实来源。Google 的大部分搜索技术成果都源于一项可管理海量数据的创新:MapReduce。

目前仍在 Google 工作的 Jeff Dean 和 Sanjay Ghemawat 在 2000 年代初共同撰写了一篇关于 MapReduce 技术的论文,该技术旨在创建一个可高效管理海量数据集的框架,而这正是 Google 搜索引擎所需要的。然而,Google 并没有向公众公开这项技术,而是选择了将其主要留在内部使用。

由工程师领导的这个团队基本上没有预见到即将到来的,推动现代互联网前进的开源技术浪潮,也没有意识到业内会出现很多将这些开源技术商业化的企业。造成这个错误的背景是 Google 与开源开发社区的关系,MapReduce 也是这种关系导致的一系列不经意错误的开端。

Doug Cutting 和 Mike Cafarella 在 2006 年发布了 MapReduce 的模仿品 Hadoop,这款开源工具随后成为行业管理大量数据的通用标准,Google 无疑错过了一次非常好的机会。

随着 TensorFlow 的发布,Google 又开始面临同样的挑战。和过去一样,这款工具一经推出就成为了机器学习工具的事实标准。它为新一代人工智能产品和用例打下了基础。但它对开发人员没那么友好,这给了 Meta 插足的机会,后者随后发布了自己的深度学习框架 PyTorch。

Google 发现自己又被打了当头一棒,于是很快就尝试在 TensorFlow 中添加一些让 PyTorch 大受欢迎的特性 (例如急切执行)。可是 TensorFlow 在开发社区中的主导地位还是基本让给了 PyTorch。尽管仍有许多组织在使用 TensorFlow,但 PyTorch 已经占据了机器学习开发社区的鳌头。

随后,八位 Google 研究人员于 2017 年发布了 Transformer 论文,为现代生成式人工智能技术铺平了道路。自 ChatGPT 公开发布以来,生成式人工智能迅速爆发。Transformer 被广泛认为是人工智能领域的变革,它使创建和部署大型语言模型的工作在计算层面变得可行且实用了。

接下来的故事似曾相识。随着 OpenAI 推出 GPT 系列模型,Google 在人工智能领域的主导地位(至少之前是这样)又拱手让人。去年 11 月,随着 ChatGPT 及其继任者 GPT-4 的推出,人工智能的普及时代来临了。

OpenAI 还不是个例:Meta 发布了一个非常强大的语言模型,用的是和 Google 开创的技术类似的产物。如今,Google 的回应只是赶快出了一些像 Bard 这样不怎么样的 AI 工具,眼看它就要错失人工智能这艘巨轮的船票了。


英伟达为 JAX 背书

Google AI 战略的最后一块拼图,是以英伟达首席执行官黄仁勋登台发表的一份概略声明的方式示人的。在台上的短短几分钟里,黄宣布 Google 和英伟达一直在合作开发新的语言模型开发框架 PaxML,该框架构建在 Google 研发的顶尖机器学习框架 JAX 及其线性代数加速框架(或称 XLA)之上。

黄在台上说:“我们所做的工作是创建一些框架,从而推动那些分布在大型基础设施上的模型的发展,进而为人工智能研究人员节省时间、扩大规模、节省资金、节省能源——所有这些都需要顶尖的计算机科学方法。”

Google 在公司内部依赖 TPU 芯片和 XLA 框架(去年 10 月 XLA 也低调开源了),由此诞生了 JAX。JAX 的目标很诱人:在硬件短缺和训练成本不断膨胀的背景下,它可以在各种硬件上高效地并行分配大量训练任务。

虽然你很难看到身边有人在用 JAX,但我认为许多目光长远的 GenAI 公司已经用上它了。

JAX 代表了一种从头开始重新思考训练系统,并大幅提升其效率的理念和机遇。尤其重要的是,它可以把训练分配到各种类型的硬件上,这也是为什么黄仁勋会登台做出这一发布。

PaxML 对于英伟达来说也是一条非常有趣的护城河。

PyTorch 相当依赖英伟达的机器学习开发框架 Cuda,正是这个框架让英伟达登上了人工智能产业的王座。还有 NeMo 和 Triton,它们是英伟达试图垄断人工智能开发流程的代表性举措。但业内已经有一家大型初创公司 Modular 在构建一个开发框架,尝试打破行业对 Cuda 的依赖了,并且最近他们在 General Catalyst 的领投下拿到了 6 亿美元的估值。

Google 很可能试图通过英伟达,利用 PaxML 将 JAX 打入主流市场。Google 已经靠自研的 TPU 芯片积累了海量算力,还刚刚发布了升级版的 TPU。但 Google Cloud 也提供 H100 计算卡,说明他们在英伟达的硬件上也投入巨大。PaxML 意味着 Google 可以告诉开发人员,我们能提供比 AWS 或 Azure 更多的算力。


总结

我们刚刚度过 Transformer 论文发表六周年的纪念日。TensorFlow 于 2015 年推出,PyTorch 紧随其后。大约在六年后的 2021 年,现代机器学习基础设施这个细分市场开始成熟,创造了数十亿美元的估值。而这些新兴基础设施大都是 PyTorch 市场。

除了 PyTorch 外,我们已经开始在招聘启事中看到一些岗位对 JAX 的经验要求了。一些 AI 模型在发布时会同时提供 PyTorch 和 JAX 支持。现在 JAX 还在发展的初期,但它的机会还是很可观的——特别考虑到英伟达正在大力支持 JAX 和 XLA。

长期以来,TPU 的最大用户一直是 Google 自己,而现在他们开始在许多基础产品中换成了 JAX。它们在很大程度上是作为内部福利免费提供给 Google 员工的。

但针对 XLA 和 JAX 优化过的 TPU 可以在面向大众的基础设施上与英伟达 GPU 并行提供服务,并以 Vertex AI 的形式支持多种人工智能模型,这一图景对 Google 来说是一个非常诱人的机会。

现在 Google 正以更加大一统的 Vertex AI 来弥补自己的失误,同时可能对 JAX 投入大量资源,所以这家公司在经历了去年的低谷期后开始重新站上激烈竞争的舞台。



AGI Doer Talk 早期项目招募中

AGI Doer Talk 是 Founder Park 旗下的早期创业者分享系列。我们通过一系列围绕 AI × 垂直话题展开的线上研讨会,为从业者们提供相互切磋和友好讨论的环境。

我们也邀请更多关注大模型行业的朋友们,一起来探讨 AGI 时代的非共识和认知,跟上大模型引发的新范式革命。

如果你正在大模型领域进行创业,已经拥有产品 Demo,也想通过 AGI Doer Talk 进行交流分享,欢迎扫码报名👇:




如果你关注大模型领域,欢迎扫码加入我们的大模型交流群,来一起探讨大模型时代的共识和认知,跟上大模型时代的这股浪潮。




更多阅读

AI生成的烂图,居然可以反过来「微调模型」?

大模型下半场,关于Agent的几个疑问

百川智能发布53B大模型,今年追上GPT-3.5 ,并将更新开源模型

沸腾 251 天,访谈近百位从业者,关于大模型世界的 5 个现状

卷起来了!中文 LLaMA2 的一些工作

无法想象全闭源的世界:AGI 大会上的开源讨论

周鸿祎的大模型产品方法论:企业的5个痛点和垂直大模型的6个趋势

傅盛的AI-Native创业思考:所有创业者都要相信,这就是最好的时代

百川智能王小川:大模型创业100天,我确认找到了属于我的「无人区」


转载原创文章请添加微信:geekparker

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存