答 AI 的 6000 亿美元问题:LLM 应用会如何崛起?|AGIX 投什么
作者:haina,Siqi
编辑:Siqi
市场在 AI 基建环节的巨大成本投入和实际收入增长之间的差距有多大?这是美国红杉在 AI's 600B Question 中想要探讨的问题。在红杉美国的计算中,现阶段 AI Capex 投资加总后,对应的 AI 回报应该在 6000 亿美元,且这 6000 亿美元应该是最终端应用能创造的收入。
在新技术早期就要求终端实现大规模实际收入并不现实,AI 的 6000 亿美金问题的核心是,作为投资人,应理性把握 AI 大规模放量的时间线。为了理解终端用户对 GenAI 的态度和应用深度,我们梳理了 2024 Q2 的几篇 CIOs 调研,发现企业端部署 GenAI 呈现出如下趋势:
• IT budaget 视角下,企业部署 AI/LLM 的速度不断提升,企业对 GenAI 的重视带动了 data-readiness 的需求;
• 受限于模型能力、成本、和现有工作流耦合成本等因素,企业端放量的时间线和半年前相比在放缓,但 CIO 们认为,到 2025 年,GenAI 一定会进入到 massive adoption 阶段;
• “如何用好 AI”正成为企业大规模部署 GenAI 过程中新的阻碍,其中既包括企业对 AI 工具的理解不够,也有市场供给的原因,既暂时还没有能满足企业部署 AI 的工具(或 vendor)。
……
除了 CIO 调研,我们也根据 earnings call 对 AGIX Index 覆盖的公司表现进行了追踪。:
• Microsoft(MSFT)、Amazon(AMZN) 等头部云厂商在价值链上的重要位置仍在 Enterprise AI 主题下延续,虽然短期财报层面部分数据表现不及预期,但并不影响其中长期的价值;
• 软件板块, ServiceNow(NOW)、Palantir(PLTR)、Cloudflare(NET)、Elastic(ESTC)等因为能帮助企业有效部署 GenAI ,已经开始在 AI 主题下有了积极的商业转化,同样值得布局。
💡 目录 💡
01 企业侧 GenAI 渗透速度比想象中更快
02 企业是如何用 AI 的
03 AGIX Top Picks
01.
企业侧 GenAI 渗透速度比想象中更快
1. 企业部署 GenAI 的速度在加快
虽然训练、推出新一代 SOTA 模型的周期在拉长,但大企业采用 AI 并没有降速。
2023 年是 AI 在企业端渗透率最快的一年。在麦肯锡的调研中,AI 在企业侧的渗透率从 55% 增长到 72%,增长了 17 个百分点,如果把 AI 缩小到 GenAI 的范围,则速度更加惊人,过去一年从 33% 增长到 65%,增长了一倍。
Source: The state of AI in early 2024: Gen AI adoption spikes and starts to generate value, May 30, 2024|Survey, McKinsey & Company
企业分配给 AI 的预算支出也在增加。根据 Morgan Stanley 发布的 2024Q2 US Tech Report,2024 年Q2,企业 AI/ML 相关的项目预算增速为 16.3%,Q1 时为 13.7% 。企业前 10 大项目开支中增速没有下降的只有 CRM Application(+2.3 个百分点) 和 Storage HardwareData(+1 个百分点),而这两个板块也是企业部署 AI 的关键设施。
Source:2Q24 CIO Survey – Stable Budgets, Nervous CIOs, Morgan Stanley
2. 2025 年将迎来 GenAI 在企业侧的 massive adoption
即便所有受访企业都已经认知到 GenAI 的重要性,但不同规模企业部署 AI 的阶段不同。
根据 UBS 发布的企业在 AI 领域的支出调研,绝大多数中大型企业用 GenAI 的状态主要集中在研究 use case 做概念验证和小规模测试部署这两个阶段。其中, 45% 的大型企业已经开始小规模测试部署,40% 的大型企业已经明确了自己的 use case 并开始进行概念验证,中型企业在这两个阶段分别为 44% 和 38%。
小型企业则恰恰相反,主要集中在两端。在调研中既有 25% 的小型企业已经进入到规模化部署阶段,也有 25% 还处于调研阶段。之所以有更高比例的小型企业能快速规模化部署 AI 可能和企业规模小带来的决策灵活性、工作流相对而言并不复杂、更加成本敏感等因素有关,而另有 25% 仍处于调研环节则可能和企业的技术储备、自身业务发展 roadmap 相关。
Source: U.S Software, AI Survey of Enterprise Execs, June 2024, UBS
但总体上,我们可以乐观预计,到 2024 年末,会有更多中大型企业扩展 GenAI 在企业内的部署规模,甚至开始将其应用到更广泛的业务流(In production at scale across units)当中,2025 年会迎来 GenAI 在企业侧的 massive adoption。
如果不能正确认知模型“渐进式解锁”的特点,就会高估短期内的模型能力进展, 和 LLM 真正作用于实际业务的速率。这一点也体现在 CIO 们 AI/LLMs 真正应用到企业生产的时间线的预期变化上。从 2023 年 Q3 到 2024 Q2,CIO 们对于用 AI 的时间线预估明显在放缓。
在2023 年 Q4 的调研中,市场对于 GenAI 的应用周期最为乐观:1/3 的受访者认为,半年后 GenAI 就可以被用于企业的实际业务生产中(in production),与此同时, 1/3 的企业表示对于如何使用 GenAI 还没有任何计划。
到 2024 Q1 和 Q2时,企业对于 timeline 的判断则趋于审慎乐观,在 2024 Q2 最新的调研中,受访者中,26% 的人预期在 2025 年后才会看到 AI/LLMs 进入到企业生产流程中,25% 的人认为会在 2024 H2 出现。
Source:2Q24 CIO Survey – Stable Budgets, Nervous CIOs, Morgan Stanley
3. 中短期内,企业的 GenAI 用例还是集中在内部场景
在过去 4 个季度中,企业用户对于如何在内部使用 AI/LLM的观点也在发生变化:
• 将内部生产力提效作为部署 AI/LLM 目标的企业从 15% 增长到了 23%,从第 3 提升至第 1;
• 将 AI/LLM 用于优化劳动力成本(例如客服、财务等板块业务流程的简化)的企业从 10% 提升至 18%;
• 虽然仍旧是前 3 大用 AI/LLM 部署的方向,但提升客户满意度目标预期则从 19%下降至 15%,从第 1 降至第 3 位。
Source:2Q24 CIO Survey – Stable Budgets, Nervous CIOs, Morgan Stanley
这一变化相当有趣,企业对于 GenAI 的预期从偏对外的、前台业务场景转向了内部降本增效,侧面反映出在过去 9 个月的企业的 AI/LLM 尝试在哪个场景任务中更加有效。在这种共识下,我们预计,中短期内,企业还是会更多的将 AI 用于内部场景中。
尽管 Gen-AI 的潜力正被普遍认识,但 Bain 调研显示目前只有约 35%的公司能清晰描述如何从 Gen-AI 中创造商业价值。从探索阶段向大规模实施的完全转变,可能不会像我们预期的那样迅速,而是一个 3-5 年的渐进过程。
为了量化 GenAI 的价值潜力,麦肯锡选择用 GenAI 会带来的影响金额、以及对功能性支出(funcitonal spend)的影响占比对企业不同 GenAI 用例场景进行预测分析。
在所有的功能板块中,GenAI 对市场营销与销售(Sales & Marketing)、软件开发(Software Engineering)、企业内 IT(Corporate IT) 和客户运营(Customer operations)以及产品研发(Product R&D)等几个板块产生的影响最明显,在 GenAI 每年带给企业影响总规模中,这几个板块总共占到了 75% 左右。
Source:The economic potencial of generative AI, June 2023, McKinsey & Company
除了能直观感受到用例集中外,我们也发现,客服、软件开发、企业 IT 服务这几个板块的 GenAI 价值潜力既体现在带来的影响金额足够大,也体现在这些金额占 functional spend 的比例足够高(达到 30%~40%)。而 Sales & Marketing 的 GenAI 价值潜力则主要来自于这两类 use case 带来的绝对金额。
4. “如何才能用好 AI?”是企业大规模部署 GenAI 的阻碍
在前面我们提到,企业规划部署 GenAI 的目标时,增长最快的板块是内部生产力的降本增效部分,而直面客户、提高用户体验则从 2023Q3 的第一名(占比 19%)在 2024Q2 下降至 15%,这一变化也是不同用例在过去一年中实际效果和用户满意度的结果体现。
比如,在 Bain 的 AI Survey 中,从 2023 年 10 月到 2024 年 2 月,企业用户对销售运营、软件代码开发、市场营销、客户服务等领域的 AI 应用满意度有一定提升,其中,销售运营从 76%提升至 82%,软件开发从 77%提升至 81%,但在法律、运营和人力资源等领域,企业用户对于 AI 效果的满意度下降却十分明显,法律从 71%下降至 53%,运营从 81%下降至 65%。整体上,企业对于 AI use case 的满意度相对于 2023 年末略微下降。
Source:AI Survey: Four Themes Emerging, June 2024, Bain & Company
企业对 AI 在不同任务上满意度的变化其实也反映了当下企业部署 AI 的会遇到的最大的摩擦力:预期和模型能力之间的不匹配。
对于文本属性强、简单重复性工作,LLM 基本能够满足用户预期,但涉及到复杂推理、domain knowledge 和复杂 context 的任务,受到模型能力的限制,这种预期偏差会更加明显。
对于 AI use case 没能达到预期主要原因,企业用户认为是模型性能和输出质量是主要因素,分别有 43%和 42% 的受访者提到了这一点,但需要指出的时候,从 2023 年 10 月到今年 2 月,这两个因素占比其实是下降的,其中输出质量这一因素下降了 9 个百分点,模型性能则下降了 1 个百分点。
相较于模型能力对 AI use case 负面影响的下降,“如何用好 AI”反而逐渐成为新的阻碍因素。例如,受访者中有 38% 的人认为,之所以 AI 的使用不及预期是因为“使用者对如何有效利用 AI 工具的理解不够”,这一占比上升 10 个百分点,增长最多的则是“没有满足企业用需求 AI 的 vendor 或工具”,有接近 1/3 的受访者提到了这一点,相较于 2023 年 10 月增长了 16 个百分点。
Source:AI Survey: Four Themes Emerging, June 2024, Bain & Company
也正因为目前还没有足够好用的工具满足企业用 AI 的需求,因此在布局 AI 时,企业选择自建(Do-it-yourself application)的比例高于选择现成产品(Off-the-shelf application)。但这一偏好根据细分场景和任务有所不同:
• 在软件开发、营销与销售以及知识工作者提效等通用性较强的领域,第三方解决方案相对成熟,因此企业自行开发和采购第三方方案接近 1:1,并且随着第三方方案的不断进步和成熟,预计未来将有更多的企业选择现成方案,以提高 GenAI 的实施效率,我们相信,能率先做好这类通用任务的软件将会更快获得企业用户;
• 当涉及到具体的 domain knowledge 或者企业敏感数据、复杂 context 等非通用型任务时,企业明显会更偏好自己开发对应工具。
Source:AI Survey: Four Themes Emerging, June 2024, Bain & Company
Klarna 就是一个典型的例子,Klarna CEO 表示,团队内部的 AI Assistant Kiki就是 Klarna 团队自己开发的。除了因为当时市场上并没有满足需求的产品外,我们认为,还有一个因素在于 Kiki 以及其他类似的 AI 项目都是团队内自下而上的试验,所以不太存在先争取预算购买 vendor 服务或产品,再开发内部 AI 工具的流程。
数据完备度(data readiness)是企业 AI 用例部署速度、实施效果的重要影响因素。根据 Bain 的 AI Survey,截止 2024 年 2 月,仅有 5% 的企业觉得自己的在数据网完备度上已经准备充分,67% 的科技公司和 69% 的非科技公司认为自己的 data readiness 还不够,资源、数据安全这两个影响因素情况类似。可以预见的是,为了更好地部署 AI,企业会在数据相关领域持续投资。
Source:AI Survey: Four Themes Emerging, June 2024, Bain & Company
02.
企业是如何用 AI 的
按照场景划分,目前企业的 LLM 用例主要在以下几方面:
1. 企业搜索:最 LLM-native 的场景
企业搜索是 LLM 带来的新场景。LLM 的核心能力之一是分析和学习大量结构化和非结构化数据,并理解其中的结构和含义,将信息转化为知识并传递给人类。大模型的 “知识发现”能力体现在消费者端是对 Google 等通用搜索的改造,带来了 perplexity 这样的公司,在企业侧,企业内部的知识管理也会因此发生变化。
除了 ServiceNow、Glean 这类提供 End-to-End 的搜索服务外,类似于 Elastic 这样的帮助企业产品中嵌入 LLM 搜索、提供 RAG 服务的底层引擎也会在这个过程中获益。
Use Case:
•构建企业专属的 Wikipedia:
根据 Klarna CEO Sebastian 的公开分享,Klarna 除了用 AI 改善客服效率外,还推出了一个内部 AI 助手, Kiki 。Kiki 是 Klarna 内部的知识图谱,可以直接在 Slack 中调用。员工既可以用 Kiki 来搜索具体的信息和文档,还可以直接和 Kiki 对话获取想要的答案。Kiki 推出 1 年以来平均每天要回复超过 2000 次提问,85% 的 Klarna 员工通过 Kiki 来即时找到对应的内部资料,公司内的信息分发效率也由此提升,在公司管理层看来,Kiki 已经成为 Klarna 重要的企业资产。
根据 ServiceNow 的观察,企业搜索是现阶段 ServiceNow 用户的 GenAI 高频场景之一。在此之前,企业用户想要搜索公司内的某些信息时,只能根据关键词搜索,得到的结果也是内部知识库链接,但在 LLM 支持下,员工企业内部各个部门的知识库搜索到需要的内容,利用 LLM 生成总结内容。
ServiceNow 在最新的 earnings 中提到,生物科技公司 TriMedx 主要将 NowAssist 用于 IT 业务的信息搜索,开发人员生产力由此提升了 22%,三个月内团队中 50% 的开发人员都开始积极使用 NowAssist。
同样提供企业搜索服务的 Glean 也提到,Webflow 在引入 Glean 后,团队因此节省的工作时间超过 300 小时,在此之前,因为这些信息散落在 lack、Zendesk、Jira、Confluence 和 Google Drive 等超过 20 个产品和数据源头上,所以团队成员要找到某个具体内容相当麻烦。综合测算下来,部署 Glean 的 ROI 达到了 3 倍。在 Glean 的帮助下,Webflow 还优化了新员工的入职流程。同样部署 Duolingo 预计通过 Glean 每月能节省超过 500 小时的工作时间,这相当于每年节省的价值超过 110 万美元。
2. AI 客服:LLM 渗透最快的场景
我们在对 AI 客服公司 Kore.ai 的分析中提到过,目前高达 50% 的客服互动都属于简单直接的类型(例如密码重置、包裹查询、退货),根据 Morgan Stanley 的报告,目前全球大约有 1700 万名客服人员,所代表的劳动力市场约 2000 亿美元。除了是典型的重人力场景,企业有极高的降本动力外,客服场景的任务特性也和 LLM 能力高度契合,因此,LLM 出现后,我们认为现在是关注 AI 客服市场的好时机,事实上,AI 客服也确实是 LLM 渗透最快的场景之一。
Use Case:
• Klarna :
Klarna CEO 曾公开分享过团队的 AI 客服实践。AI assistant 是 Klarna 基于 OpenAI 模型推出的 AI 客服工具。在部署的第一周,Klarna AI assistant 就已经处理了 230 万的客服需求,占到了公司客服请求的 2/3,相当于 700 名全职人工客服的工作,AI 还将解决客户问题的平均时间从 11 分钟缩短至 2 分钟,预计会为 Klarna 带来了约 4000 万美元的利润增长,而现阶段 Klarna 收入在 20 亿美元左右,所以 AI 带来的利润改善相当可观。
为了保证 AI 客服的输出质量,比如要让模型理解 Klarna 的业务、客服场景下使用的语言规范等。在搭建 AI 客服的过程中,除了使用了 RAG 架构,还从一开始就系统性地构建了专门的文档和手册。
• Walmart :
用 AI chatbot 响应、解决需求也可以用在业务合作场景中。Walmart 也在尝试使用 chatbot 自动化供应商谈判。在与 89 家供应商的试验中, chatbot 与 64%的供应商成功达成了交易,平均节省了 1.5% 的成本,并延长了 35 天的付款期限,加强了供应链效率。
3. Sales & Marketing:
不论是 CIO 调研,还是海外独角兽团队的实际访谈中,都能明显感受到 Sales and Marketing 都是 LLM 应用比较广的场景:
• Sales & Marketing 相关任务和 LLM 的文本生成能力相当契合;
• 这些场景下,文本需求量极大,例如,SEO 这类任务中需要大量的内容产出;
• 和客服场景的“降本”动机不同,Sales & Marketing 中引入 LLM 还包含有企业获得收入增长的预期,例如通过给 sales 提供 AI copilot 来实现更高的销售转化率。
Use Case:
• Walmart “Ask Sam”:
Ask Sam 是 Walmart 为店员工设计的智能助手,它能够回答员工的各种问题,比如在店内找到特定商品、查询价格等。这个工具不仅提高了员工的工作效率,还优化了店内的操作流程,让员工能够更快速、更准确地完成日常任务。
4. 产品开发:和生产力最近的场景
产品开发可以分为两类,一类是涉及到代码相关的任务,一类则非代码类任务,在这两类场景中,我们也都分别都观察到了 LLM 用例。
代码生成
代码生成是普及度最广的 LLM use case,虽然目前模型的代码生成能力还不能直接代替工程师,但对代码写作效率的提升已经得到验证。在 Duolingo 的案例中,因为引入 GitHub Copilot,内部开发速度提高了 25%,代码审查的响应时间缩短了 67%,Duolingo 的 CTO Severin Hacker 强调,对于管理着庞大代码库的企业来说,GitHub Copilot 尤其有效,它能帮助团队更高效地管理和扩展技术栈。
Github Copilot 在 2021 年 10 月初次推出,当时是基于 120 亿参数量的 OpenAI CodeX,随着 GPT 的不断迭代,Github Copilot 的代码能力不断提升,也从自动补齐渗透到更多开发环节中。Github Copilot 是目前使用最多的 Coding 工具,在 UBS 调查中占 65%。Copilot 对于 GitHub 的增长推动也很明显,现在 GitHub 的年收入已达到 20 亿美元,占今年 GitHub 收入增长的 40%以上。
Source: U.S Software, AI Survey of Enterprise Execs, June 2024, UBS
除了采用 Github Copilot、AWS Code Whisper 等代码生成产品,也会有一些公司选择自己开发,基于开源模型、利公司内部代码库进一步训练模型,从而更好的针对公司业务需求提供帮助,例如 VMWare 就采用的是 HuggingFace 的 StarCoder 模型。
惠普则是把 GitHub Copilot、GitHub Enterprise、Azure DevOps 和 Visual Studio 综合到一起,构建了一个高效的软件开发生态系统,改进了开发者工具链、管理平台,以及支持开发社区的应用程序。这使得他们能够更快地编写和审查代码,同时也提高了对旧代码的评估和更新的效率。
内容生成:
在产品开发中,除了代码环节,还有一部分文本类任务也可以通过 LLM 来实现,这一点在教育类公司上体现最为明显。
Duolingo CEO Luis von Ahn 在财报会上提过,在 GPT-4 之前,Duo Radio 这一新功能的开发上线可能要 5 年时间,但在 GPT-4 的帮助下,团队可以更快速、大规模地生成内容,所以只用了 3 个月就上线了,除了 Duo Radio 外,因为 LLM 内容生成速度足够快、质量更加稳定、成本更低,因此团队有机会做更多的产品测试来帮助产品迭代,把 Duolingo 做 A/B test 的优势最大化。此外,因为 LLM 的引入,Duolingo 在去年还砍掉了一批外包翻译人员,缩减了产品开发成本。
OpenAI 投资的 Speak 也将 LLM 用在了课程开发上,不过和 Duolingo 相比,他们使用得还比较浅,更多是借助 LLM 进行 brainstorming。
5. 垂直场景:
因为构建垂直场景下的 LLM Copilot 要求更多的行业 knowhow,并且在一些情况下还需要考虑到企业数据安全等问题,因而现阶段, LLM 在这些场景中提供的功能仍围绕通用任务和场景展开,但也正如在 CIO 调研中呈现的,金融、法律等场景下,LLM 已经显现出成本降低的效果。
Use Case:
•电商:
Sidekick 是 Shopify 开发的 AI 助手,是一个 all-in-one 的电商 copliot,底层模型是在 Llama2 的基础上结合 Shopify 自有数据 fine-tune 。
对于商家来说,Sidekick 除了能帮助实现库存管理、商品上架、物流追踪等后台任务自动化之外,还能提供更智能的业务和订单分析,并且在 Q&A 的方式就可以完成,能够理解、解决商户的个性化问题。
• 法律:
在海外独角兽之前对于 LLM 和 LegalTech 结合的分析中,我们提到 LLM 对法律行业最直接的影响体现在提升 10x 效率,因为培养、雇佣律师的成本都非常高,LLM 可以用来协助律师查找法条及案例,起草、审核合同等基础、重复性工作,让律师专注制定核心方案策略。
全球房地产投资公司 GTIS Partners 使用 Robin AI 来优化尽职调查问卷(DDQ)的流程。他们的挑战是 DDQ 文档没有集中存储,查找困难,所以完成 DDQ 需要在海量的文档中搜集信息,需要至少 5 到 10 天。Robin AI 在这个场景中,就像是企业 DDQ 专属的 Perplexity,员工现在只需打开 Robin AI,利用其搜索功能,就可以在短短 1 至 3 天内搜集到完成 DDQ 所需的全部信息。
• 金融服务:
Morgan Stanley 开发了基于 GPT4 的 AI 助手,作为财富顾问快速访问公司知识库的 Copilot,在处理客户咨询时发挥了重要作用。这个 AI 助手使员工能够迅速找到相关信息,为客户提供专业、准确的答复。它还能帮助分析市场趋势,提供投资建议,并推荐合适的金融产品。
03.
AGIX Top Picks:
除了 CIO 调研,在近期的财报季中,我们综合云厂商、关键软件公司的表现,也能够明显感受到,企业客户对于 AI 的 ROI 是相当认可的,也许短期内企业部署 AI 的进度和深度低于热钱的过度预期,但长线来看,当前是不错的布局点。
Thesis 1: 企业大规模部署 LLM 会成为云厂商的 AI 新叙事
除了模型竞赛外,在 2025 年,企业大规模部署 LLM 相关应用会成为云厂商的增长叙事之一。首先,LLM 会加速云的渗透,根据 UBS Survey,仅有 13% 受访者企业选择 on-prem 的方式来部署 LLM,另一方面,企业部署 AI 规模扩大势必也会带来 inference cost 的增加,从而带来云厂商收入的增加。
• Microsoft( MSFT)
虽然微软本轮财报中, Azure 增速不及预期,但中长期来看,我们仍旧很看好 Azure 以及 MSFT 的位置。根据 2024 2Q 数据,微软总体销售和利润增长超出预期,但一致汇率下 Azure 云服务收入同比增速 30%,在此前指引的下限,低于投资者预期。
短期的业务波动不会影响我们看好 MSFT 的大逻辑:微软的 AI 布局值得 bet。微软 Azure 会持续受益于 OpenAI 的“独家”云基础设施提供商身份。OpenAI 模型在企业用户中仍是首选模型。
除了模型服务外,微软也正从企业对数据管理需求的增长中获益。随着客户寻求更全面的集成解决方案,微软 Synapse 数仓产品与 AI 技术栈一起销售的策略占据优势。同时,与 Databricks 的紧密合作,可能会增加客户对 Azure 核心数据存储服务的需求。
应用端,GitHub Copilot 也推动了 GitHub 的增长,GitHub 年收入达到 20 亿美元,而 Copilot 占 GitHub 今年收入增长的 40% 以上。不过,微软 365 Copilot 短期 Adoption 可能并不理想:虽然微软 CEO Satiya 在最新的电话会议中表示老客户订阅在增加,但没有透露任何数据。
• Amazon( AMZN)
我们看好 AMZN 的逻辑和 MSFT 相似。首先,AWS 是最大的 CSP,根据 UBS 的调研,AWS 是企业用户在 GenAI 场景下仅次于 Azure 的选择,并且在市场份额上还在追赶,在模型服务层,AWS 和 Anthropic 的合作相当深度,Anthropic 的 Claude Sonnet 3.5 发布后在开发者端迅速收获了高口碑,而 3.5 系列模型的陆续发布极大可能会推动 AWS 获得更多客户和市场份额。
和微软相比,AWS 对中小企业更友好,尤其对 start-up 更友好。在销售策略上,微软预期通过 AI 来推动其他产品的销售,比如推动 Office365 和 Windows 的销售。而 Amazon 就更开放一些,如果我们相信 AI 会产生一个新的独角兽或者产生一个新的颠覆式的公司,那么这个公司很有可能是 AWS 的客户。
Thesis 2: 帮助企业更好地部署 AI
在前面的调研中,关于 AI use case 不及预期的问题上,模型能力对 AI use case 负面影响的下降,“如何用 AI”反而逐渐成为新的阻碍因素,而这里面“没有满足企业用需求 AI 的 vendor 或工具”被越来越多企业提及。也因此,我们认为,在企业投资 AI 趋势不变的情况下,能够帮助企业用好 AI 的软件会直接受益。沿着这个逻辑,ServiceNow、Palantir 、 Cloudflare 和 Elastic 有更大机会受益于 AI 的软件公司 。
• ServiceNow( NOW)
我们在《AI 是如何重塑软件》中对 ServiceNow 受益于 GenAI 的逻辑进行过分析。因为产品布局足够充分、基本覆盖了企业 workflow 关键环节,所以 ServiceNow 可以很顺滑地将 GenAI 和企业具体业务场景结合,“One code、One data model”的技术主张也在数据层面提供了前提。
Now Assist 是 ServiceNow 在 2023 年底发布的 GenAI 产品,已经覆盖了 ServiceNow 的几个主要套件产品,包括 ITSM、CSM 等。以 Now Assist 面向 IT 工作流产品线的功能为例,它首先增强了面向用户的虚拟助理能力,能够提供详细的历史工单摘要,并能够以 Q&A 的方式提供对支持问题的回答,而不仅仅是搜索结果。并且它还能为完成的支持事件生成最佳实践文档。Now Assist 在 Now Platform 中还能提供提供自然语言生成代码、工作流和流程 Playbook 等功能。Now Assist 也用于客户工作流和 HR 服务等套件应用,起到非常类似的作用。
在 ServiceNow 发布的 2024Q2 的财报中,公司在 Q2 的收入达到 26.27 亿美元,同比增长 22%,超出预期 2700 万美元。Now Assist 被认为是 ServiceNow 历史上增长最快的产品,根据 2024Q2 财报,NOW Assist 的净新年化合同价值(NNACV)在当季度实现了环比翻倍,并获得了 11 个超过 100 万美元的订单,其中 2 个超过 500 万美元。此外,Now Assist 的 upselling 效应十分明显,虽然它相比上一代平台 ServiceNow Pro 提价 30%,但依然十分受客户欢迎。
• Palantir( PLTR)
Palantir 是我们目前看到 AI 应用场景最独特、且企业端反响很好的公司。PLTR 相当重视 AI,在最新的业绩会上,PLTR 管理层将其 AIP 平台比喻为 “Enterprise AI 时代的 operating system”,也将主要的增长动力归功于 AI。
Palantir 的 GenAI 没有去卷很火热的聊天机器人、企业搜索等赛道,而是是基于数据分析帮助企业业务决策,这和 Palantir 数据平台 Palantir Foundry Ontology 架构上的壁垒有关。Palantir 过去 10 年中一直在 Ontology 上持续投入,真正能做到将数据自动转化为业务逻辑,与此同时还能保证数据安全性。
在销售策略上,Palantir 采用的是 AIP Bootcamp 的形式,类似于企业定制咨询结合方案落地,考虑到目前很多企业,尤其是非科技领域的公司对于如何落地 AI 并没有很清晰的理解和规划,所以能让企业直接看到落地效果的方案也更容易撬动企业的 AI 预算。CEO 也明确表示过,因为 Palantir 系统背后逻辑很复杂,所以能让客户理解和感受到价值也是一个很重要的工作,在 Bootcamp 的模式下,CEO 认为他们的客户现在比投资者和投资市场更理解他们产品的价值。
根据最新的 earnings call 中,从 Q2 开始,公司的 AIP 平台开始向实际交易转化。Palantir 在 2024Q2 实现了美国地区商业收入同比增长 55%,如果排除掉战略合同,则同比增长能达到 70%。
• Cloudflare( NET)
Cloudflare 的核心业务是提供 CDN、网络安全、DDos 防御和域名服务,全世界有 20%的互联网流量都经过了 Cloudflare 的网络代理。
在 GenAI 主题下,Cloudflare 也推出了一系列产品,其中最核心的是 Workers AI。Workers AI 可以让用户将一部分主流开源模型部署在 Serverless GPU 上面,为客户的 AI Chatbot 嵌入提供支持。在 FY2024 Q2 中,Cloudflare 官方披露,Workers AI 推理请求环比增长 700%,平台上的活跃开发者数量增长至超过 240 万,四个月内增长了 20%。随着企业部署 AI 的渗透率不断提升,Workers AI 明显可以受益于这部分需求的增长。
Cloudflare 的另一个受益点则来自于 Apple Intelligence 带来的潜在增量。根据 Apple 官方信息,Apple Intelligence 采用了一个名为 PCC(Private Cloud Compute)安全方案,在 PCC 的设计中,信息传输环节,加密后的 AI 请求不会直接被传输到计算设备上,先转去一个三方 OHTTP ,隐藏设备的源 IP 地址,从而防止攻击者利用 IP 地址来识别请求或将请求与设备用户联系起来。
Apple 官方 blog
在此之前 Cloudflare 已经和 Apple 在 iCloud 隐私服务 iCloud Private Relay 上达成了合作,因此,市场普遍认为,PCC 方案中的 OHTTP 合作方也极大概率是 Cloudflare。
随着 Apple 在今年秋天逐步推出 Apple Intelligence,端侧的 AI 请求都会成为 Cloudflare 的增量。
• Elastic( ESTC)
Elastic 主要为企业提供搜索内置解决方案,围绕搜索,又延展出了可观测性(Observability)和安全(Security)服务。2023 年,公司抓住了搜索和 GenAI 的结合,推出了一系列搜索相关的产品和服务,其中最核心的是 Elasticsearch Relevance Engine (ESRE)。
ESRE 是去年 6 月推出的产品,它提供了一个原生的向量数据库,允许客户为基于 AI 的应用程序创建、存储和搜索向量嵌入,从而提供更相关、精确的搜索结果,为了避免 LLM 的幻觉、对垂直领域理解不够、个性化限制等缺点,ESRE 也采用了 RAG 结构。
ESRE 最大的优势在于易用性,如果企业客户如果已经在使用 Elastic 的产品,那么配合自身的数据集,就可以更低摩擦地在自己的产品或业务流内来实现 LLM 驱动的对话式搜索,例如前面提到的 DocuSign 的案例。
我们观察到,SaaS 工具中推出基于 Chatbot 的 Q&A 的交互、对话式搜索成为一个普遍趋势,Elastic 借助自己搜索场景内的积累和客户资源优势可以很好的抓住行业 beta 获得增长。
**本文仅作为科普分享及学习资料,不构成任何投资建议或金融产品推荐,并且及不应被视为邀约、招揽、邀请、建议买卖任何投资产品或投资决策之依据,文中所涉及的分析、观点及结论均为作者基于公开信息的研究和主观判断,不代表任何投资机构或金融机构的官方立场,亦不应被诠释为专业意见。投资有风险,入市需谨慎。**
排版:Fia
延伸阅读
Perplexity:并不想替代Google,搜索的未来是知识发现
AI是如何重塑软件公司的?|AGIX投什么
Kore.ai:LLM能否为AI客服带来新一轮洗牌与机遇
Klarna:估值456亿美元,欧美“花呗”如何挑战 PayPal
Writer:企业级全栈式文字生成平台,如何对抗 ChatGPT 冲击?