2024会是企业级AI发展的元年,16个2B领域正在形成的趋势与“非共识”
“
最近在硅谷考察,见了 YC Batch 、GTC和湾区这边的创业者后的一大感受是大家会更多关注 Infra 和模型的创业,应用层的创业以 B 端产品为主。因为背靠硅谷对技术的高接纳程度,和创业团队聊下来一个很有体感的趋势是企业对 AI 的接受和付费意愿有明显的增长。对比国内,这边对于 AI 在企业内的落地节奏也相对较快,比如某大银行的手机 APP 的搜索栏已经全面和 AI chatbot 结合并合二为一。
美国某大行的手机银行搜索栏
因为我自己也在企业里探索 AI ,作为一个偏算法的产品经理,虽然在有了接口之后自己的技术模型全面转向了大语言模型,但对于其真正投入到生产环节,即模型直接面向消费者还需要很多机制的变化和问题待解决。最近 a16z 发布的一篇调研报告正好通过真实调研了 70 家前 500 公司的 AI 应用情况,给出了 Gen-AI 的 B 端产品达到企业级应用的核心问题和几大趋势,内容涵盖了目前个人切身体会到的关键卡点和正在形成的“共识”,虽然 2B 蛮难做,但变化也正在发生,值得交流探讨。
最近看到的一个测评产品,硅谷创业者也以 Infra 和面向程序员的 B 端产品为主
“
Sense 思考
我们尝试基于文章内容,提出更多发散性的推演和深思,欢迎交流。
2024 年会成为 Gen-AI 技术在 B 端发展的元年,企业将 AI 的预算从创新支出归入经常性收入,能够识别痛点并找到AI解决方案的公司会实现飞速发展。目前对于使用 AI 的 ROI 判断仍然比较模糊,但模型测评和效果评估依然重要。
企业正在偏向使用“多模型+开源模型”, a16z 预计 2024 年开源模型与闭源模型在市场中的比例将从去年的 2/8 转变为 5/5。满足数据安全的可控性、可定制模型是企业选择模型的关键。同时特别值得注意的是,不同的开源/闭源模型变得趋同,因为企业更会拿微调的开源模型和微调的闭源模型的性能与他们自己的内部基准进行比较。
目前企业使用 AI 主要是以“copilot”的形式内部使用,没有直接纳入生产流程。纳入生产环节意味着模型生产的内容直接面向消费者,比如对于电商呈现的商品信息/视频,用户看到的内容均通过模型直接生产而不依赖公司内部业务的审核与标注。这里面的难点在于机制的设计,让模型生产的内容最大化服务于生产,这也是创业公司的机会。
2023 年,Gen-AI 在 ToC 市场的支出超过了 10 亿美元,而 2024 年,在 ToB 应用领域,收入机会将是消费者市场的数倍。去年,虽然个人用户花了很多时间与新的 AI 伙伴聊天,或者使用 AI 制作图像和视频,但大多数企业对 Gen-AI 的应用仅限于少数用例,并且使用到的产品更多也是“GPT-Wrapper”。所以,总会有人质疑 Gen-AI 是否能够发展为企业级应用。
在过去的几个月中,a16z 与数百位财富五百强的企业进行了交谈,并对其中 70 位进行了调查,以了解他们对于 Gne-AI 的使用、购买以及预算。结果发现,这些公司对于 Gen-AI 的预算在过去 6 个月的时间内,增加了 2 倍多,并且开始使用更多小型开源模型,也逐渐让 AI 进入业务真正的生产环节中。
这些结论对于 B 端的 AI 创业公司来说,是一个巨大的机遇,那些能够识别到企业痛点,并且知道如何结合 AI 技术提供解决方案的创业公司,有很大概率会在 2024 年实现高速增长。下面带来 a16z 调研中的 16 个关于「企业如何应用 Gen-AI」的发现。
01
企业 AI 预算大量增加,并将保持较长时间
1. Gen-AI 预算剧增
2023年,a16z 采访的数十家公司在基础模型 API、模型托管和微调模型方面的平均支出为 700 万美元。此外,几乎每家企业都看到了 Gen-AI 将对企业工作流程产生巨大效益,并计划在 2024 年将支出增加 2 倍至 5 倍,以支持将 AI 嵌入到更多业务生产环节中。
2. 领导层开始把 AI 预算纳入经常性软件预算范围内
去年,企业在 Gen-AI 的大部分支出,基本都来自“创新”预算或其他一次性资金池。然而,到 2024 年,许多领导者正在将这些支出重新分配到更经常性的软件项目上;
仅有不到 25% 的公司表示,Gen-AI 的支出将出自今年的创新预算。然而,我们也开始看到一些领导者将其 Gen-AI 预算用于节省员工人数,特别是在客户服务方面。如果这种趋势继续下去,这可能会是 Gen-AI 未来支出显著增加的信号。
一家公司提到,通过其 LLM 驱动的客户服务为每个呼叫节省约 6 美元,总共节省了约 90% 的成本,这是他们将 Gen-AI 投资增加 8 倍的原因。
下面这张图,是 a16z 调研中,关于「组织如何分配其 LLM 支出」的总体情况:
3. 对于 AI 投入的 ROI 评估会变得越来越重要
企业领导者目前主要通过 AI 提高的生产力来衡量 ROI。虽然这依赖 NPS、客户满意度作为中间指标,但他们也在寻找更能量化的方法来衡量 Gen-AI 的投入回报,如收入的产生,准确率的提高等,具体的评估方式则取决于企业的实际用例。
虽然企业领导层正在寻找「如何评估 Gen-AI 投入产出比」的答案,但当他们的员工说他们正在更好地通过 AI 提高工作效率时,AI 的提效作用就变得毋庸置疑了。
4. 企业内部缺少实施 Gen-AI 技术的人才
想要大规模构建和部署企业内部的 Gen-AI 解决方案,只靠提供一个 API 是远远不够的。AI 的实施、维护和扩展,都需要高度专业化的人才。仅实施一项,其成本就占到了 2023 年 Gen-AI 总支出的最大领域之一,在某些情况下也是最大的。
为了帮助企业在 AI 模型上的启动和运行,基础大模型厂商提供并仍在提供专业服务,通常都与定制模型开发相关。a16z 预估,2023 年,定制模型的开发,是基础大模型公司总收入中的很大一部份;因此,企业在采购时,除了考虑模型性能外,「能够实施落地」也是企业采购的关键因素之一。由于在企业中很难找到合适的 Gen-AI 人才,所以那些能让企业更容易将 Gen-AI 实施落地部署的初创公司,可能会有更强的业务增长潜力。
02
模型选择:多模型,且拥抱开源
1. 多模型的未来
6 个月前,绝大多数企业尝试的模型数量都在都在尝试 1 个(主要是 OpenAI 的)或 2 个。但是,这次 a16z 的调研显示,大多数人的企业领导者都在尝试使用多个模型。
多模型的选择对他们来说,一是可以根据性能、规模和成本定制最佳解决方案;二是分散投资,避免被一家厂商影响过大;三是能够快速体验到 Gen-AI 最新技术——第三点对领导者尤为重要,因为模型排行榜是动态变化的,公司很高兴将当前最先进的模型和开源模型结合起来,以获得最佳实践。
我们很可能会看到更多的模型激增。在下方这张图中,显示了 a16z 报告中,企业对于市面主流模型的采用比例。显然,OpenAI 仍然主导市场份额,市占率远超过其他模型厂商。
2. 开源模型正在加速发展
根据 a16z 的估计,2023 年的 AI 大模型市场,80%-90% 均为闭源,且大部分都是 OpenAI。
然而,在这次调研中,46% 的调查者提到,他们会在 2024 年尝试更多开源模型。且近 60% 的领导者指出,当开源模型能够直接或经过微调后,达到与闭源模型一样的性能,解决实际的业务问题时,就会考虑完全切换到开源模型。
3. 可控性、可定制,是企业采购 Gen-AI 时的关键因素
虽然开源模型的使用,会在一定程度下降低企业成本,但是,成本并不是企业考虑的最主要因素。模型是否可控,例如数据是否安全,能否理解模型产生某些输出的背后原因,以及模型是否可定制,能够让企业微调产出最佳效果,这 2 个因素的考虑相比成本来说,远远重要得多。
4. 为什么在意可控性:数据安全与敏感场景
出于监管或数据安全的考虑,企业仍然不愿意与闭源模型提供商共享其业务数据——毫不奇怪,IP 对其商业模式至关重要的公司尤其保守。虽然一些企业领导人通过自己托管开源模型来解决这一问题,但其他人指出,他们正在优先考虑具有虚拟私有云(VPC)集成的模型。
5.选择微调,而不是从 0 开始做
2023 年,大家都在追求构建像 BloombergGPT 这样的自定义模型。到 2024 年,企业仍然对自定义模型感兴趣,但随着高质量开源模型的兴起,大多数企业选择不再从 0 开始训练自己的 LLM,而是使用检索增强生成(RAG)或微调开源模型以满足其特定需求。
6. 在模型采购中,云是非常重要的因素
2023 年,许多企业出于安全原因通过现有的云服务提供商(CSP)购买模型——领导者更关心闭源模型处理数据不当,而不是他们的 CSP——并避免冗长的采购流程。
2024 年仍将保持这个趋势,这意味着 CSP 和首选模型之间的相关性相当高:Azure 用户普遍更喜欢 OpenAI,而亚马逊用户更喜欢 Anthropic 或 Cohere。正如我们在下面的图表中看到的,72% 使用API访问其模型的企业中,超过一半的企业使用了其 CSP 托管的模型。
7. 关心新功能
尽管推理能力、可靠性和易于访问,是企业评估模型的主要因素,但对于差异化的功能,也非常看重。例如,多位领导者表示,采用 Anthropic 的关键原因,就是因为其支持 200K 上下文;而采用 Cohere 的客户表示,主要的原因在于其提供了更方便的模型微调方案。
8. 大多数企业认为模型正在趋同
尽管大部分技术社区专注于将模型性能与公共基准进行比较,但企业领导者更专注于将微调的开源模型和微调的闭源模型的性能与他们自己的内部基准进行比较。
有趣的是,尽管闭源模型通常在外部基准测试中表现更好,但企业领导者仍然给予开源模型相对较高的NPS(在某些情况下更高),因为它们更容易针对特定场景进行微调。
一家公司声称,“经过微调,Mistral 和 Llama 的性能几乎与 OpenAI 一样好,但成本要低得多。”根据这些标准,模型性能的收敛速度比我们预期的要快,这意味着 ToB 的模型市场,最后大概率是一个买方市场。
9. 优化多模型切换
大多数的企业正在设计便于在各种模型 API 之间切换的应用程序,或者有的公司也在建立自己的“模型花园”,这样都能便于公司业务不会只依靠单一模型,毕竟,市场变化如此之快,如果只依赖单一供应商,其运营风险将是非常大的。
03
Gen-AI 技术开始进入生产环境
1. 企业正在把聊天机器人纳入生产
越来越多的企业专注于在内部构建应用程序,称缺乏经过战斗考验的、杀死类别的企业AI应用程序是驱动因素之一。基础模型还通过提供 API 使企业比以往任何时候都更容易构建自己的 AI 应用程序。
企业现在正在构建的常见用例——如客户支持和内部聊天机器人——同时也在尝试更新颖的用例,如编写 CPG 配方、提出销售建议。由于企业构建内部 AI 工具的成本进一步降低,因此像更多“GPT-Wrapper”的工具,比如简单的文章总结,聊天机器人等应用,可能会逐渐在市场内失去竞争力。
然而,当更多以企业为中心的 AI 应用程序进入市场后,这种情况是否会发生变化仍有待观察。一位受访者指出,尽管他们正在内部构建许多 AI 应用,但他们乐观地认为“将会有新的工具出现”,并更愿意“使用最好的”。
a16z 认为,超越“LLM + UI”公式并重新思考企业的底层工作流程或帮助企业更好地使用自己的专有数据的 AI 应用,会变得更为重要。
2. 企业更愿意在内部使用 Gen-AI,而非外部
这是因为关于 Gen-AI 的两个主要问题仍然在企业中占据重要地位:
数据安全的潜在问题;
部署 Gen-AI 问题,特别是在敏感的消费领域(例如医疗保健和金融服务)。
过去一年中最受欢迎的用例要么专注于内部生产力,要么在到达客户之前让人类作为最好一道“卡扣”,例如编码副驾驶、客户支持和营销。可以在下面的图表中看到,这些用例在 2024 年仍然在企业中占主导地位,企业会将完全内部的用例,如文本摘要和知识管理(例如内部聊天机器人)推向生产;
但对于与客户相关的场景,如合同审查,外部聊天机器人或推荐算法,企业会避免发生服务崩溃的 Gen-AI 事故,像之前加拿大航空公司;由于这些担忧对大多数企业来说仍然很重要,所以,如果构建有助于控制这些问题的 AI 初创企业,2024 年也会实现快速增长。
04
Gen-AI B 端市场:巨大且增长迅速
根据 a16z 的预估,模型 API(包括微调)市场截至 2023 年约为 15 亿美元到 20 亿美元,包括通过 Azure 在 OpenAI 模型上的支出。
鉴于整体市场的预期增长和企业的具体迹象,仅在这一领域的支出将在年底增长到至少 50 亿美元,具有显著的上涨潜力。一是企业已经优先考虑 Gen-AI 部署,将增加预算并将其重新分配到常用支出项,二是企业也开始计划在 2024 年将更多的业务场景纳入 AI,企业端会成为模型市场中的主要买单群体。
参考材料
https://a16z.com/generative-ai-enterprise-2024/
转载请联系公众号后台
欢迎填写问卷进入 【SenseAI深度交流群】,分享并交流彼此的产品使用体验。
群内将提供对推文内容讨论、AI 产品探索交流、线下面基和认识新朋友的机会。为保证交流质量,我们采取问卷申请制,请先扫描下面二维码,填写问卷后请后台回复【已填写】申请入群。
欢迎关注我们
关注全球 AI 前沿,走进科技创业公司,提供产业多维深思,我们是创业者/产品/投资人,这里是最有 AI-sense 的 SenseAI。