AI导论:深度剖析AI价值链
在过去的一年里,全球对AI巨大潜力的认识进一步加深。AI发现、硬件升级和模型推出的速度之快,使数据和AI战略成为投资者和组织关注的焦点。我们坚信AI将引领下一代产品和软件创新,这在企业的基本面中已经初步显现。
在这份报告中,我们深入研究了AI的不同层面。尽管大多数关注点集中在应用层,但AI的机遇远远超越此处。我们深入探讨了三个关键层面:(1)硬件,(2)数据基础设施,(3)应用。
我们认为硬件机遇的规模和广度远远超过了预期;我们坚信数据基础设施层的价值被低估至极,而在应用层的关键差异将在于对专有数据的获取。
AI的演进
AI并非新兴概念,其引起狂热的原因在于其从仅能执行编程预测性任务的发展,演变为能够将事物融入背景并生成结论的阶段。
第一波AI主要涵盖了学得的感知和推理,例如图像识别、语音理解以及视频推荐或商品购买。2018年,早期的自然语言处理(NLP)模型仅能执行视觉搜索和图像识别任务,其参数不超过1亿。
发生变革的是用于训练这些模型的硬件变得更加强大,一种新型模型,被称为Transformer模型,提供了一个独特的框架来充分利用这些硬件能力。Transformer模型是ChatGPT、GPT-3以及当今大多数其他大型语言模型(LLM)背后的基础。它是一个学习上下文的神经网络,代表了AI的一项重大突破。
当前的创新浪潮集中在自然语言处理(NLP)上,使得AI能够以类似于人类的方式理解文本和语言。ChatGPT,于2022年底推出,正在彻底改变在线搜索,是首个大规模的(或可供所有人访问的)AI应用。但NLP还有许多其他相对简单的应用,如智能助手、聊天机器人、电子邮件过滤、文档/情感分析等。
基于相同的概念,编程领域出现了许多创新,AI可以协助编写代码(例如GitHub),在网络安全领域,AI可以处理大量数据并识别威胁和薄弱环节等。迄今为止,大部分的应用都集中在提高生产效率的层面。
我们深信,下一波AI将迈向与物理世界的交互,数字孪生、自动驾驶、机器人、虚拟化身等应用将崭露头角。然而,我们目前仍在第三波的起步阶段。即使在许多人认为已经接近现实的领域,例如自动驾驶,我们也只是站在起跑线上,前面的路还很长。这是因为迄今为止的AI创新并非基于生成式AI,而是预测性AI,很多技术的发展在这个方向上已经遇到了瓶颈。尽管数据量大幅增长,但许多预测性模型在性能提升的速度上已经出现了停滞。
AI机会的三个不同层面
尽管大多数投资者一直关注应用层(如ChatGPT、Copilot 365、GitHub Copilot),但AI机会远不止于此。
硬件层
在2023年第二季度,硬件层首次实现了实质性的盈利改善。Nvidia数据中心从2018年的近3亿美元增长到如今约400-500亿美元的年化运营规模。由于这种巨大的增长,投资者开始猜测需求是否被提前拉动。我们预计未来4-5年内将有大约1万亿美元的计算机机会。此外,我们认为这个机会不仅仅限于计算,许多相对较小的市场,如内存、网络、能源管理(例如液冷)也将见证指数级的增长。尽管硬件机会在投资者中相对为人熟知,我们预期今后不会有过大的波动(100%以上的上涨)。然而,我们确实认为仍然存在吸引人的机会,因为有上调估算的潜力,这将意味着复合性上涨。
数据基础设施层
数据基础设施层是我们预期在2024年将看到巨大机会的领域。在过去的一年里,我们经历了一个支出优化周期,公司注意到客户预算的削减以及交易审查的加强等。虽然一定程度的优化是一种常态,我们预计将会持续进行,但云服务提供商(如AWS和Azure)以及数据生态系统中的公司(如Snowflake和Datadog)在2023年第四季度注意到了需求的显著增加,新的AI工作负载抵消了优化效果。尽管初始影响仅占收入的个位数百分比,但我们认为AI是一个数据问题,而我们仅仅处于数据公司看到拐点的早期阶段。
应用层
根据我们的预测,应用层将拥有最大的总潜在市场(TAM),但同时也将是一个拥挤且竞争激烈的市场。在这个领域中,既有初创公司也有现有的大型企业。这些现有的大型企业拥有庞大的用户基础,并可以访问专有数据,这为他们提供了重要的竞争优势。
让我们深入探讨每个层面。
硬件层
从硬件的角度来看,模型的大小在短短5年内,从小于1亿个参数增长至超过5000亿个。这一预测性的进步是建立在拥有数千万到数亿个参数的硬件基础之上的。
2018年训练的ELMo模型,其能够执行视觉搜索和图像识别任务,并包含2600万个参数。
2019年训练的BERT-Large模型,其不仅能进行情感标识,还能提供基本的问答服务,包含了高达3.4亿个参数。
目前的大型语言模型,其参数数量已经超过了5000亿个。
与模型大小增长相一致的是,随着Nvidia的数据中心收入实现了一次大幅提升。数据中心收入已经以健康的40%年均增长率增长,但2023年标志着一个拐点。
在过去的周期中,CPU一直是主导的数据中心处理器。它们是串行处理器,即一次处理一条指令。然而,随着生成式AI的计算要求呈指数增长,对并行处理的需求出现了(同时执行多个计算)。这就是使GPU成为AI的核心处理器的原因,GPU最初是用于计算机图形的并行处理器。了解这些芯片的规模和大小是很重要的。
Nvidia的H100由3.5万个零部件和近1万亿个晶体管组成,重量为70磅。需要一个机器人来构建,需要一台超级计算机来测试一台超级计算机。
——Nvidia首席执行官黄仁勋
GPU市场呈现出指数级的增长,预计在4-5年内将达到约1万亿美元。计算(GPU和CPU)是数据中心升级预算的主要去向,但并非全部。为了优化数据中心的性能,系统性能至关重要。随着GPU性能的显著提高,带宽和内存等方面成为了瓶颈。虽然这些相关市场的规模不如计算层大,但在规模上仍然具有重要意义,并有望在增长方面提供类似的上涨潜力。
举例来说,去年网络市场规模为20亿美元,预计将在5年内增长至100亿美元。Nvidia在最近的财报电话会议中指出,网络现在的年化收入已超过100亿美元。这一强劲的增长主要由对InfiniBand的异常需求推动,同比增长了五倍。InfiniBand对于获得训练大型语言模型所需的规模和性能至关重要。
类似地,去年液冷市场规模为20亿美元,预计将在未来数年中实现高达两位数的增长。我们预计将看到更高的增长率。冷却占据了数据中心能源消耗的40%,虽然相较于CPU,GPU执行类似任务所需的能量减少了一半,但GPU的指数级增长伴随着显著的能耗。
当前的生成式AI浪潮带来了计算强度的显著增加。随着模型大小的增加,计算需求呈现出指数级的增长。现有的基础设施,即使是2-3年前建造的数据中心,也需要进行升级以适应AI工作流的变革。此外,公司正在开发的模型数量也出现了急剧的增长,这一点我们将在下一节中详细介绍。
然而,运行模型的成本也在显著降低
尽管公司将新产品的定价定为先前版本的2-3倍溢价(例如,H100与A100相比),但这些新产品由于提供了显著更好的性能,使得执行任务的成本显著降低。
我们预计随着时间的推移,成本将进一步下降,这将使得运行模型的成本显著降低,并推动更多的应用程序开发。
总的来说,加速计算是一个非常广泛的机会。
尽管GPU中存在重要价值,但数据中心是一个系统,关键在于优化这个系统。内存、带宽和能耗是关键的压力点。
一个重要的误解是GPU正在取代CPU。虽然GPU的份额正在扩大,但全面的创新仍然是必要的(包括优化GPU与CPU使用的软件创新)。
其次,尽管大型语言模型的训练和其他需要大量计算能力的应用将在数据中心进行,但加速计算的使用将扩展到边缘和设备。最终,每个设备都将具备某种形式的加速计算。
随着时间的推移,虽然运行模型的成本将显著降低,但市场规模将保持强劲增长。
数据基础设施层
在生成式AI和数据基础设施领域,两者在推动AI系统和大型语言模型(LLM)的开发、部署和运行方面发挥着至关重要的作用。基础设施堆栈在过去几十年中发生了翻天覆地的变革,尤其是在数据存储和处理领域。
在2000年初至2010年代,大多数企业主要关注硬件数据库和关系型数据库管理系统(RDBMS),它们是数据存储和管理的支柱。这些系统仅存在于物理服务器上,只支持结构化数据处理,且在可扩展性和灵活性方面受到限制。随后,消息队列技术的出现标志着向更分布式计算的转变,促进了异步数据处理和应用之间的通信,为今天的云原生能力铺平了道路。
目前,云原生范式引入了由主要云提供商支持的新型AI堆栈。它们提供核心的云存储和计算服务,允许可扩展、灵活且通常更具成本效益的数据管理解决方案。这些服务在启用先前系统中的AI系统方面发挥着关键的作用。通过这种方式,它们推动了生成式AI和数据基础设施的蓬勃发展,为AI系统和大型语言模型的开发、部署和运行提供了强有力的支持。
云服务商
在生成式AI和LLM领域,云服务商对于其计算资源和可扩展性至关重要。这些提供商提供了训练和部署复杂AI模型所需的基础设施和平台。
云服务商(CSP)是AI价值链的核心,因为它们提供必要的基础设施、计算能力和存储能力。AI模型,特别是像深度学习模型这样的更先进的模型,需要大量的计算资源,这通常对于个别公司来说是难以维护的。云服务商提供可扩展的、按需的资源,使企业能够在不建设自己的基础设施的情况下对AI模型进行训练和部署。这使得各种规模的企业都能够创新并利用AI技术,实现对AI的民主化。
AI价值链上游的大型公司,如Snowflake和Databricks,将需要大规模的计算能力,主要由Azure和AWS提供。类似于Nvidia在AI中的“赢家”中是一个长期受益者,支撑数据平台计算需求的超大规模云服务商(CSP)将获益,无论在AI战争中谁最终胜出。除了传统的计算和存储能力之外,CSP还在其基础设施之上构建了一个额外的层次,为公司提供访问预训练模型和其他工具的途径,以便进行AI开发(无论是内部开发还是第三方开发)。
Microsoft Azure(OpenAI):微软通过与OpenAI的合作引入了LLM的新型企业用途。虽然微软并没有拥有自己的核心基础模型,但它选择与OpenAI建立强大的合作伙伴关系,并拥有大量的股权。对于微软而言,这种合作增强了其Windows 365、Teams和Azure产品。微软有机会利用其优化的AI云基础架构、分布、数据等方面,通过捆绑提供更多的企业IT基础设施市场份额。微软采取了更集成的平台方法,将AI整合到其现有的SaaS和平台服务中,重点是通过捆绑高效地变现新技术,并为客户提供云服务的良好价值。
Google Cloud Platform(GCP)DeepMind:GCP一直以其卓越的AI能力而备受瞩目,尤其是自收购DeepMind以来。然而,在目前主导生成式AI领域的竞争环境中,GCP在追赶微软方面显然稍逊一筹。尽管如此,GCP在捕捉消费者市场方面预计将具备比微软更显著的优势。该公司已采用异构计算,并利用其专有的第四代TPU AI芯片,此版本在价格与性能方面相较于先前版本更具优势。此外,GCP正与Vertex托管云平台合作投资于专有的LLM(PaLM 2、Codey、Imagen和Chirp)。GCP的关键战略在于利用其对消费者的吸引力,并将其中一些LLM整合到其生产力应用程序中。
Amazon Web Services(AWS)Bedrock:AWS一直在努力追赶上述早期参与者。他们专注于与领先的GenAI公司建立合作伙伴关系,并推出了Bedrock,这是一个完全托管的的服务,通过单一API提供了来自AI21 Labs、Anthropic、Cohere、Meta、Stability AI和Amazon的高性能基础模型(FM)的选择。Bedrock大大简化了构建、训练和大规模部署ML模型的流程。在最近的ReInvent活动中,AWS推出了Amazon Q,这是一个新的用于工作的生成式AI助手。此外,他们还宣布了AWS设计的芯片的更新– AWS Graviton4和AWS Trainium2,这将改善运行生成式AI和其他工作负载的速度、成本和能源效率。AWS将优先考虑成为LLM的中央托管平台,并继续增强Bedrock,同时与领先的初创公司保持强大的合作伙伴关系。在未来,我们预计AWS将开发自己的专有模型、AI芯片和训练/推理加速器,进一步巩固其在云服务领域的领先地位。
基础模型
基础模型(FM)公司致力于开发大规模模型,这些模型是支持LLM和生成式AI的基本组件。这些AI模型具备适应各种应用的能力,是许多AI应用的基石,从自然语言处理到创造性内容生成。基础模型在庞大的数据集上进行训练,需要大量的资源,包括数据和计算能力。这些预训练模型降低了AI应用开发的门槛,使更多组织能够构建基于AI的解决方案。
基础模型主要分为两大类:
闭源专有模型
闭源专有模型指的是其源代码不公开,但可以通过API访问的模型。这些闭源模型通常具有更先进的技术复杂性,提供更强大的支持、定期更新,并专为特定的商业应用定制。像领先的FM公司OpenAI所提供的模型就属于这一类,它们拥有性能更高的模型,并提供现成的服务,使开发人员更容易上手。同时,其他公司如Stability的Stable Diffusion和Meta的Llarma2采用开源软件,其源代码可由社区驱动进行更改。
开源基础模型
开源基础模型是指其源代码公开可用的模型。这类模型允许用户进行更广泛的定制和修改,因为其源代码是开放的。例如,Stability的Stable Diffusion和Meta的Llarma2是建立在开源软件上的,用户可以参与到源代码的变更中。
对于开源和闭源模型都存在适用的应用场景。我们认为那些有能力雇佣AI工程师的大型公司可能更倾向于使用开源的基础模型,而许多中小型企业可能更倾向于利用现有的闭源模型。大型企业可能会同时使用两者,但可能更倾向于采用开源模型,因为这为它们提供了更大的定制和灵活性。用户可以修改和调整开源模型以满足其特定需求,这提供了更大的应用开发灵活性。
数据平台
数据库公司在AI价值链中扮演着至关重要的角色,其使命是有效管理和促进数据的利用,而数据被认为是AI的生命线。AI模型的质量很大程度上取决于它们所训练的数据。数据库公司提供了一系列工具和平台,用于存储、管理和处理庞大的数据,以确保数据的质量、一致性和可访问性,这对于训练准确可靠的AI模型至关重要。
在Databricks最新关于机器学习应用场景的报告中,他们强调用户主要集中在自然语言处理(NLP)驱动的应用场景上。NLP是一个迅速增长的领域,它使企业能够从非结构化文本数据(如大型文档、摘要内容或从客户评论中提取情感)中获取价值。这些NLP应用场景占据了使用Python库的49%。
Databricks的报告指出,相对于SaaS LLM API和相关工具而言,它们平台上与Transformer相关的库的使用量显著增加。这些与Transformer相关的软件库和框架专门设计用于支持在企业中实施Transformer模型。这些库提供了预构建的模块和功能,简化了构建、训练和部署基于Transformer的模型的过程。例如,TensorFlow和PyTorch提供了对Transformer体系结构的广泛支持,使开发人员能够相对轻松地创建复杂的LLM。
与此同时,SaaS LLM API和LLM工具为开发人员提供了更便捷的途径,以将高级语言处理功能集成至其应用程序中,免去了自行构建和训练模型的繁琐过程。这些API由诸如OpenAI、Google等公司所提供,并通过云平台实现对预训练模型的访问。用户可利用这些强大的模型进行文本生成、翻译、摘要等多种应用,并根据实际需求选择订阅或按使用付费的方式。
LLM工具涵盖了更广泛的一套工具和平台,用于简化LLM的使用、管理和优化。这包括与LLM交互的用户界面、用于在特定数据集上微调模型的工具以及用于监视和评估模型性能的系统。这些工具旨在使更广泛范围的用户(不仅是AI专家)能够从LLM提供的语言理解和生成方面的进步中受益。
这些数据表明,企业更倾向于实施允许它们定制、训练和部署自己的Transformer模型,而不是仅仅依赖于OpenAI等已有API的解决方案。我们认为这是一个重要的转变,应该对Databricks和Snowflake等公司产生积极影响。
数据湖仓与数据云
Databricks
Databricks是一家云端平台,专为大规模数据处理和分析而设计。他们提供了一个集成的环境,用于数据工程、数据科学和分析,构建在强大而优化的Apache Spark版本之上,后者是一种领先的开源数据处理框架。Databricks Lakehouse是其方法的核心,将数据湖和数据仓库的功能融合在一起,以支持各种数据类型和结构,实现高效的大规模数据存储。该统一的Lakehouse概念将集成、存储、处理、治理、共享、分析和AI融为一体,构建了一个全面的平台。
尽管Databricks已经被视为AI堆栈中的关键参与者,但他们通过投资模型(例如Dolly,一个遵循LLM指令的开源模型)以及对MosaicML的重大收购,进一步巩固了在GenAI领域的领导地位。这次收购进一步增强了Databricks在企业内的AI存在,因为该产品使公司能够在其自己的数据和业务流程上高效构建大型生成式AI模型。Databricks一直强调,他们的Lakehouse是gen-native初创公司训练和部署自己的AI模型的最佳途径,能够以成本效益的方式利用他们的专有数据,而不受大型科技公司的约束。
总体而言,Databricks已为那些希望构建自己生成式AI模型的初创公司提供了强有力的支持,而不必受制于大型科技公司。他们对Dolly的开发和对Mosaic ML的收购进一步助力他们充分利用未来越来越多公司希望构建自己的Transformer模型的趋势。
Snowflake
Snowflake是一家基于云的数据平台,专注于促进数据存储、处理和分析,尤其注重可伸缩性和易用性。在其核心,Snowflake将存储和计算功能相互分离,使得用户可以独立地在云中扩展每个功能。这种架构非常适合处理大型数据集和复杂查询,使其成为了数据专业人员、包括AI和ML工程师的热门选择。
Snowflake最初是一个数据仓库解决方案,支持集中存储和管理数据,并支持结构化和半结构化数据类型。然而,在近年来,他们扩展了其平台,融入了更多的数据湖功能,使用户能够以原始格式存储非结构化数据,这对于AI/ML应用场景尤其有用。
Snowflake近期宣布了一系列引人注目的合作伙伴关系,包括与NVIDIA、Microsoft以及Weights & Biases等公司的合作。这些合作关系使Snowflake得以将NVIDIA的NeMo企业开发框架整合至其数据云中。由此,Snowflake的客户得以构建和部署LLM以及基于AI的应用程序,同时充分利用存储在Snowflake数据云中的专有数据。此外,Snowflake还与Weights & Biases、Alteryx、Hex、Dataiku、RelationalAI、Pinecone等公司建立了合作伙伴关系。
Snowflake vs. Databricks
随着生成式AI应用的广泛应用,这两家公司都力图将自己定位为战略性的多产品数据平台。以下是各自大会上的一些重要公告,并对每家公司整体AI战略提出了一些观点。
数据库
事务性数据库
MongoDB - MongoDB等公司提供基于文档的数据库模型和无模式架构,在生成式AI中发挥关键作用。此外,对于MongoDB,需求驱动因素包括对新应用场景的发现和应用程序构建的按需模型。MongoDB正在通过引入矢量搜索等方式扩展平台功能。投资者对其引入矢量数据库以提供更适用于AI/ML功能的产品表现出浓厚兴趣。
矢量数据库
生成式AI和LLM处理大量数据,通常是以文本、图像和音频等非结构化形式存在的。矢量数据库的设计目的是高效处理、索引和检索这些大型数据集。它们将复杂的数据转换为矢量表示,使其更容易在规模上进行管理和处理。矢量数据库的主要功能之一是促进先进的搜索功能。它们允许进行更微妙、更具上下文感知的搜索,这在由生成式AI和LLM驱动的应用程序中至关重要,例如个性化内容推荐、图像识别和自然语言处理任务。在该市场中,Pinecone、Weviate等公司是领先的参与者。
在生成式AI领域,实时处理和分析数据的能力至关重要。矢量数据库通过提供基础设施,以快速检索和分析数据矢量,支持实时响应和AI应用中的交互。随着生成式AI技术和LLM的不断发展,对能够处理增加负载而不影响性能的可伸缩数据库解决方案的需求变得至关重要。矢量数据库天生可扩展,因此非常适合这些不断变化的需求。它们在MLOps中发挥着重要作用,特别是在部署、监控和维护AI模型方面。它们通过提供高效的存储和访问这些模型所需数据的方式,促进了管理大规模AI模型的运营方面的需求。这一类别涉及到MLOps和AIOps公司,它们弥合了AI模型开发与运行部署之间的差距。它们解决了管理生成式AI和LLM周围的AI和ML模型生命周期的复杂性。这种管理包括模型部署的自动化、监控模型性能、确保可伸缩性以及管理这些AI模型正常运行所需的基础设施。
开发者工具
在这一领域,公司的主要任务是协助操作生成式AI模型,包括数据标注和整理、模型中心与微调、模型推理、LLM运维,以及监控与评估。
数据流、转换和管道公司,如Confluent,在AI价值链中扮演着数据流和处理的关键角色。在数据传送至LLM之前,必须对数据进行预处理。这包括从组织的数据存储中提取相关上下文,将数据转换为可用格式,并加载到模型的上下文窗口中。在生成式AI和LLM的背景下,Confluent的实时数据处理能力实现了数据的连续、高效流动,这是训练和更新LLM的先决条件。生成式AI模型,尤其是在语言处理、情感分析和内容创作中使用的模型,对庞大、多样且通常是实时数据的依赖很大。Confluent的平台促进了从各种来源收集和处理这些数据,确保它能够随时为AI模型提供。这对于保持模型的更新和相关性至关重要,是其有效性和准确性的关键因素。
数据标注公司,如Scale.AI和Snorkej,在训练AI模型(包括LLM)标记数据方面发挥着关键作用。这些公司专注于为训练AI模型进行注释和分类,使其可用于模型训练。数据标注的准确性和质量直接影响AI模型的效果。在生成式AI中,模型通常在庞大的数据集上进行训练,这使得这些公司的作用变得更加关键。它们确保输入LLM的数据结构良好且标记准确,从而产生更加有效和可靠的模型。
微调公司,如Hugging Face和Databricks(与MosaicML合作),在调整预训练的LLM以适应特定任务或行业方面发挥着至关重要的作用。专注于微调的公司帮助定制这些模型以适应特定应用场景,增强它们的相关性和性能。这个过程涉及根据额外的、通常是领域特定的数据或专业市场需求调整模型参数。
监控和评估公司,如Weights & Biases、Arthur和Gantry,对于维护AI模型的准确性、公正性和可靠性至关重要。这一领域的公司提供工具和服务,用于持续评估模型性能,监控偏见、漂移和随时间可能出现的其他问题。这不仅对于模型的准确性至关重要,而且对于道德考虑也是必要的,确保生成式AI模型的负责任使用。
LLM运维公司,如Langchain和Weights & Biases,专门从事LLM的运维方面,提供专为这些模型的独特挑战和要求定制的工具和服务。Langchain专注于利用LLM进行以语言为中心的应用。他们的贡献在于使组织更容易将LLM集成到其系统和工作流程中。Langchain提供的工具和框架帮助企业充分利用LLM的能力,用于各种应用,如聊天机器人、内容生成和自然语言理解任务。他们简化了将LLM嵌入到现有应用程序中的过程,使公司更容易采用这些先进技术。
网络安全和可观察性
随着AI的广泛应用,网络安全的重要性持续攀升。AI系统在处理和生成大量数据,其中部分数据可能涉及敏感或专有信息。网络安全的任务在于确保这些数据的完整性、机密性和可用性。此外,由于AI系统越来越多地参与影响现实世界的决策,因此确保这些系统免受篡改或恶意使用的攻击至关重要。网络安全公司在保护AI系统免受外部威胁方面发挥着至关重要的作用,同时也确保AI的负责任和道德使用。
适当的数据治理和LLM安全对于企业部署至关重要。领域专家如Credal(数据丢失防护)、Calypso(内容治理)和HiddenLayer(威胁检测和响应)使公司能够安全地连接内部数据存储与第三方基础模型或面向客户的AI应用,确保完全的透明性、可审计性和可追溯性。
生成式AI的发展显著改变了安全领域的态势。攻击者和防御者迅速采纳了这项技术,其结果在改变响应机制方面是实质性的。攻击者具有一定优势,因为他们能够比防御者更快地采纳和部署他们的技术。许多新兴公司仍在努力研发以应对这些新型攻击。对于AI网络安全影响的两种关键思考方式包括:
AI 用于安全
在过去的十年里,AI已经深入到安全领域。其中一些应用包括用于保护数据免受未经授权访问的安全系统,以及确保符合监管要求。当前该行业面临人才严重短缺的问题,现有的人才无法跟上攻击的增长。
安全性为 AI
ChatGPT技术的普及,降低了威胁行为者的准入门槛,为恶意软件、网络钓鱼和基于身份的勒索攻击提供了更为便捷的途径。网络犯罪分子已经找到了规避ChatGPT内容过滤器和策略的方法,这些过滤器和策略本应防止恶意软件的代码生成。网络钓鱼攻击成为了另一个令人关注的攻击方式,因为ChatGPT可以快速生成看似真实且高度个性化的电子邮件,以获取最终用户的身份凭据。这些类型攻击的崛起意味着我们需要更多围绕电子邮件安全、身份安全以及威胁检测的技术。
单纯依赖人工编写的防御软件可能已经无法有效抗衡由ChatGPT生成的恶意软件,这给网络安全带来了重大影响。无论公司投入多少资源,网络安全链中最薄弱的环节始终是人类用户。网络犯罪分子已经学会如何利用由ChatGPT编写的恶意代码来利用受害者。正如前面所讨论的,社交网络钓鱼攻击是一种风险,其中AI聊天机器人通过模仿可信来源来提取敏感的公司或个人信息,还存在AI生成的虚假信息被公开传播的风险。
案例研究
SentinelOne 和 Crowdstrike
Crowdstrike和SentinelOne是两家在其产品线中实施AI的公司案例研究。这两家公司在过去的十年中已将AI技术融入到其产品中,作为核心端点保护平台,它们将大量从端点收集的数据与云、身份和设备等相邻平台的信息整合在一起。
这些平台创建了大型数据湖,捕捉跨攻击表面的数据并应对威胁。它们使用基于AI的遥测技术来实时检测和应对威胁。CrowdStrike的威胁图存储了超过40PB的数据,每天处理数万亿个事件,并每秒服务7000万个请求。这使得他们的AI算法变得非常强大,能够提供前所未有的安全水平,并实现了显著的自动化。在过去的几个月里,Crowdstrike推出了Charlotte AI,而SentinelOne也推出了其PurpleAI,这是一个专门用于威胁狩猎、分析和响应的生成式AI聊天机器人。
Zscaler在其最近的财报电话会议中强调了Zscaler Risk 360的重要性。这是业界第一个全面的基于AI的风险量化和缓解解决方案,它提供了最新的风险态势,并建议及时采取纠正措施以减轻风险。Zscaler已经完成了10多项Risk360交易,并正在与100多家企业进行积极的评估。这些交易中,Zscaler的ACV平均值已经超过六位数,而且他们预计这一数字将随着时间的推移继续增长。Risk360为CISO提供了关于报告网络安全风险、战略和治理的关键见解,特别是考虑到新的SEC规定。
Palo Alto Networks也有许多成功的案例,其中包括在网络安全的安全协同驾驶员、安全运营中的XSIAM以及云安全中部署了他们的AI模型。Cloudflare展示了一个关于边缘AI推断如何在边缘设备上使用的案例。我们预计在公司的平台上将有更多集成AI的使用案例。
可观测性
在AI背景下,可观测性指的是监控和理解AI系统内部状态的能力。随着AI模型变得更加复杂和自主,理解其决策过程变得具有挑战性。可观测性工具有助于诊断问题、理解模型性能,并确保透明度。这对于维护操作效率以及建立对AI系统的信任至关重要。它涉及监视模型性能、数据漂移和其他操作指标,以确保AI系统按预期运行。对于天然复杂且数据密集的生成式AI和大语言模型(LLM),可观测性变得更加关键。
随着越来越多的公司被推动将AI引入其企业堆栈,它们必须将更多的工作负载转移到云端以启用这些功能。Datadog、Grafana和New Relic 等公司提供了全面的监控和分析工具,这对于部署和维护AI模型至关重要。这些工具提供对AI系统性能的洞察,跟踪响应时间、错误率和资源利用等指标。这种监控对于确保AI模型按预期运行并产生期望的结果至关重要。在Datadog的最近财报电话会议上,他们举例说明了他们为一些领先的模型提供AI可观测性功能的情况。尽管Datadog不是直接受益者,但我们认为他们是更多AI应用崛起的次生效益受益者。
应用层
在过去的十年里,随着云的快速发展,企业持续进行着数字化转型。快速软件开发一直是这场云革命的核心。而今,随着大型语言模型的涌现,我们正身处一个应用数量呈指数级增长的阶段。AI应用具有推动这一变革的巨大潜力。英伟达首席执行官黄仁勋今年早些时候曾明确表示:
“应用商店里有五百万款应用,可能有几百个PC应用,还有35万,也许是50万个重要的网站——在大语言模型上会有多少应用?我认为会有数以亿计,原因是因为我们将编写自己的应用!”
— 黄仁勋,2023年3月,英伟达首席执行官采访。
我们已经从PC和互联网时代的数百个应用的世界发展到了移动时代数百万应用的世界。相信现在我们正进入一个构建在大语言模型上的应用可以根据个人用户需求和愿望进行定制的世界,这一进步并非巨大的飞跃。
人们热议的AI应用中,ChatGPT是最受关注的,但我们认为企业将是AI应用最大的市场。按产品类型划分,这一领域可细分为几个子类别:
横向AI
在生成式AI和大语言模型的背景下,横向应用指的是能够满足多个行业通用需求或功能的多元化解决方案。这些应用以其广泛的适用性为特点,可以显著提高工作流程效率。随着AI在推理、协同、通信、学习和预测等方面的进步,下一代工作流工具将不仅能够自动执行常规任务,还将承担此前只有人类才能完成的工作,使用先进的手段,例如代理和多步推理等。
这类工具的实例包括Jasper和Copy.ai,它们是内容生成工具,能够创造营销文案、编写代码或生成报告,而且不局限于特定行业。横向应用的优势在于其巨大的市场潜力,因为它们面向广泛的用户和行业。然而,它们的广泛适用性通常意味着它们不够专业化,可能需要进一步的定制或调整以满足特定行业的具体需求。
纵向AI
另一方面,纵向应用是专门针对特定行业或领域的需求和挑战量身定制的解决方案。这些应用深度集成到其目标行业的工作流程、流程和法规框架中,提供更为定制的解决方案。
公司可以利用AI开发特定行业的应用程序,改变人机协作,实现端到端自动化,而不仅仅是充当副驾驶或协作平台。我们正在各个领域见证这样的例子。在医疗保健领域,由AI驱动的应用正在彻底改变诊断和患者护理。在金融领域,它们被用于欺诈检测和个性化的财务规划。AI的潜在影响广泛而多样,具有重要的影响。例如,在最近的AWS Re-Invent活动上,辉瑞公司表示他们期望通过一些重点AI应用场景实现每年7.5亿至10亿美元的成本节约。辉瑞已经在17个应用场景中利用了AI的力量,包括科学和医学内容生成、制造和使用Amazon Bedrock进行原型设计。
在企业内部,按应用场景,机会集可分为两个广泛领域:
降低成本
这是当今AI应用场景最多的领域。已经有一些创新的提高生产力的工具已经被证明能够带来显著的效益。基于NLP模型的第一个也是最大的应用场景之一是编码助手。两个大规模的例子:
Microsoft的GitHub。在其最近的电话会议上,Microsoft指出该公司的编码助手GitHub现在拥有超过100万付费的Copilot用户,有超过37,000个组织订阅了Copilot for business(较上季度增长40%)。使用GitHub的开发人员数量自5年前我们收购以来增加了4倍,据Microsoft估计,该平台可能提高开发人员的生产率高达55%。
同样,GitLab推出了产品GitLab AI Code suggestions(Beta),在构建应用程序时提供整个代码片段或完整的活动代码行。未来,将有更多情况下AI将帮助开发人员自动执行更多单调任务并增强安全性。这些都是我们看到AI提高开发人员生产力并为软件公司带来额外增长的示例。
根据本年度贝恩AI调查,近60%的软件工程师希望AI将提高生产力超过20%。
除了编码助手,基于AI的助手的应用范围要广泛得多(例如,Microsoft 365 Copilot、聊天机器人、客户服务助手)。
增加收入
提高收入的方面有两个主要组成部分:(1)提高销售和营销效果(2)开发产品。我们仍处于早期阶段。
需要解决留存问题的应用类别
Sequoia的一篇文章探讨了那些经历了记录性注册但留存率较低的应用。ChatGPT创下了有史以来首个达到1亿用户的应用纪录。然而,与早期达到这个里程碑的其他同行相比,其留存率要低得多。
这意味着用户尚未在生成式AI产品中找到足够的价值,以便每天使用它们。生成式AI的最大问题不是找不到应用场景、需求或分发,而是证明其价值。同时,重要的是考虑企业或消费者生态系统的哪个方面会产生随时间推移最高的留存率。目前我们知道,水平应用承诺广泛的市场覆盖和多功能性,使其成为被广泛采用和快速增长的吸引人之处。相比之下,垂直应用提供深度行业整合的定制解决方案,迎合特定行业需求,通常具有更高的价值。
谁将捕捉这一价值?
尽管我们预计大多数价值将由客户(即使用这些AI工具的企业)捕捉,但AI仍然可以为产品定价提供有意义的提升。
拥有庞大的用户基础,可以进行增值销售 访问专有数据
庞大的用户基础
在第一类中,拥有庞大的用户基础的公司,即使仅收取最终效益的一小部分,也能够实现可观的收入增长。一个典型的例子是微软。我们预计,新引入的共同助手在仅达到5-16%的采用率的情况下,即可增加50-160亿美元的增量收入。每月30美元的价格标签几乎可以使采用此解决方案的客户的收入翻倍。有关Office 365 Copilot发布的背景信息,请参阅Axios。
超过19.5万家公司规模化使用Hubspot。 15万个客户使用Salesforce。 175万商家在Shopify上销售。
超过2亿人使用Autodesk。
专有数据至关重要,但并非越多越好
第二个标准涉及对专有数据的获取。这一领域再次使得现有参与者处于显著的优势地位。
需要强调的最为重要的一点是,数据的质量胜过数量。根据领先的LLM提供商Cohere的说法,对数据集的部分进行模型训练可能产生类似或更佳的性能。
尽管AI应用层出不穷,我们认为重要价值的一部分将被现有参与者所捕捉。创新和初创公司依然有发展空间,但由于利率环境较紧张且资本可用性有限,小公司更难获得成功。我们预测,战略性的收购将成为业务发展中更为常见的路径,而非上市。
大型现有公司还将受益于有利的并购环境,经过验证的平台方法将显得尤为宝贵。我们已经观察到一些引人注目的交易,其中包括网络安全(Palo Alto/Talon、Crowdstrike)和数据基础设施(Snowflake/Neeva、Databricks/MosaicML)。
结论
我们目前仍处于由AI引发的下一轮技术浪潮的初级阶段。我们才刚刚开始对支持AI模型训练和开发的硬件基础设施进行升级,对于最终的机遇,我们只是刚触及事物的表面。
我们预计硬件周期将比投资者最初的期望更广泛、更持久。我们发现数据基础设施层中存在的机会被低估了,这一层正迅速发展演变。在应用层面,我们相信那些能够访问专有数据并拥有大型用户基础的现有参与者将捕获相当大比例的重要价值。
---【本文完】---
近期受欢迎的文章:
我们正处于数十年未见之大机遇中
新技术爆发式发展,催生新产品
然而,颠覆式创新并非简单的技术堆叠
而是异常复杂的系统工程
需要深度洞察
欢迎一起分享思考和见解