re:Invent 2023大会评价:迎接GenAI时代,拓展业务新边界
AWS re:Invent 2023 - Amazon.com CTO Werner Vogels 主题演讲(全文) AWS re:Invent 2023 - CEO Adam Selipsky 主题演讲(全文) Amazon.com CTO:2024年及未来科技前瞻
生成式人工智能对企业科技领域提出了新的要求,对所有公司,特别是AWS产生了重要影响。Amazon原有的强大战略,基于敏捷性、开发者生态、强大性、规模、可靠性和安全性,现在需要进一步发展,以满足主流客户对简单性和一致性的需求。在AWS re:Invent 2023大会上,这一需求愈加明显。尽管AWS仍在快速推动创新,但现在必须在一个日益注重通过软件实现直接用户生产力提升的变革客户环境中实现这一目标。
本文将分享我们对AWS如何应对这一挑战的看法,回顾Amazon在迎接新兴的GenAI时代的战略,评价其与Anthropic、Nvidia以及其他合作伙伴展开的竞争,以保持其领先地位。同时,我们还将探讨在这个快速发展的市场中,作为一个市值超过90亿美元的巨头,如何应对这些挑战。
AWS并非免疫宏观风险
上图展示了季度调查结果,详细描绘了AWS在近1000家客户中的Net Score细分情况。Net Score是一个用于追踪客户支出动态的关键指标,它反映了支出更多的客户净比率(以绿色表示)与支出更少的客户净比率(以红色表示)之间的差额。蓝线则代表AWS的计算指标,清楚地显示出AWS在2021年取得了卓越的业绩,但到了2023年,却面临着日益严峻的宏观环境,这与大多数科技公司所面临的挑战相似。
Microsoft和Nvidia是这一趋势的两个少有的例外。
上图中的黄线展示了AWS在数据集中的相对市场存在程度,通过计算AWS的N响应(994)与调查总N数(约1700)的比值来衡量。AWS在数据集中的存在度持续呈现积极的增长趋势。然而,与大多数公司一样,宏观经济的负面影响以及成本优化措施导致支出动能有所减弱。尽管如此,根据我们之前的研究,AWS的增长率在上个季度保持稳定,我们预计在第四季度其增长将加速。
以下四点总结了我们对当前市场的评估,并为这项研究提供了额外的背景信息:
本文的主题
本文专注于我们认为对客户和未来竞争环境最有影响的领域,总结如下。
AWS今年重新回归基础设施的核心基础。即使在Peter DeSantis周一晚上的演讲中,对于系统之间微秒级时钟同步的关注也是如此。AWS强调了其在Graviton4和Trainium2芯片方面的领先地位,以及在计算领域的丰富历史。此外,他们推出了新的高性能S3对象存储、改进的网络和安全性,并对数据库进行了深入的讨论,尤其是零ETL方面。
接下来,我们将详细探讨AWS GenAI堆栈,并提出关于其生成方式以及与Nvidia关系的观点。
1)用于人工智能的基础设施; 2)用于构建基础模型和LLMs的工具,如Bedrock,这是一个实现LLM可选性的抽象层;
3)应用基础模型的智能应用,如Q,AWS展示并代表其版本的合作伙伴。
我们还将深入探讨客户数据的关键性,并提出在我们看来,AWS在re:Invent 2023宣布的创新之外必须采取的行动。
最后,我们将总结AWS未来需要关注的重点。
AWS强调其基础设施根源
在Adam Selipsky周二的主题演讲中,他着重强调了核心基础设施。以下是我们对此的评估:
对AWS基础设施和软件战略的分析
在近年的主题演讲中,Adam Selipsky没有像在2023年的re:Invent大会上那样强调基础设施的重要性。 AWS的战略突显了其强大的硬件平台起源和独特的可组合架构。 这种架构允许动态组装复杂的系统,例如构建适用于SAP或Oracle工作负载的SAN,或者按需启动一些超级计算机。 AWS的方法与Microsoft的方法形成鲜明对比,并挑战了Azure的基础设施能力,后者的实力尚不能与AWS相抗衡。
AWS的软件设计哲学注重可选择性、强大性、灵活性和粒度,但不一定强调可组合性。 随着市场趋势由生成式人工智能加速,软件开发生产力已成为首要任务,其中可组合性成为软件的关键属性。 可组合性涉及设计软件组件,以实现跨云服务的无缝集成,而AWS云平台在这方面并未进行优化。
Amazon的软件开发历来侧重于最大程度发挥硬件潜力,而不是为最终用户创建可组合的解决方案。 Amazon的思维方式更加偏向硬件,优先考虑通过软件增强的出色硬件,而对软件集成并没有强调。 相比之下,作为一家主要的软件公司,Microsoft将软件可组合性视为设计原则。尽管Microsoft通常需要经过数次迭代才能达到“正确”的状态,但最终总会取得成功。 Microsoft在Ignite展示的Copilot Studio和众多连接器突显了他们先进、集成的软件愿景和设计原则。 在我们看来,Microsoft将硬件仅视为其软件的平台。尽管在我们看来,Microsoft的硬件不如AWS的硬件,但其软件对于客户来说更易于应用。这是生成式人工智能应用的一个关键因素,AWS必须通过其开发者生态系统复制这一点。
AWS的“最佳基础设施”云优势一直非常显著,然而,不断变化的市场趋势正朝着更加集成和可组合的软件解决方案方向发展。 当前市场趋势对那些在软件可组合性和集成方面拥有坚实基础的公司更为有利。
客户应密切关注AWS对这一变化作出的回应,以及他们在软件战略上可能进行的调整,以在客户关注点转向简单性和开发者生产力的情况下保持竞争力。
全球云基础设施最佳证明要点
在Ignite大会上,Microsoft CEO Satya Nadella自豪地宣称Microsoft在全球拥有大量数据中心,标榜其在该领域的领先地位。然而,Amazon CEO Adam Selipsky对此提出了有力的反驳,如下图所示(附有我们的红色箭头标注)。
他呈现了一个AWS区域,包含三个相距一百公里的AZ。因此,它们基本上以同步速度运行。这意味着如果一个AZ受到火灾或洪水的影响,系统可以迅速切换到另一个区域,确保服务的连续性。在图形的右上角,你可以看到“其它云提供商”(即Microsoft)的标注。相比之下,它只显示在一个AZ内的一个数据中心。这意味着如果该区域的数据中心发生故障,可能会导致服务中断。当然,虽然你可以切换到另一个数据中心,但这可能是在异步距离上进行的,这将增加数据丢失的风险,这与客户的RPO(恢复点目标)的设定密切相关。
Selipsky的观点突显了Amazon在基础设施方面的卓越优势。他向客户强调,无论运行何种第三方软件,都能在Amazon的基础设施上获得更佳的性能,这主要得益于Amazon出色的硬件质量。
AWS回归到其S3的起源(一切始于此)
在Selipsky的主题演讲中,他强调了云计算在金融服务、医疗保健、制造业、汽车业等领域的深度应用,并最终将电信和其他行业的例子融入其中。然而,在AWS re:Invent大会上,他分享的第一则发布公告却是关于新的高性能对象存储Express One Zone。
S3的推出彻底改变了云存储的格局。尽管高性能对象存储已经存在一段时间,但AWS通过Express One Zone不仅实现了这一目标,还为客户降低了成本。这反映了我们对今年AWS信息的关键理解——即不能将基础设施与软件分开考虑,因为只有具备更出色的硬件架构,才能构建更卓越的软件。
举例来说,Snowflake之所以能够打造出卓越的产品,是因为它建立在AWS之上,得以实现计算与存储的分离。而Teradata和Oracle在当时却无法做到这一点。因此,我们认为,AWS的这一新进展意味着现在有了快速的的对象存储,客户无需设置复杂的缓存也能获得高性能。
AWS与Nvidia之间微妙的关系
通过展示与Nvidia合作的时间轴,Amazon提出了一个强有力的论据。在这些科技展会上,Jensen Huang就如同一只聪明的变色龙。例如,在Dell Technologies World 2023上,他强调了GPU在笔记本电脑中的潜力。在Snowflake峰会上,他谈到了Nvidia如何为Snowflake的数据提供超强动力。在re:Invent 2023上,他分享了AWS已经部署了3000台Nvidia超级计算机。
而在明显的态度转变中,re:Invent 2023的重大消息是AWS宣布支持Nvidia DGX云,而Microsoft在一周前刚刚宣布了这一举措;据报道,AWS最初对此持抵制态度。今年6月,路透社报道称AWS副总裁Dave Brown表示公司放弃了DGX云,更愿意逐步购买Nvidia芯片。
这一变故凸显了Nvidia在当今市场上的影响力。
接下来是我们对这种情况以及它如何产生的综合分析:对Jensen Huang、Nvidia和AWS之间复杂关系的分析
AWS需要Nvidia的GPU,但Nvidia更倾向于销售其DGX数据中心集群,导致其与云供应商普遍和特别是AWS之间的关系变得复杂。 AWS在部署Nvidia技术方面历史悠久,包括成为首个使用GPU的公司。 Nvidia首席执行官Jensen Huang在这一动态中是一个关键人物——我们将他比作科技行业的“权力经纪人”。
AWS宣布支持Nvidia的DGX云,以对抗Microsoft在Ignite大会上最近的公告,并改变了它最初对此举措的立场。 AWS最初似乎对使用Nvidia的DGX云持抵制态度,这可能影响了它获取高性能GPU的能力。 然而,Nvidia的首选策略是销售针对训练大型语言模型优化的完整数据中心大小的集群,这与AWS常见的多租户虚拟化架构形成鲜明对比。
由于在硬件方面的发展相对滞后,Microsoft选择将加速基础设施的需求外包给Nvidia,从而成为了Nvidia的重要收入来源。 Nvidia不仅销售GPU,还提供了一系列包括数据中心集群在内的功能。 我们认为,AWS最初对Nvidia的完整集群解决方案的抵制,导致了Nvidia分配给AWS的GPU数量有限,尽管AWS的消息来源对此予以否认。 尽管存在各种猜测,但两家公司彼此需要。AWS需要提供Nvidia的技术,包括DGX集群,即使容量有限,以保持市场竞争力。 Nvidia需要AWS这个云计算领导者来分发其DGX集群和GPU,特别是考虑到Microsoft应用DGX、Google使用自己的芯片和集群,以及像CoreWeave这样的专业云服务商带来的竞争。
我们认为,这些Nvidia的公告不仅关乎形象和市场定位,也体现了对彼此技术的全面接纳。整个行业都在抱怨Nvidia的价格剥削,并迫切期待AMD扩大GPU生产。 事实上,由于Nvidia对其CUDA软件架构、Mellanox收购和多年经验的投资,Nvidia具有实质性的领先优势。 AWS整合Nvidia技术的能力,类似于他们对待VMware云的方法,展示了他们的适应性和客户关注度。 NVIDIA集群不仅复杂,而且昂贵,对于竞争对手来说需要进行重大投资并应对运营挑战。而AWS和其他大型云公司具备提供这种服务的强大地位。
在整个行业中,关于Nvidia技术的分配以及是否存在任何协议或交换,以换取AWS对DGX云的支持,仍然存在不确定性。 客户在进行投资时应该考虑这些供应挑战,并可能会明智地选择在不同的工作负载上进行分散投资。另外,对OpenAI治理挑战的担忧可能会影响客户在隐私、法律和治理考虑的基础上决定在哪里部署哪些工作负载(即在哪些云和/或本地部署)。 对于供应链动态有深刻了解的行业观察者将提供有关这些科技巨头之间分配和合作关系的持续洞察,我们将继续与他们合作以获取尽可能最好的信息。
从投资者的角度来看,这种关系既带来了挑战,也提供了机遇。 AWS和Nvidia之间的相互依赖关系在它们的运营和市场提供方面创造了一种微妙的平衡。 投资者应该密切关注这种合作关系的发展,特别是在技术整合、市场战略和财务影响方面。 我们预计生成式人工智能的快速发展将加速云市场的增长。结合最新的普及情况,以及在re:Invent 2023和Microsoft Ignite等活动中展现出的势头,我们的云预测表明AWS和Microsoft在2023年第四季度的顺序增长将加速。
评估AWS的三层GenAI堆栈
上图展示了AWS的GenAI堆栈。在基础设施层,Nitro使得构建可组合的用于训练的超级计算机成为可能,同时还包括Trainium和Inferentia等其他定制芯片。在工具层,有SageMaker和Bedrock,后者通过提供一个抽象层以适应LLMs,形成了一个单一的接口。在应用程序层,像Q Copilot等工具可利用基础模型。
AWS三层技术堆栈及其战略重点摘要
AWS的技术堆栈包括三个层次:核心基础设施、专注于大型语言模型(LLMs)的中间层,以及应用程序层。 核心基础设施层由Nitro支持,这是一个轻量级虚拟化引擎,支持来自多个制造商的GPU等多样化芯片。 该层包括SageMaker等机器学习工具和AWS的基础设施堆栈,已重新设计以应对生成式人工智能应用的需求。
四年前,Nitro彻底改变了AWS的方法,提供了硬件可组合性,这是适应不同类型处理器和GPU的重要方面。 然而,这种硬件可组合性在AWS的软件方法中并未完全得到反映,突显了在我们看来是开发的一个关键而必要的领域。
AWS中间层中的Bedrock至关重要,它提供了一系列LLMs,包括Anthropic和其自有的Titan模型。 AWS对LLM浪潮的回应强调了提供选择的重要性,反映了他们的先硬件后软件的思维方式。简而言之,“我们的硬件非常优秀,以至于软件在我们的基础设施上运行得更好”。 Anthropic的引入具有战略意义,不仅为客户提供领先的LLM,还有助于开发AWS自家的开发者产品。AWS对Anthropic高达40亿美元的投资对抗Microsoft与OpenAI的独家协议和Google的内部AI专业知识至关重要。虽然Amazon多年来一直以SageMaker等工具在AI领域处于领先地位,但仅有Titan LLMs可能无法完全满足客户需求。
最上层专注于应用程序,比如近期展示的CodeWhisperer等产品。 AWS的堆栈表现出一致性且引人注目,其中Bedrock发挥了关键作用。 堆栈的最上层聚焦于AWS合作伙伴及客户的传统领域,对于开发人员来说,将生产力深入到组织中变得越来越重要。在过去的六个月里,AWS加速了资源的投入,以便在re:Invent活动中展示可信的Q演示,但在我们看来,在这个领域仍有很多工作需要做。
将Anthropic整合到AWS服务中对于保持竞争力至关重要,特别是考虑到Microsoft和Google在开发者服务方面的最新进展,以及它们在先进的LLMs上的早期投资。AWS对LLMs的方法,包括与Nvidia基础设施的合作和应用,虽然在很大程度上依赖于合作伙伴关系,但却是其战略的重要组成部分。
AWS的这种三层方法是一致的,表明它对生成式人工智能竞赛保持着高度关注。保持LLM多样性和与Anthropic等先进LLM供应商的深度合作之间的平衡对AWS的战略至关重要。我们认为,AWS自家LLM的局限性要求它与Anthropic建立紧密的合作关系,以在争夺AI霸权的战斗中成为最具吸引力的合作伙伴。客户和投资者应密切关注AWS如何继续整合和发展这些技术,特别是与竞争对手Microsoft和Google的关系。注意AWS能否保持其在定制芯片领域的领先地位,并利用Anthropic领域知识保持领先的程度。Anthropic和Bedrock中可用的其他LLMs的整合对成功至关重要,也是我们看来领导力的一个关键指标。
深度剖析Bedrock
简而言之,AWS的中间层Bedrock是一种全托管服务,提供了对多个基础模型的访问,这些模型来自AI21 Labs、Amazon自家的Titan、Anthropic、Cohere、Meta的Llama 2和Stability AI等。这些模型通过API提供,同时配备了关键的开发者工具,用于构建生成式人工智能应用程序。
对Amazon与Bedrock合作战略的分析:生成式人工智能的多个领先的模型
我们认为,与OpenAI和Google等公司相比,Amazon缺乏一种同样先进的内部领先的模型。在我们的评估中,这些竞争模型遵循关于计算能力、模型大小、参数和训练数据的扩展属性。这些模型的每一代往往都更大、更有能力,这是人工智能发展中的一种新现象。
我们认为,Amazon现有的模型Titan并不符合这些标准下的先进领先的模型。Microsoft在2019年就预见到领先的模型对软件开发未来的重要性,并早早投资于OpenAI。我们的研究表明,尽管Google在这一领域具有领先地位,但由于隐私、法律和治理的担忧以及对搜索成本结构可能造成的潜在干扰,他们犹豫不决,不愿将这些模型应用于搜索。
大多数公司,包括Amazon,直到2022年才开始对这些模型给予重视。尽管如此,Amazon的转变在竞争中来得较晚,考虑到Microsoft与OpenAI的关系和Google的人工智能能力。我们的消息来源表明,Amazon首席执行官Andy Jassy将生成式人工智能视为个人的最高优先事项,尽管他还有其他职责。Amazon最近加大对先进领先的模型的投资,这不仅是为客户利益考虑,也是他们内部发展的关键部分,例如他们的产品Q。
在平台上仅仅拥有一个领先的模型是不够的;将这些模型整合到现有工具的功能中需要数年的时间。我们认为领先的模型是一种启用技术,需要深度和复杂的整合到现有系统和工具中。我们指出企业软件开发中的一些例子。SAP过渡到关系数据库就是一个强调这种整合需要时间和努力的例子。Oracle花了十年的时间将Oracle Fusion打造成最佳状态,是整合复杂软件到关键任务应用中所面临挑战的另一个很好的例子。AWS需要努力将以使基础设施更好运行为主要目标开发的软件转变为可组合的软件,并最终推动用户生产力。
Amazon与Anthropic的合作不仅是为了向客户提供这些功能,更重要的是增强其自身的软件功能。这项合作的战略重要性超越了面向客户的好处,展示了Amazon深化自己技术堆栈的更深层次的承诺。
在投资者和客户的视角下,Amazon对领先的模型的战略进展被认为是一项显著的发展。公司在这一领域的努力以及对产品提供和内部能力的监控被看作是关键的领域。将这些先进的人工智能模型长期整合到Amazon生态系统中可能对其市场地位和竞争力产生深远的影响。这一努力并非微不足道,同时我们认为AWS需要将其思维方式扩展到可组合的软件。
AWS优先获取先进基础模型的必要性
尽管Microsoft与OpenAI合作关系存在缺陷,但OpenAI和Microsoft在市场动能方面处于领先地位。为了强调这一点,让我们参考ETR关于GenAI模型的参与/情感分析和关注度数据。
上图展示了ETR对私人持有公司进行的新兴技术调查的结果。纵轴度量的是净情感,即跟踪计划与某一平台互动的客户比率,减去计划不互动的客户比率。横轴则是关注度。请注意OpenAI相对于其他平台的位置。这种差异反映了市场动能。
由于Microsoft已经与OpenAI达成了独家协议,AWS不仅需要在其服务中提供LLM选择性,还需要与Anthropic建立更紧密的关系。因此,它最初投资了12.5亿美元,并随着时间的推移可能升至40亿美元。作为交易的一部分,AWS将成为Anthropic训练其模型的首选云,并且Anthropic将提供其专业知识,帮助AWS为GenAI定制芯片。
这是否足够?在我们看来是的,但问题在于时间。因为挑战主要在软件方面,需要在能够预测问题并重新构建架构以增加新功能之间进行权衡,而不是为了迅速进入市场而产生技术债务。
我们来分析Q:AWS GenAI堆栈的顶层
Q的主要目标是加速软件开发生命周期。这是AWS对助手和工作场所助手的回应。我们认为Q最初是在Amazon的Titan上进行训练的,这是其内部基础模型,但Amazon需要整合Anthropic和其他LLMs。在今年的分析师峰会上,一些人追问Q的底层是什么,推动Bedrock将是答案明确的。
AWS能够在re:Invent展示Q,而不仅仅是幻灯片,这是相当引人注目的,并强调了AWS在这方面一直在努力。但在我们看来,Q仍然是一个演示。
对Amazon Q的分析和开发完全功能的合作伙伴的挑战
根据我们的观察,Amazon Q是AWS为了提升软件开发效率,以及回应开发伙伴和工作场所助手的需求而推出的。作为AWS顶层技术堆栈的一部分,我们得知它最初是在Amazon的Titan模型上进行的训练。然而,在我们看来,Amazon Q目前仍处于早期阶段,还有大量的开发工作需要完成,才能成为一个功能完备的合作伙伴。
对于Amazon Q以及合作伙伴来说,一个关键的挑战在于可组合性。如果应用程序的组件,比如分析服务,无法在共享的数据存储上运行,那么由于需要数据移动和转换,这将使开发过程变得复杂。在我们看来,这种可组合性的不足妨碍了合作伙伴简化应用程序构建的能力。
受益于规模定律的前沿LLMs对于提供最先进的服务起着至关重要的作用。AWS需要这些先进的LLMs来增强Amazon Q和其他服务,而Anthropic是其中的一个关键组成部分。我们认为,重新调整Q以便利用Anthropic和其他LLMs实现全球级合作伙伴功能是十分必要的。
Bedrock,AWS的AI“中间件”平台,正在成熟,并且与Azure AI等替代方案竞争。然而,问题不在于Bedrock本身,而是在于底层的LLMs以及它们的开发周期。Bedrock在Amazon服务中的使用涉及调用不一定很好整合的不同AWS服务,在我们看来,这将影响其实现可组合性的程度;我们认为这是越来越重要的一个属性。
Q的目标是通过整个软件开发生命周期提供帮助,这需要无缝集成和易用性。LLMs中编码协助的演变是具有挑战性的,特别是如果在2022年之前深度LLM研究不是首要任务的话。Amazon在LLMs上的后期关注和匆忙的开发需要AWS采取一种强调LLM选择性的不同策略。虽然可能是一个潜在的差异化因素,但Google和Microsoft也可以提供替代的LLMs,并同时依赖于它们的“内部”LLM能力(Microsoft通过其与OpenAI的独家合作)。
我们认为,针对Anthropic重新调整Q是一种相当迅速的解决方案,特别是在编码协助方面,我们预计在下一届re:Invent之前将看到有意义的结果。然而,LLMs在DevOps中的广泛应用,例如诊断和纠正操作,是一个更具挑战性和耗时的过程,需要更多的时间来完成。广泛的操作数据的整合和对上下文的理解使这项任务变得复杂。
投资者和客户应将Amazon开发Q及其与前沿LLMs集成的努力视为一项关键但具有挑战性的事业。在我们看来,Q作为一个功能完备的合作伙伴的潜力在很大程度上取决于Amazon克服可组合性挑战和有效集成先进LLMs(如Anthropic)的能力。Q的进展和有效性将是AWS在快速发展的基于人工智能的软件开发工具领域竞争定位的关键因素。
AWS的数据机遇、挑战与使命
数据的质量将最终决定客户在生成式人工智能方面能够获得的竞争优势。Amazon有着开发适用于特定应用场景和应用类别的数据库和其他工具的强大历史,例如面向交易的Aurora、面向分析的RedShift、面向流数据的Kinesis等。AWS拥有众多高度可靠的数据存储,为用户提供卓越的服务。
然而,随着生成式人工智能成为推动生产力的核心,AWS面临着统一其各种不同数据平台的挑战。其使命在于提供一致的数据元素和元数据,使开发人员能够在所有服务中快速构建智能应用。这一任务并非易事,但AWS的成功将在于如何有效地整合并协同各种数据资源,以支持客户在不同领域的智能创新。
对AWS数据基础设施和走向统一的分析
AWS在将其核心分析引擎(包括Redshift、OpenSearch和EMR)统一起来方面面临着技术上的挑战。根据我们的评估,目前这些引擎无法共享共同的数据存储或元数据管理器。在生成式人工智能的背景下,数据质量至关重要,而AWS的各种数据库都是根据特定应用场景开发的。尽管这一点的确为AWS的服务带来了显著的优势,但主要的挑战在于如何将这些不同的数据平台整合起来,以在服务之间提供一致的数据元素和元数据,从而便于智能应用程序的开发。
垂直数据湖,特别是在安全和供应链领域,展示了对于统一数据分析的需求和力量。AWS在构建特定行业的数据湖方面取得了成功,但由于我们与客户的讨论以及我们在软件开发方面的经验,我们发现它在利用所有分析引擎方面存在一定的困难。
AWS数据生态系统的复杂性,包括多个运营数据库如Aurora和DynamoDB,使得统一成为一项具有挑战性的任务。历史上,集中的数据管理系统已经演变为联邦系统,要求所有的分析引擎与一致的数据存储库进行交互。我们认为,将应用程序逻辑智能与数据存储结合在一起,并将其转化为智能数据应用程序的构建块,这将最能为客户服务。
目前,数据和元数据(关于数据的数据)被存储在AWS基础设施的不同位置。分析数据存储,比如Redshift和OpenSearch,各自拥有自己的数据存储,这带来了额外的复杂性。尽管某些分析引擎可以访问共享的存储,比如S3,但在性能和功能上存在一定的限制。
AWS正在为安全和供应链等行业构建专业的数据湖,但在高效使用所有分析引擎方面面临挑战。我们期望在AWS的各个数据平台上出现类似的功能。目标是建立一个类似于安全数据湖的共同数据基础设施,但AWS服务的广泛范围使这成为一项艰巨的任务。我们认为最终Amazon DataZone将成为所有业务、运营和技术元数据的统一点,为应用程序提供对单一虚拟数据存储的访问。
在AI时代,编程和训练AI模型在很大程度上依赖于具有一致和组织良好的数据资源。在我们看来,统一AWS的数据基础设施对于高效开发和部署以AI驱动的应用程序至关重要。
投资者和客户应注意,AWS在统一其数据基础设施的过程是其有效利用AI战略的关键方面。能够克服源于其不同数据产品的技术挑战,并成功整合其各种数据服务,将对AWS未来在AI和云计算市场上的增长和竞争优势起到关键作用。我们认为第六个现代数据平台正在崛起,专注于实时数据,其中协助系统可以成为人类行动的系统。这将需要对数据平台进行新的思考。统一治理对于所有数据平台参与者来说仍然是一个关键挑战,并对客户而言是一个持续的难题。
没有一款基础模型能够统治全局
让我们总结一下对 re:Invent 2023 的一些思考,以及我们认为 AWS 在未来的日子里需要关注的方向。
我们要强调的是,我们并不认为这是一个像科技领域中许多其他市场那样,由“赢者通吃”的单一基础模型主导的市场。凭借其最佳的基础设施拥有优势,AWS在这个领域表现优异;而以软件实力闻名的Microsoft,也将继续在市场中展现出色的表现。坦率地说,Microsoft凭借其优秀的边际模型,作为软件公司具有较大优势,但AWS将凭借其卓越的基础设施继续蓬勃发展。
然而,生成式人工智能正在对软件开发的各个方面产生深远影响,贯穿整个生命周期。
在生成式人工智能的背景下,AWS战略焦点的总结和分析:
AWS以其强大的基础设施在生成式人工智能(GenAI)不断发展的领域中占据了显著优势。而以软件实力闻名的Microsoft则采用了不同的理念,注重简单性,与记忆深远的AS/400相似。我们预计AWS和Microsoft将继续蓬勃发展,各自利用其独特优势,即AWS在基础设施方面,Microsoft在软件方面。
GenAI正在改变软件开发的各个方面,对整个生命周期的流程产生深远影响。这种转变要求云服务提供商适应和创新,以支持新的GenAI驱动的开发范例。
AWS通过迎合那些重视可选择性和能力的用户开创了云市场,遵循类似Unix的理念,提供广泛的可选择方案和灵活性。然而,现在市场上更主流的客户更加注重以便利和简单性为基础的生产力,这在GenAI的出现后变得更加突出。
AWS面临的挑战是使其构建块对客户更加简单,专注于可组合性和易用性。尽管AWS在设计软件以优化硬件性能方面表现出色,但现在还必须专注于以更一致和简单的方式合理化其数据平台,正如其在安全和供应链领域的数据湖所示。
Microsoft正在调整其软件方法,以将简单性和集成性置于首位,同时将基础设施视为重要但并非关注的焦点。
AWS需要迅速推进其Q平台,借助Anthropic和其他LLM的力量,超越演示阶段,成为市场上值得信赖的功能性平台。AWS有效且高效地执行这些变化的能力对其持续成功至关重要。
AWS在历史上展现了强大的执行能力,然而面临的挑战在于调整其产品以更好地满足市场对简单性和集成性的需求。对于AWS来说,关键不在于能力,而在于它能够整合其组件并与市场需求保持一致的程度。
投资者应该充分认识到AWS强大的基础设施是其关键资产之一。但同时也要注意,面对GenAI的崛起和不断变化的市场偏好,AWS需要进行相应的调整和适应。 为了保持其在市场中的领先地位,AWS简化服务并提高其服务可访问性的能力将至关重要,以便满足更广泛的客户需求。
最后,我们留下这个思考。从未像现在这样迫切地需要信任数据、软件和支撑应用的基础设施。合规性、法律问题、治理、安全性、当地法律和快速恢复故障是今天的客户所面临的关键要素。AWS在近20年的建设中,其信任经验令人瞩目。将这种信任转化为GenAI时代将需要AWS为更广泛的客户提供服务,这些客户可能没有像历史上的开发者群体那样的技术能力。为这些新客户提供服务将需要一种新的思维方式,我们认为这需要更加注重简单性。
AWS已经将数据中心转化为API,并大幅简化了IT。现在是时候同样简化业务流程,将生产力提升到自上世纪90年代以来未曾见过的水平。
---【本文完】---
近期受欢迎的文章:
我们正处于数十年未见之大机遇中
新技术爆发式发展,催生新产品
然而,颠覆式创新并非简单的技术堆叠
而是异常复杂的系统工程
需要深度洞察
欢迎一起分享思考和见解