AWS re:Invent 2023 - CEO Adam Selipsky 主题演讲(全文)
客户动力 扩大与Salesforce的合作伙伴关系 超过80%的独角兽企业在AWS上运行 逆向思考 重新发明基础设施 AWS可用区(AZ) 用Amazon S3重新发明存储 发布:Amazon S3 Express One Zone 用Graviton重新发明通用计算 发布:AWS Graviton4 发布:基于Graviton4的EC2的R8G实例 用生成式AI重新发明 生成式AI的三层堆栈 生成式AI的基础设施创新 特邀演讲嘉宾:黄仁勋,NVIDIA创始人兼CEO 推出L4、L4DS和H200 GPU UltraClusters 将DGX Cloud移至AWS Ceiba项目 集群算力 用于ML的Amazon EC2算力块 AWS Trainium和AWS Inferentia 发布:AWS Trainium2 Amazon Bedrock 模型选择的重要性 特邀演讲嘉宾:Dario Amodei,Anthropic CEO兼联合创始人 Amazon Titan模型 Amazon Bedrock 发布:微调 发布:带有知识库的检索增强生成(RAG,Retrieval Augmented Generation) 发布:Amazon Titan Text Lite & Express的持续预训练 达美航空 发布:用于Amazon Bedrock的代理 安全和私密 负责任的AI 发布:用于Amazon Bedrock的Guardrails 用AWS重新发明 特邀演讲嘉宾:Lidia Fonseca,辉瑞首席数字和技术官 ML奖学金 利用FM的应用程序 Amazon CodeWhisperer 发布:Amazon Q 发布:Amazon Q | 架构 发布:Amazon Q | Code Transformation 发布:Amazon Q | 您的业务专家 特邀演讲嘉宾:Dr. Matt Wood,AWS技术副总裁 Amazon Q业务专家演示 发布:在Amazon Quicksight中使用Amazon Q 发布:在Amazon Connect中使用Amazon Q 特邀演讲嘉宾:Stephan Durach,宝马集团高级副总裁 您的数据是您的差异化因素 从您的数据中获取价值 零ETL的未来 发布:Aurora PostgreSQL与Amazon Redshift的零ETL集成 发布:从RDS MySQL到Redshift的零ETL 发布:从Dynamo DB到Redshift的零ETL预览 发布:Amazon DynamoDB与Amazon OpenSearch Service的零ETL集成 发布:Amazon DataZone AI建议 您的重新发明 发布:Amazon Project Kuiper Kuiper | 企业级私有连接服务
演讲正文
早上好,欢迎来到第12届re:Invent。我非常高兴能与你们这里的5万多人在拉斯维加斯见面,还有全球超过30万人在线收看。
谢谢大家的参加。
我们一直以来都以稍微不同的方式举办这个活动,re:Invent始终是一个学习会议,一个学习活动,这里到处都是学习和成长的机会。我们有超过2200场会议,你可以在大会上与众多合作伙伴取得联系。当然,还有许多与AWS社区成员互动的机会。我们还为你们准备了一系列精彩的主题演讲。昨天晚上,希望你们中的很多人都看到了Peter DeSantis关于无服务器创新的演讲。明天,我们将有Swami Sivasubramanian的AI和ML演讲,以及Ruba Borno的合作伙伴主题演讲。然后,当然,Werner Vogels将在周四为本周画上句号。但我对我们今天在这里为大家准备的内容感到非常兴奋。好的,让我们开始吧。
客户动力
我喜欢re:Invent的一件事是我能够见到各行各业的客户。我是说,来自每个行业、每个地区、每种应用场景的人。在全球各地,创新者们都依赖AWS推动他们的业务,包括来自各行各业的领先企业,比如在金融服务行业,我们与摩根大通、高盛、纳斯达克、富达、安联、BBVA、汇丰、通用电气、Capital One、标普环球、Nubank等合作。在医疗保健领域,我们与辉瑞、吉利德、默克、诺和诺德、罗氏、莫德纳、伊鲁米纳、美敦力、3M Health Information Systems等进行合作。在汽车行业,我们与宝马、斯泰兰蒂斯、本田、丰田、大众集团、尼桑、现代、福特汽车公司、梅赛德斯-奔驰等合作。有很多令人惊叹的客户和合作伙伴,但这只是我们正在塑造这些行业未来的众多领导者中的一小部分。当然,还有他们所服务的所有客户。
扩大与Salesforce的合作伙伴关系
我们多年来一直与一个客户和合作伙伴保持密切合作,那就是Salesforce。因此,2016年,Salesforce选择AWS作为其主要云服务商,当前Salesforce使用AWS计算、存储、数据服务等多项服务来支持Salesforce Data Cloud等关键服务。昨天,我们宣布我们正在大幅扩展我们的合作伙伴关系,为我们的共同客户带来新的能力。Salesforce将大幅扩大其已经非常庞大的AWS使用规模。AWS将使用更多Salesforce技术,并通过将Amazon Bedrock与Salesforce的Einstein平台相结合,使开发人员能够快速构建和部署生成式AI应用。我们还通过我们的新的零ETL集成帮助统一Salesforce Data Cloud与AWS存储、计算和数据服务的数据管理,从而使客户能够更快地获得更好的洞察。我们还在Salesforce的服务云与AmazonConnect之间构建了更紧密的集成。而且,首次,Salesforce将把其产品推向AWS Marketplace,使客户更容易找到、购买和管理Salesforce的产品。通过这种扩展的合作伙伴关系,Salesforce的客户将获得创新和构建应用的新而强大的方式。
超过80%的独角兽企业在AWS上运行
但这并不仅仅是全球性企业,最有前途的新秀也在选择AWS。根据PitchBook的数据,有超过1000家估值超过10亿美元的独角兽或初创公司,其中超过80%的独角兽选择了AWS,比如Wiz,一家云安全公司和出色的AWS合作伙伴。Wiz是世界上最大的网络安全独角兽和增长最快的SaaS公司,估值达到100亿美元。或者像Ultima Genomics,一家生物技术领域的《快公司》最具创新性公司之一,Ultima正在通过将测序成本降低六倍来彻底改变DNA测序。还有Plaid,一家数据初创公司,为Venmo、Acorn和Robinhood等金融科技工具提供支持,数百万人使用这些工具来管理自己的财务。无论规模大小,无论行业、地区,无论是你可能从未想到过的组织,都在AWS上进行创新。我最近听说过Lowden Guitars,这是一家位于爱尔兰一个小村庄的专业吉他制造商,他们正在使用AWS技术创建一种电子护照程序,以便在音乐家穿越海关时更容易通过,这种吉他非常特别。
逆向思考
各种各样的应用场景。令人惊叹的是,企业巨头和初创公司,中小型企业,大学,社区学院,政府机构,非营利组织,云计算适用于任何人,我们的客户正在解决重大问题,满足重要需求,构想世界下一个大事件。他们依赖我们来保障安全,保证可靠性,快速创新,取悦他们的客户,并开启增长业务的新方式。所有这些都在AWS上完成。那么为什么会发生这一切呢?在AWS,我们始终不懈地从客户的需求和痛点出发。当然,我们是第一个,大约领先5到7年,拥有广泛而深刻的能力,这一点至今仍然如此。我们是最安全、最可靠的,但我们也从不同的角度思考我们客户的问题和潜力。这使我们不断地进行创新,突破了人们认为不可能的障碍。所以,你也可以做同样的事情。创新在我们的基因中,它继续驱动着我们的每一天。
重新发明基础设施
毕竟,这就是云计算产生的方式。在云计算的早期阶段,我们在运营Amazon.com时亲身体会到了一切。我们深刻体会到了配置和管理基础设施是多么困难、昂贵,以及有多少无差异的繁重工作让真正有才华的团队无法真正创新。因此,我们着手重新思考基础设施,完全利用AWS。这样,每个人,甚至是在大学宿舍里的学生,都能够使用与最大最复杂的组织相同的强大技术。全部按需提供,安全可靠,且经济实惠。现在,随着人们进入云计算,他们对此感到非常兴奋,有些人甚至举办了数据中心关闭派对,并发布了关闭服务器房间的视频。这对我们来说真的很有趣。这对我们来说真的很有趣。我们重新发明了基础设施,为AWS进行了规模、安全性和可靠性优化,从路由器到冷却系统再到网络协议。
AWS可用区(AZ)
由于我们以不同的方式看待这些问题,我们的全球基础设施与其他云服务商根本不同。这在当前仍然是事实。例如,AWS全球基础设施遍布世界32个地理区域,我们已经宣布计划在每个区域增加五个左右。每个区域由三个或三个以上的可用性区域(AZs)组成,而其他任何云服务商都没有在每个地理区域提供这一点。这一点至关重要,因为在每个区域,AZs之间物理上相隔离,距离最多可达60英里或100公里。然后,它们通过冗余光纤网络相互连接,提供单位数字毫秒的延迟。现在,每个AZ至少是一个完全独立的数据中心,拥有自己的冗余电源、水源、网络和连接。因此,如果发生公用事业故障、意外的流量激增、人为错误,甚至自然灾害,整个区域和您的应用程序都将保持运行。现在,有人会让你认为所有的云都是一样的,但这并不是真的。我是说,想象一下,如果一个区域只由一个数据中心支持,或者如果你认为你的提供商在法国有多个AZ,并且具有韧性,但结果发现它们实际上位于同一位置。我是说,一个像水泄漏后紧接着发生火灾的事故可能会让整个区域瘫痪数天。拥有最广泛和最深刻的能力就像拥有比下一个最大的云服务商多三倍的数据中心,这在容量和可用性方面产生了巨大的差异,并且比下一个最接近的云服务商拥有60%以上的服务和40%以上的功能。这样,你就可以无拘无束地进行创新。我们重新发明它,以便您可以重新发明,
用Amazon S3重新发明存储
以存储为例。所以,我们当然没有发明存储,但我们重新发明了人们如何在云中使用和扩展存储,我们的第一个云服务就是Amazon S3,简单存储服务。所以在过去,存储主要是磁盘阵列,可能需要数周才能配置,显然有限的容量。所以S3提供了高度耐用、性能卓越的对象存储,客户可以即时扩展,几乎是无限的。我记得在2006年我们第一次参加展会时谈论S3,那是它发布的那天,人们很难相信这个成本。我是说,它比他们习惯的要低得多,但我们一直在前进。我们增加了很多存储层,包括S3 Glacier Deep Archive,以不到每千MB不到一美分的价格提供档案存储。但是,为什么您甚至需要弄清楚要使用哪种存储层呢?所以我们构建了S3 Intelligent-Tiering,通过在访问模式发生变化时自动将数据移动到最有效的访问层,来优化存储。Intelligent-Tiering已经为客户节省了……你准备好了吗?超过20亿美元,但这只是存储,对吧?我是说,这肯定不是一个需要重塑的领域。
发布:Amazon S3 Express One Zone
然而,最近我们一直在重新思考最频繁访问和最关注延迟的工作负载的存储,这些工作负载需要高性能的分析处理,比如金融交易分析、实时广告、欺诈检测和ML训练。现在,这些工作负载在短短几分钟内访问数百万次数据,并需要单位数字毫秒的延迟。因此,当前客户经常将数据从S3移动到自定义缓存解决方案,然后以这些速度运行分析。但是管理多个存储基础设施和API会增加很多复杂性。
因此,我们仔细研究了我们可以对S3做些什么来添加——好了,你准备好迎来当前的第一个发布公告了吗?好的,今天,我很高兴宣布Amazon S3 Express One Zone,这是一个新的S3存储类别,专为提供最高性能和最低延迟的云对象存储,用于存储您最频繁访问的数据。S3 Express One Zone使用专为加速数据处理而设计的硬件和软件。它还为您提供了选择AZ的方案,这是第一次,您可以将您的频繁访问的数据放在高性能计算资源旁边,以最小化延迟。因此,S3 Express One Zone支持每分钟数百万次请求,具有一致的单位数字毫秒延迟。这是云中最快的对象存储,比S3标准存储快多达十倍。现在,更快的数据处理让您在计算成本方面节省高达60%。对于需要高性能分析和数据访问成本的工作负载,其数据访问成本也比S3标准低50%。因此,您可以以更低的成本运行这些工作负载。例如,有了S3 Express One Zone,Pinterest观察到运行速度提高了十倍以上,同时将其ML驱动的视觉启发引擎的总成本降低了40%。现在,这使得他们能够更快地进行实验和个性化,改善用户体验。17年前,S3通过推出AWS的第一个云服务而重新定义了存储。有了S3 Express One Zone,您可以看到S3继续改变开发者如何使用存储。同样的简单界面和同样低的成本。现在更快了。
用Graviton重新发明通用计算
让我们看看另一个重塑的例子。通用计算。所以我们差不多十年前意识到,如果我们想继续推动所有工作负载的价格性能极限,我们必须为云时代重新发明通用计算——一直到芯片。在2018年,我们成为第一个主要云服务商开发自己通用计算处理器的公司,当我们宣布Graviton时,我们的服务器处理器芯片,客户喜欢它为微服务和Web应用程序等规模化工作负载提供的成本节省,但他们要求更多。所以我们为您带来了Graviton2,为各种工作负载提高了七倍的性能,而且我们并未止步于此。我们当前的一代,Graviton3,相较于Graviton2,提供高达25倍的计算性能,是EC2中最佳的价格性能。更重要的是,为了相同性能水平,它还使用60%的能量,这对于如今许多客户来说非常重要。而且这与可比较的EC2实例相比。能源效率只会变得更加重要。当前,我们在EC2组合中拥有超过150个基于Graviton的实例,并有超过5万名客户,其中包括所有前100名EC2客户,他们使用基于Graviton的实例来实现价格性能优势。例如,SAP与AWS合作,实际上使用Graviton为SAP HANA Cloud提供动力。使用Graviton,SAP在分析工作负载方面看到了高达35%的更好的价格性能,并计划减少其碳足迹——他们估计可以减少45%。非常令人印象深刻。
发布:AWS Graviton4
我们对创新毫不妥协,并继续进一步推动极限。因此,我今天很高兴宣布我们Graviton处理器的最新一代——AWS Graviton4。Graviton4是我们迄今为止构建的最强大、最节能的芯片,核心数量增加了50%,内存带宽增加了75%,比Graviton3更快30%。Graviton4在某些工作负载上的性能甚至更好,比如对于数据库应用程序,它更快40%,对于Java应用程序,更快45%。由于我们是第一个开发并提供自己服务器处理器的云服务商,我们现在已经进入了第四代,仅用了五年。其他云服务商甚至还没有交付他们的第一代服务器处理器。
发布:基于Graviton4的EC2的R8G实例
我们还宣布了基于Graviton4的第一批实例的预览,RAG实例作为我们内存优化实例家族的一部分。它们旨在为处理大数据集和内存的工作负载提供快速性能,如数据库或实时大数据分析。RAG实例为内存密集型工作负载提供了最佳的价格性能和能源效率,还有许多许多Graviton4实例即将推出,覆盖高度可靠的区域和可用区,具有耐用、可即时扩展、低成本的存储,以及具有自定义设计的芯片的领先价格性能。
用生成式AI重新发明
这仅仅是我们如何不断重塑以提供您推动基础设施、创新和业务所需的一些例子。近二十年来,我们一直致力于为您提供最广泛、最深入的功能,以及最快的创新速度、最可靠、最安全的云服务,当然还有最庞大和最多样化的客户和合作伙伴社区。现在这些优势一直都很重要,但当前更是如此,因为它们也是用生成式AI重新发明的基础。我现在要告诉您,您将需要最广泛、最深入的功能,最佳的价格性能以及您信赖的安全性和隐私性。您需要一切。Amazon已经在AI方面进行创新几十年了。我们在整个公司使用它来优化公司范围内的供应链,以创建更好的零售搜索功能,实现新的体验,如Amazon Alexa或我们的无人购物技术。GenAI是AI的下一步,它将重新定义我们在工作和家中与之互动的每个应用程序。我们已经准备好帮助您使用生成式AI进行创新,因为再次强调,我们对满足您的需求有不同寻常的理解,并且我们一次又一次地进行重塑。因为我们对自我重新发明非常了解,我们知道如何帮助您进行重新发明。从初创公司到企业,各种规模的组织都开始使用生成式AI。他们希望利用早期实验积累的动力,并将其转化为真实世界的生产力增益并推动创新,创新,创新。
生成式AI的三层堆栈
我们认为生成式AI实际上有三个宏观层次,如果您愿意,它是一个堆栈的三个宏观层次,它们同等重要,我们正在投资所有这三个层次。底层用于训练基础模型,其他大型语言模型,我们将称之为FMs,以及在生产中运行这些模型,中间层提供对LLMs和其他基础模型的访问,以及您构建和扩展生成式AI应用程序所需的所有工具,然后在顶层,我们有使用FMs构建的应用程序,以便您可以快速利用生成式AI,甚至无需任何专业知识。
生成式AI的基础设施创新
让我们看看底层基础设施。通过基础模型,有两种主要类型的工作负载:训练和推理。训练是通过从大量训练数据中学习模式来创建和验证FMs,并且推理是使用它来在生产中运行模型以生成文本、图像或视频等输出。这些工作负载需要大量的计算能力。因此,为了使GenAI的应用场景经济实惠且可行,您需要在针对ML和AI进行了特别构建的性能卓越、经济高效的基础设施上运行训练和推理。现在,GPU是可以执行大量数学计算的芯片,同时使它们受欢迎的是可以同时进行多任务处理,这使它们适用于许多不同的工作负载,从ML模拟到3D渲染等等。我们与NVIDIA合作已经超过13年,将GPU带入云端,并构建在支持各种应用场景的计算实例上,包括图形、游戏、HPC、ML,当然还有生成式AI工作负载。在2010年,AWS成为首家在云端引入NVIDIA GPU的公司,使用KG1或Cluster GPU实例。然后,我们成为首家提供搭载NVIDIA V100 GPU的P3实例的公司,接着我们再次成为首家提供搭载A100 Tensor Core GPU的P4实例的公司。在今年早些时候,是的,我们是首家在市场上推出搭载NVIDIA H100 GPU的P5实例的主要云服务商,而P5为训练提供了惊人的性能,它们的速度比P4快四倍,成本降低了40%。现在拥有最佳芯片非常好而且是必要的,但要提供下一级别的性能,您需要的不仅仅是最好的GPU。您还需要运行这些GPU的高性能服务器集群。我们的GPU实例可以部署在EC2 UltraClusters中,并通过我们的Elastic Fabric Adapter(EFA)与每秒3200Gbit的网络连接进行互连。这使得客户能够在单个集群中扩展高达2万个GPU,提供高达20 Exaflops的计算能力,相当于一台超级计算机。在过去的六年里,我们发布的所有GPU实例都基于我们的突破性Nitro系统,该系统通过将存储和网络卸载到专用芯片,从而将虚拟化重新定义,以便所有服务计算都专用于运行您的工作负载。这不是其他云服务商可以提供的东西。使用Nitro,这提供了与裸金属性能无法区分的性能,但价格更低。Nitro系统还提供了持续监视、保护和验证实例硬件和固件的增强安全性。我们已经与NVIDIA密切合作,将我们的网络和虚拟化功能与他们的芯片集成,以为客户提供GPU实例。
特邀演讲嘉宾:黄仁勋,NVIDIA创始人兼CEO
今天,我很高兴地宣布我们正在扩大与NVIDIA的合作关系,推出更多创新,这将为搭载GPU的生成式AI工作负载提供最先进的基础设施。我想邀请NVIDIA的创始人兼CEO黄仁勋与我们一同登台,告诉我们更多。
黄仁勋先生,很高兴见到您。
我很高兴能够在这里。
是的,非常感谢您当前加入我们。这太神奇了。所以正如我刚刚所讨论的,我们与AWS的NVIDIA有着长久的合作关系。我们一直在一起做这件事,我对团队如何合作感到非常兴奋。在后台,您和我正在谈论这个。这个合作真的是不可思议的。多年来一直在发生,我对加深这种合作关系感到非常激动。
谢谢。很高兴能在这里。我很激动能够在这里庆祝我们两个团队的出色工作,并帮助宣布我们的全新大型合作伙伴关系。你知道,我们已经合作了很长时间。事实上,AWS是世界上第一个认识到GPU加速计算重要性的云,而且您很早就将世界上第一批GPU放入云中。从那时起,这是一个令人惊叹的统计数字。仅在过去几年,光是Ampere和Hopper一代,我们在AWS上部署了2百万张卡GPU,达到了3 Zettaflops。这相当于3000台Exascale级超级计算机。是的,准确来说,大多数国家可能对拥有一台Exascale级超级计算机感到满足,而AWS却拥有3000台。而我们只是刚刚开始。
推出L4、L4DS和H200 GPU
今天,我们将宣布部署全新一系列的GPU,即L4,L40S和全新的H200。H200真是令人惊叹的东西。全新的Tensor LLM优化编译器与H200的组合,通过提高推理大型语言模型的吞吐量,使成本在短短一年内降低了四倍。现在,我们的合作始于出色的GPU,我们每个季度都在以不可思议的速度扩张和部署。每个季度为AWS提供超过了一个Zettaflops,这是一个难以置信的数字,当然,所有这些都可能是因为加速计算库。我们两个团队建立了大量新的基础设施,但我们也将我们最受欢迎的库整合到AWS中,包括NVIDIA AI堆栈,我们的NeMo LLM大型语言模型框架,用于RAG推理模型的检索器,我们的NeMo数字生物学大型语言模型基础模型,Isaac Sim和OmniVerse用于机器人技术的基础模型。这是Amazon机器人使用来模拟其机器人和令人难以置信的仓库的技术。所有这些软件堆栈和库都将整合到AWS中。我们的两个团队确实非常忙碌。
UltraClusters
确实非常繁忙。那真是太多太多Zeta和一切了。是的。正如您所说,这种合作将使开发人员能够访问令人惊叹的技术,而他们将需要这些技术来通过生成式AI进行创新。现在其中一个重大的宣布,当然,是AWS将成为第一个将最新的NVIDIA GH200 Grace-Hopper超级芯片搭载新型多节点NVLink引入云中的云服务商。也许您可以告诉我们更多相关信息,以及是什么使这个计算平台如此强大,我们是如何共同引入它的。
嗯,我们两个都对Arm处理器非常热衷,Arm之所以如此不可思议,是因为我们可以将其精确塑造为我们所需的计算类型。它的能耗极低,非常具有成本效益。因此,Grace-Hopper,即GH200,以一种非常独特的方式将两个革命性的处理器连接在一起。它使用一种名为NVLink的芯片对芯片互连,速度为1TB/s,以一种协同的方式连接,以便GPU可以访问CPU的所有内存,CPU可以访问GPU的所有内存,因此这两个处理器可以手拉手以非常快的方式合作。我们所做的第二件事是发明了一种将NVLink扩展到非常大范围的新方法。因此,现在可以通过全新的NVLink开关将32个Grace Hopper连接起来,这就成为一个单位。通过AWS Nitro,这就变成了基本上是一个巨大的虚拟GPU实例。我是说,你要想象一下。你有32个H200,一个虚拟实例中的令人难以置信的算力,因为有AWS Nitro。然后我们使用AWS EFA将其连接起来,这是非常快速的网络,所有这些单元现在可以组成一个UltraClusters和AWS Glue Cluster。所以我迫不及待地想看到所有这些东西如何结合在一起。
将DGX Cloud移至AWS
我是说,这真的是一个令人难以置信的组合。我想象客户将如何使用这些东西。只能想象,我知道H200确实将大大提升客户的操作。当然,它将很快在EC2实例中提供。在生成式AI领域,许多公司都希望将AI引入他们的业务,看到基础设施是很好的,但它延伸到软件、服务和所有其他工作流程。因此,这当然引出了我们当前的第二个重大宣布。与NVIDIA合作,将NVIDIA DGX Cloud引入AWS,我很想听听DGX Cloud对客户来说是一个重要的平台。
首先,DGX Cloud是NVIDIA的AI工厂。这是我们的研究人员推进AI的方式。我们使用AI进行神经图形学。当前我们进行计算机图形学的方式离开了AI是不可能的。我们使用AI推进我们的数字生物学模型,我们的大型语言模型用于机器人技术,用于自动驾驶汽车。我们使用它来模拟地球,创建地球的数字孪生,以预测天气和气候。因此,云对我们非常重要。我们非常兴奋地建立了NVIDIA有史以来最大的AI工厂。
Ceiba项目
我们将在我们公司内部宣布,我们称之为Ceiba项目。你们可能都知道,因为你们在AWS的大会,Ceiba是亚马孙河上最大、最壮观的树。我们称之为Ceiba项目。Ceiba将拥有16384个GPU,连接成一个巨大的AI超级计算机。这是非常令人难以置信的。我们将能够缩短最大语言模型的训练时间。下一代这些大型、极大型的专家模型的训练时间将缩短一半,从而在短短一年内将训练成本减少一半。现在我们将能够训练更大、更大的多模型模型,这些下一代大型语言模型,这16000个GPU将达到65 Exaflops。这相当于将65 Exascale的超级算力放在一台超级计算机中。所以我迫不及待地想要我们站起来。我们的AI研究人员正在迫不及待地等待。当然,这也是我们与需要构建自定义AI模型的合作伙伴和客户合作的地方。您知道,使用现成的模型是很好的,公有云中有许多现成的模型。它将在软件平台中提供。例如,您之前提到的Salesforce等公司将拥有各种各样的现成联合处理器和生成式AI模型。但许多公司需要构建自己的专有模型。因此,我们建立了AI工厂。以便我们可以与他们合作,帮助他们创建他们的自定义AI,并且现在它们将全部在AWS上运行。我们将在AWS上开发模型,在AWS上与我们的客户合作,将它们全部连接到您的服务、存储服务、安全服务和各种其他生成式AI服务,然后在AWS上部署它们。因此,我们将能够在AWS中进行这样的操作,这是有史以来第一次。
这一切都令人惊叹。我的意思是,你们一直在做一些惊人的事情。我们一直在努力,希望看到我们更加紧密地合作。我是说,这将为真正需要它的客户带来令人难以置信的好处。我们感谢合作,感谢与您合作,并期待更多的合作。
集群算力
我们真的很感激这次伟大的合作。现在让我们谈谈算力,或者说如何获得所有这些惊人的计算能力。因此,想要构建和训练模型的客户通常需要大量可靠的集群算力。它必须是集中的,或者说在集群中,但他们并不总是需要相同数量的计算能力。例如,训练模型的客户可能会停下来评估结果,使用新的训练数据或进行其他更改,然后他们想要进行更多的训练。
用于ML的Amazon EC2算力块
因此,这意味着他们经常需要短期的集群算力,直到几周前,没有任何云服务商真正解决这个问题,当我们宣布EC2算力块用于ML时(Capacity Blocks for ML),这一情况才有所改变。EC2算力块是行业中第一个消费模型,使任何客户都可以预留备受追捧的GPU算力,用于短时期的ML工作负载。这消除了需要保留他们只是为了确保将来能够使用它的算力的需求。现在,EC2算力块部署在我们早上谈到的UltraClusters中,通过我们的EFA网络互连,这使得客户可以在单个集群中扩展到数百个GPU。因此,通过算力块,客户可以有把握地规划他们的ML工作负载部署,并且他们知道在需要时以及只有在需要时才会拥有GPU算力。
AWS Trainium和AWS Inferentia
支持最新一代高性能GPU的支持,再加上我们在虚拟化、网络和集群管理方面的创新,这些都是AWS成为全球最佳GPU运行场所的原因。但为了推动客户在ML和AI中的创新和广泛选择,几年前我们意识到,就像我们在通用计算方面使用Graviton时一样,我们还必须一直推动创新,一直推动到芯片片这一层面,这就是为什么我们建造了Trainium和Inferentia。Trainium是我们专为训练ML工作负载和模型而构建的芯片,而Inferentia是我们为在这些模型上运行推断而优化的芯片。早些时候的今年,我们已经宣布了我们Inferentia芯片的第二代Inferentia2,由于我们针对推断进行优化,由Inferentia2提供动力的两个实例在EC2中提供了最佳、最低成本的推断,同时与Inferentia1实例相比,提供高达四倍的吞吐量和十倍的低延迟。像Adobe、德国电信、Leonardo AI这样的客户都看到了很好的早期结果,并正在大规模部署他们的生成式AI模型,使用Inferentia2。我们也看到了对Trainium的很多关注。由Trainium提供动力的我们的Trainium1实例已经被许多客户部署,包括Anthropic合作伙伴,如Databricks和Ricoh,我们自己的Amazon Search团队使用Trainium1实例来训练大型、深度大规模的深度学习模型。他们正在利用Trainium的高性能、可伸缩性和低成本。但随着客户继续在更大、更大的数据集上训练越来越大的模型,我们意识到我们需要不断推动并提高我们的价格性能。我们在这方面永远不会停止。
发布:AWS Trainium2
今天,我非常激动地宣布AWS Trainium2,这是我们的第二代芯片。专为高性能基础模型训练而构建,Trainium2的训练设计旨在提供比我们第一代芯片快四倍的性能,这使其非常适合训练具有数千亿甚至数万亿参数的基础模型。Trainium2将驱动下一代EC2 UltraClusters,将提供高达65 Exaflops的总计算能力,我们预计基于Trainium2的首批实例将于明年上线,我们非常期待看到客户将如何使用它们。与此同时,许多其他云服务商仍在谈论他们自己的ML芯片。
我们在构建支持Trainium和Inferentia的软件工具链方面也取得了很多令人兴奋的进展。AWS Neuron是我们的软件开发工具包,帮助客户从ML芯片中获得最大性能。Neuron支持诸如TensorFlow、PyTorch等ML框架,而且JAX支持也将很快推出,因此客户可以使用他们现有的知识,仅需几行代码即可构建训练和推断流水线。Neuron支持最流行的模型,包括前100名中的93个及以上。
重要的是,你还需要正确的工具来帮助训练和部署你的模型,这就是为什么我们有Amazon SageMaker的原因,它是我们的托管服务,使开发人员能够轻松地进行ML和基础模型的训练、调整、构建和管理。在我们推出SageMaker的六年里,我们引入了许多强大的创新,如AutoML模型调整、分布式训练、用于MLOps的灵活模型部署工具以及内置功能,如负责任的AI。SageMaker在为成千上万的客户,包括Stability AI、AI21 Labs、汤姆森·路透、阿斯利康、3M、卫生信息系统、AWS、法拉利等公司民主化ML方面发挥了重要作用。SageMaker可以训练具有数十亿参数的模型,例如,TI使用3000个GPU和存储在S3中的PB级数据,在SageMaker上训练了1800亿参数的Falcon FM,这是世界上最大的公开可用模型。您还可以使用SageMaker部署这个排名第一的模型。我们还与Hugging Face密切合作,支持他们在SageMaker上的模型,并共同创建了Hugging Face深度学习容器,以帮助加速使用SageMaker、Trainium和Inferentia进行FM训练和部署。
Amazon Bedrock
因此,如果您正在构建自己的模型,AWS会不懈地关注您所需要的一切——最好的芯片、最先进的虚拟化、强大的PB级网络能力、超大规模的集群和正确的工具来帮助您构建。但当然,许多组织只是想要能够访问最强大的模型。他们希望快速入门,尝试不同的模型,并测试不同的应用场景。并迎接巨大的机会。但是,他们也面临这样的问题,比如我应该使用哪种模型?我如何决定哪种模型最适合我的应用?我如何迅速构建和部署生成式AI应用程序?我如何确保我的数据安全和隐私?这就是为什么我们在整个技术堆栈的中间层进行投资。因此,现在我们知道,许多用户希望更容易访问功能强大且多样的模型,包括语言模型和其他基础模型,并能够随时使用它们快速构建应用程序,同时保持安全和隐私。这就是为什么我们构建了Amazon Bedrock。
Bedrock是构建和扩展LLMs和其他基础模型的生成式AI应用程序的最简单方式,全球各行业的客户已经在使用Bedrock重新发明他们的用户体验、产品和流程,并将AI带入他们业务的核心。那么为什么选择Bedrock?首先,您可以享受最广泛的模型选择,其中许多模型首次或在某些情况下仅在Bedrock上提供,您可以通过最广泛的定制方案快速、轻松且隐私地添加自己的业务上下文,并且您可以获得企业级的安全性和隐私性,因为我们从一开始就是这样设计的。客户的激动之情是压倒性的。我们在九月份将该服务正式推出,现在全球已有超过1万个客户正在使用Bedrock,涵盖几乎所有行业。Adidas已经启用开发人员快速准确地回答深度技术问题,Carrier正在使用Bedrock将历史行为、预测性分析系统、警报和数据趋势相结合,以提供建议。这有助于帮助客户减少能源消耗并降低碳排放。纳斯达克正在使用Bedrock自动化可疑交易的调查工作流程,并加强他们的反金融犯罪和监控能力。还有许多其他公司,包括Bridgewater Associates、Clariant、Cox Automotive、GoDaddy、LexisNexis、Merck、Omnicom Group等都在使用Bedrock,他们都在使用它来构建生成式AI应用程序。
模型选择的重要性
当前还只是初期阶段,每个人都在迅速行动,进行实验和学习。与此同时,生成式AI技术本身正在迅速发展,几乎每天都有新的进展,客户发现不同的模型实际上在不同的应用场景或不同的数据集上效果更好。有些模型非常适合摘要,其他模型适合推理和集成,还有一些模型在语言支持方面表现出色。然后还有图像生成、搜索应用场景等,这些都来自专有模型和对所有人都可用的模型。我是说,事情发展得如此之快,在这种环境中适应的能力是您可以拥有的最宝贵的能力。不会有一个模型能够统治一切,肯定不会有一个公司提供每个人都使用的模型。因此,您不希望一个云服务商主要是向一个模型提供商屈服。您需要尝试不同的模型,需要能够迅速在它们之间切换,甚至在相同的应用场景中将它们组合使用。在决定谁拥有最好的技术以及谁具有您在商业伙伴中需要的可靠性时,您需要真正的模型提供商的选择。我认为过去十天发生的事件已经非常明确地表明了这一点。我们一直在AWS的整个历史上都一直如此,并且这是我们在将近一年前开始讨论我们的生成式AI战略时明确提出的方法。这就是为什么我们继续创新,使在一系列基础模型之间构建和切换变得像调用API一样容易。当前,Bedrock提供了对来自领先提供商如AI21 Labs、Anthropic、Cohere、Stability AI以及Amazon自家的Amazon Titan等的广泛模型的访问。但我们并未止步于此。我们是第一个通过完全托管的API使Metis LLM-2模型可用的公司。
特邀演讲嘉宾:Dario Amodei,Anthropic CEO兼联合创始人
我们还最近宣布了与Anthropic的扩展合作。Anthropic是AWS的长期客户,也是世界领先的基础模型提供商之一。他们的模型Claude等在许多复杂的对话和创造性内容生成,以及复杂的推理和详细说明等广泛任务上表现出色。因此,在这次合作的框架下,Anthropic将利用Trainium和Inferentia来训练他们未来模型的新一代,而Bedrock的客户将获得提前访问,这是在其他云平台上无法获得的,可以进行模型定制和微调的独特功能。
为了深入了解我们与Anthropic合作的内容,我想请出我们的合作伙伴Dario Omodei,他是Anthropic的CEO和联合创始人。让我们为他鼓掌。好的,我们有椅子,让我们坐下。Dario,感谢您的到来。
感谢邀请我来到这里。
是的。早些时候,我们谈到了Claude在Bedrock上的可用性,但在深入讨论这个之前,让我们简要谈一谈Anthropic的背景,以及Claude有何独特之处。
是的,Anthropic的创立理念是我们可以制作出既安全、可靠又可操控的AI模型,同时又具有很高的能力。Anthropic的创始人是一组在OpenAI工作了好几年的人,我们制定了GPT-3、强化学习与人类反馈(RLHF)、语言模型的扩展规律等一些关于当前生成式AI繁荣的关键思想。我们七个人离开了OpenAI,创立了Anthropic,并推出了我们的基础模型Claude。除了安全可靠外,Claude在许多知识工作任务上表现出色,如内容生成、摘要、问答、复杂推理等。我们拥有业界领先的上下文窗口,可以容纳20万个标记,约为15万个单词,非常适合领域,如法律、金融、保险、编程等。大约一半的财富500强公司正在使用或正在测试Claude。
取得了惊人的进展。就在几个月前,显然Amazon和Anthropic宣布了一种增强的战略合作关系,Anthropic将AWS视为其关键工作负载的主要云服务商,并将在AWS上训练和部署Claude和基础模型的未来一代。那么,从您的角度来看,是什么导致了这一点,Anthropic和AWS之间的关系是如何发展的?
是的,Anthropic使用AWS的历史可以追溯到我们早期的历史,一直回溯到2021年的时光中。我们在AWS上训练了我们的第一个模型。因此,我们现在很高兴地说,你们是我们关键工作负载的主要云服务商。我会说这个合作有三个组成部分。首先是计算方面,正如我刚刚讨论的那样,这是我们在整个历史上一直在做的。其次是关于向客户提供的部分。我们对Amazon Bedrock的消息非常兴奋,我们真的意识到我们在一起可以为客户提供的价值,第三个方面是硬件。我们目前正在与你们合作,为我们的应用场景优化Trainium和Inferentia,希望能够比第一代Trainium更快地实现四倍的性能。因此,将这三个层次的堆叠放在一起,确实允许我们一起向客户提供以前无法提供的东西,比如模型定制、使用专有数据和独特的微调功能。
嗯,我们对你们的尊重真的是非常高的。我真的很享受我们一起工作的过程,你们的团队真的是世界级的专业水平。这些模型真的非常强大。显然,通过这种合作,我们正在努力改善令人难以置信的一系列客户体验。Titan,当然我们自己的Amazon开发人员也可以在Bedrock上访问Anthropic的模型,在整个公司内也是如此。我们不仅仅是为客户提供这个,而且我们正在为他们提供早期访问一些他们在其他地方得不到的独特功能。我们还通过我们的生成式AI创新中心与客户在现场合作,帮助他们实际实现目标。当然,这使我们能够提供这种专业知识和领域专业知识,以帮助他们定制模型。在我们一起出去工作的过程中,这段时间特别忙碌,尤其是过去的几周,但在此之前也是如此,您见过一些最有趣的应用场景吗?
是的,我将提供跨不同行业的三个例子。还有很多其他例子,但这应该给你们一些范围的感觉。我们已经看到了许多有成效的应用。在生物医学领域的一个例子是,我们很高兴地宣布我们正在与辉瑞合作。我自己曾经是一名生物学家,所以我真的很兴奋以任何方式推动医学科学,并为世界各地的人们带来挽救生命的药物。在法律领域,我们为LexisNexis制作了一个定制的微调模型,部署到您那里,以帮助进行法律搜索,以一种基于事实的方式并生成引文。在金融领域,我们正在与Bridgewater Associates合作开发一款投资分析助手。但除此之外,只是一些例子。我们已经与七家十大最大的保险和银行行业的公司合作,可以讲述其他行业类似的故事。因此,我们很期待看到新的应用场景以及所有这些的发展。
那真是令人振奋的势头。与这么多领导者合作,仅在金融服务领域就是一个例子。所以就在上周,你们并没有停下脚步,对吧。所以就在上周,你们宣布了Claude 2.1。其中包含了许多关键能力的新进展,也许你可以稍微告诉我们一些关于这个的信息。
是的,Claude 2.1实际上是一个面向企业的版本。有几个不同的特性。首先,我们将我们的上下文窗口扩大到20万个标记。在AI领域,标记是一个专业术语。它相当于大约15万个单词,这是一本相当长的书。因此,使用案例,例如阅读财务报表,阅读整本长篇小说。还有一个我最喜欢的功能,就是将多个文件放入上下文窗口,并要求模型比较它们或将它们整合在一起。第二个特性是我们已经将所谓的“幻觉”发生的速率降低了大约两倍。在整个行业中,这是部署在企业世界中的一个核心障碍,人们担心模型会说出不真实的话。没有人完全解决了这个问题,但我们在引导更多减少方面确实引领着前进。此外,我们还推出了一些测试功能,我们正在引入系统提示作为测试功能,并推出了一个开发者工作台。所有这些工具都是为构建面向企业的人员而设计的。我们很期待看到由此产生的所有应用场景。
这是如此令人难以置信的进步。是的。我是说,你谈到了减少幻觉,这是一个非常重要的话题。更广泛地说,我认为我们分享的信念是AI应该是安全、负责任的,并造福社会。我们一直参与着许多推动负责任AI开发和部署的团体和组织,事实上,我在世界各地的一些各种聚会上经常碰到Dario,这很好。所以我知道这是你的一个特别热情的领域。你能告诉我们更多关于Anthropic在这个领域的工作吗?
是的,我是说,显然这是我们创立的初衷,我们深感关切。我会将其归类为我们在这个领域所做工作的两个方面。一个是我们如何设计自己的模型,另一个是我们如何试图为生态系统树立榜样并带动其他人,以便最终每个人都变得更加安全可靠。在第一个方面,我们研究机构的大部分工作都在安全性方面。我们投入了大量的工作,使我们的模型难以破解,使它们免受滥用和有害使用。最近卡内基梅隆大学的一项研究发现,人们试图对不同的模型进行敌对性破解,他们成功破解Claude的次数是他们成功破解竞争对手模型的十分之一。因此,这里确实存在实质性的差异。其次,我们付出了很多努力,使模型的可解释性增强,使我们能够洞察模型的内部。到目前为止,还没有商业部署的相关功能,但这是一个很长的过程,我对于在合规性和理解模型行为方面能够取得很大进展感到乐观,因此我们将能够在更广泛的生态系统上取得很大的进步。我们始终试图创造一个顶端的竞争,做某事,然后生态系统中的竞争对手、其他参与者也会效仿并做同样的事情。一个例子就是负责任的扩展政策,我们在模型扩展之前提前加载了安全性投资,一种类似于汽车和飞机的预部署测试制度。在政策领域,我们不断呼吁政府建立其评估和衡量AI系统能力的能力,因为如果我们无法评估和衡量事物,我们要么得不到监管,要么得到的是信息不足的监管。我们需要共同努力,确保我们能够快速、负责任地发展,但是以一种安全的方式。
我只是喜欢“竞争到顶端”的概念。它是如此积极向上。你所做的真是太神奇了。我是说,AWS提供服务的整个17年来,给予我们能量的很大一部分就是与全球最酷、最前沿的初创公司和企业家一起工作。在生成式AI现在发生的事情和Anthropic正在做的事情中,没有比这更好的例子了。所以能够如此深入地合作真的太好了,非常感谢你当前在这里加入我。
是的,对于我们一起能做的一切感到非常兴奋。
谢谢。好的,好的。这真是令人惊叹。
再次感谢你,Daria,今天过来参加我们的活动,真的非常感谢。
Amazon Titan模型
在生成式AI模型方面的创新是爆炸性的,我们真的期待与我们Bedrock伙伴合作多年。这是一个极具创新性的领域。我们也对我们在Amazon内部构建的大语言模型和其他基础模型感到兴奋。所以我们的Amazon Titan模型是由AWS创建和预训练的,我们正在构建自己的模型,以为客户带来一些实际的好处。我们在这方面拥有很多专业知识。我是说,Amazon在AI上已经工作了25年。我们有着悠久的历史。我们在业务中使用这项技术,我们在构建和部署模型方面积累了很多经验。因此,我们可以提供一整套能力,为一系列应用场景提供强大的能力和极好的经济支持,我们精心选择如何训练我们的模型以及我们用于训练的数据。我们实际上将为客户提供免责声明,以确保我们的模型或其输出不侵犯任何人的版权。现在,Titan家族中已经有多个模型。我们有Titan Text Lite,适用于文本摘要等文本任务。我们还有Titan Text Express,适用于更高级的通用语言任务,如复制编辑、文案编写。我们还有Titan Text Embeddings模型,用于搜索应用场景或个性化等,我们将继续向Titan家族中添加模型。如果您对此更感兴趣,我强烈建议您明天观看Swami的主题演讲。
Amazon Bedrock
我一直在谈论的所有基础模型都非常强大,它们都能够支持许多出色的应用。但要真正推动您的业务,您需要了解您的业务、了解您的客户、了解您的产品、了解您的运营,只有当您使用自己的数据来改进和定制模型时,这才有可能。模型必须变得独一无二。因此,Amazon Bedrock为您提供了所有定制AI应用程序所需的专门构建的能力。通过几次点击,您可以从通用应用程序转变为高度具体且高度定制的应用程序。
发布:微调
因此,一种重要的技术被称为微调。现在,通过微调,您将模型指向S3中的已标记数据示例以提供上下文。例如,您可能指向了一些投标书,您已将其中一些标记为强烈。通过这种方式,模型从您学到,从您的数据中学到,学到对您最重要的事情。然后,Bedrock制作基础模型的副本。它对其进行训练,创建一个私有微调模型,因此您可以获得定制的响应。微调在Amazon Titan Text Lite和Express中可用,当前还可以在Cohere Command Lite和Meta Llama 2中使用,微调即将推出Anthropic Claude。
发布:带有知识库的检索增强生成(RAG,Retrieval Augmented Generation)
用于定制基础模型的第二种技术称为检索增强生成或RAG,这是您经常在外面看到的另一个术语。因此,RAG允许您在希望模型考虑新知识或最新信息时定制模型的响应。Bedrock通过调用和获取您自己的数据,包括文档存储库、数据库和其他API等,为您执行此操作。因此,例如,模型可能使用RAG从我们的Amazon OpenSearch服务检索搜索结果或从S3检索文档。在9月,我们推出了一种名为Knowledge Bases的RAG功能,它将FM连接到您的专有数据源,以补充您的提示并提供更多信息,当前Knowledge Bases已经正式发布。
发布:Amazon Titan Text Lite & Express的持续预训练
您可以在Bedrock内部定制模型的第三种方法是一种称为继续预训练的技术。因此,继续预训练是一种在微调之前使用大量未标记数据的技术。您在这里标记的数据是您拥有的内部报告、财务计划或研究结果等未标记数据的原始文本。将用于使用您自己特定领域的事物来改进模型的知识和推理能力。因此,继续预训练当然当前在Bedrock中可用。现在,所有这些技术,它们都是使生成式AI定向、使其对您的业务真正有用的强大工具,而Bedrock使将这些技术结合在一起变得非常容易。
达美航空
一个使用Bedrock定制其生成式AI应用程序的客户的绝佳示例是达美航空。因此,达美正在通过在Amazon Bedrock上构建的生成式AI应用程序现代化其客户服务能力。新工具将可用于以更相关和对话的方式回答问题,通过访问达美的旅行政策、实时航班时刻表、客户改签方案和机场状况。例如,它可以回答简单的问题,比如我在达美航班上可以托运多少行李?它还可以回答更复杂的问题,比如我能带着猫一起在机舱里去牙买加吗?当然。你还能怎么办呢?
达美一直在测试Bedrock中的不同基础模型,包括Anthropic Claude 2.0、Claude Instant和经过微调的Amazon Titan Text Express模型。通过这种方式,他们可以使用正确的模型回答不同的客户问题,这是一种非常强大的方法,可以结合回答任何具体问题所需的最相关信息。通过新的客户服务工具,达美航空公司的目标是提供愉快而富有对话性的自助服务体验,并提高客户满意度。
发布:用于Amazon Bedrock的代理
大家都希望拥有更相关的生成式AI应用程序,Bedrock正在使使用自己的数据定制这些应用程序变得更加容易。但最终,您希望FMs能够做更多事情,不仅仅是提供有用和定向的信息,最终您希望使用FMs来采取行动,实际完成任务,我们希望您能够使用Bedrock来完成诸如预订旅行、提出保险索赔、部署软件、甚至订购替代零件等操作。这通常需要在您的组织中操作的多个系统之间进行协调,这就是几个月前我们推出Bedrock代理的原因。当前我很高兴宣布这个强大的功能已经正式发布。通过代理,GenAI应用程序可以在公司系统和数据源之间执行多步任务,从回答关于产品可用性的客户问题到接收销售订单等等。构建代理非常简单。首先,您使用Bedrock设置向导选择适当的模型。然后,您为模型提供基本的指令,帮助模型了解如何响应,比如您是一个友好的客户服务代理,帮助客户退货。接下来,您指定Lambda函数,执行检索与任务相关的信息的API调用,例如退货政策或库存水平。最后,您选择数据源。然后,您只需选择“创建代理”,Bedrock配置您的代理,它现在已经准备运行。当代理收到请求时,它使用其推理能力来分析和规划任务。模型确定步骤序列、所需信息、要调用的API以及何时调用它们。然后,它执行计划,执行所有需要收集信息并完成任务的步骤,所有这些都在后台进行。无需工程提示,无需训练FMs,也无需手动连接系统。生成式AI正在成为您业务的一个组成部分,使采取行动和完成任务变得轻松。无需费力搬运。
安全和隐私
我们已经讨论了Bedrock如何轻松选择领先模型,以及如何以多种不同的方式定制生成式AI应用程序,使用您自己的数据,并帮助将模型的力量整合到您组织的系统、数据和API中,实际采取行动。但是,如果不安全和隐私,您实际上不会以严肃的方式使用这一切。
我的意思是,您对生成式AI的要求与您对任何工作负载的坚固可靠性和安全性要求相同,您确实需要这一点,它不多也不少,正是您对AWS服务的一切期望。就像S3、EC2、RDS一样,Bedrock必须具有企业级安全性功能,以确保您的数据安全且隐私,这就是它所拥有的。Bedrock客户可以相信他们的数据始终得到保护。没有客户数据将用于训练或改进原始基础模型。当您调整模型时,我们制作一个私有副本该模型。我们将其放入安全容器中,它不会去任何地方。您的数据永远不会暴露于公共互联网,永远不会离开AWS网络。它通过您的VPC进行安全传输。在传输和静态时进行加密,Bedrock强制执行与我们其他任何服务相同的AWS访问控制。此外,Bedrock还支持多种监管标准。它符合HIPAA资格,可与GDPR合规使用。我们增加了许多其他安全和治理功能,包括与CloudWatch的集成,以跟踪使用和指标,与CloudTrail的集成,以监视API活动并排除故障。当前,Bedrock符合SOC标准。现在,这有助于确保客户可以在其业务中拥有强大的控制和政策,并帮助其在每个业务中使用。
负责任的AI
在安全性之外,我们需要以安全、值得信赖和负责任的方式部署生成式AI,就像我们刚才讨论的一样。这是使GenAI成为创新工具的能力的北极星,也增加了滥用的潜力。我们必须找到一种解锁生成式AI全部潜力的方式,同时减轻风险。处理这一挑战将需要前所未有的跨技术公司、政策制定者、社区团体、科学界和学术界之间的协作,真正的多利益相关者努力。我们一直在积极参与许多早些时候聚在一起讨论这些问题的团体,今年早些时候,我加入了拜登总统和其他行业领导人,如Ray Dalio,宣布我们已经作出了一系列推动AI技术安全、安全和透明发展的自愿承诺。就在这个月,我见了英国首相Sunak,参加了他的AI安全峰会,讨论了包括组建他们的新AI安全研究所在内的新方法。负责任的AI的一个重要组成部分是促进您的消费者与安全的应用程序之间的交互,避免有害输出,并符合公司的准则。最简单的方法是实际上限制模型可以和不能返回的信息。
发布:用于Amazon Bedrock的Guardrails
我们一直在努力,今天我们宣布了Amazon Bedrock的Guardrails。这是一种新的功能,可帮助您使用负责任的AI政策轻松保护生成式AI应用程序。要创建Guardrail,Bedrock提供了配置向导,因此您可以输入您希望模型避免的主题的自然语言描述。Guardrails可与Bedrock可访问的任何基础模型一起使用,包括通过自己的微调创建的定制模型,您还可以与代理一起使用Guardrails。现在,您可以在所有GenAI开发活动中保持一致的保护水平。例如,银行可以配置在线助手,以避免提供投资建议或防止不当内容。电子商务网站可以确保其在线助手不使用仇恨言论或侮辱性语言。或者公用事业公司可以从客户服务电话摘要中删除个人身份信息或PII。
用AWS重新发明
因此,我们正在根本上以一种不同寻常的方式看待生成式AI的整个概念,因为我们理解重新发明需要什么。您将如何利用这项技术?就像您多年来使用AWS重新发明您构建和创新的方式以及最终转变您的组织运营的方式一样。无论您是迁移企业应用程序、构建下一个热门初创公司还是部署您的生成式AI战略,我们的方法始终相同,客户至上,创新和对共同成功的长期展望。
特邀演讲嘉宾:Lidia Fonseca,辉瑞首席数字和技术官
要了解更多关于她的公司如何构建在AWS上,并如何借助生成式AI进行重新发明,请欢迎辉瑞首席数字技术官Lidia Fonseca上台。
感谢大家。我想开始问一下去年辉瑞治疗了多少患者?您可能会想到数百万,但事实上我们治疗了13亿患者,用我们的药物和疫苗。这相当于地球上六分之一的人口。这是一个令人印象深刻、令人谦卑的成就。我们很荣幸被认可为一家创新和道德兼备的公司,被列为《财富》全球最受钦佩公司、《福布斯》全球最佳雇主以及《时代》杂志全球最佳公司。
辉瑞正经历着一段刺激的创新和增长时期,推出了90种药物和疫苗,用时18个月。这在我们或其他制药公司中从未发生过。这是一个非常雄心勃勃的目标,我们已经在这条路上取得了成功,已经推出了13种数字数据和AI对我们的成功至关重要。辉瑞的不同之处在于我们将其应用于所有业务单元、我们36家工厂和我们服务的149个市场,以快速、大规模地将药物带给患者。我们当前的成功建立在我们为技术和AI奠定的基础上,通过集中化我们的数据、创建标准平台、培养强大的人才并在创新中建立一个安全的基础。我们无法在没有与AWS的紧密关系的情况下取得如此巨大的影响。所以让我分享一下我们一起走过的一些历程。
在2019年,辉瑞和AWS创建了一个开创性的科学数据云,聚合了来自数百台实验室仪器的多模态数据,使我们的科学家能够实时搜索所有历史分子和化合物数据,而不是在以前的零散环境中需要数周或数月。科学数据云加速了研究的分析和计算,借助AI算法,帮助我们识别和设计最有前途的新分子,
这在2021年得到了进一步的发展。辉瑞启动了我们最大胆的计划之一,从云端迁移到云端,从10%的核心迁移到云端80%,在42周内搬迁了12000个应用程序和8000个服务器。这是我们公司规模下迁移中最快的之一。这一举措使我们每年节省了4700万美元,并帮助我们关闭了三个数据中心,减少了4700吨二氧化碳排放,相当于一年内1000户家庭的能源消耗。但是非常重要的是,它使我们能够以更快的速度和更大的规模进行创新。例如,我们将设置计算能力的时间从几个月缩短到几小时,加速了用于药物提交的数据生成。
当COVID爆发时,AWS是最早提供帮助的公司之一,将我们扩展到云中的数万个额外核心,并加速了制造和临床试验。当我们进行计算密集型分析以了解如何制造COVID疫苗时,AWS提供了额外的CPU,使我们能够迅速行动。当我们需要在一天内向FDA提交数据时,AWS增加了我们的容量,使辉瑞能够以科学的速度前进。事实上,从我们宣布与BioNTech共同开发COVID-19疫苗的计划到我们收到FDA紧急使用授权的269天内,这通常需要8到10年时间。
在全世界等待的时候,我们需要尽快制造和分发疫苗。我们坚守着我们的信条,即科学将获胜。而在科学获胜的同时,数字帮助我们更快地实现这一目标,辉瑞的行业领先数字运营中心使我们的同事能够实时查看工厂的生产状况并解决问题,产量提高了20%。我们的mRNA预测算法使每批次多生产了2万剂疫苗。想象一下这对生活的影响。在COVID之前,辉瑞总共生产了2.2亿剂疫苗,而现在已经扩大到2022年的40亿剂。这现在已经成为我们工厂运作的核心,并且我们将这些创新应用到我们的其他药物和疫苗中。
最近,AWS帮助我们应用AI生成关于潜在供应链中断的警报,促使我们重新安排运输路线,以继续将药物交付到飓风伊恩登陆前的临床试验点。数字AI使辉瑞能够以前所未有的速度将药物快速送到全球患者手中。现在让我们来看看接下来会发生什么。正如您所听到的,辉瑞一直在利用AI在全球范围内推动创新和提高生产力。
最近,我们正在利用生成式AI,预计将在短期内实现每年7.5亿至10亿美元的成本节省。使用AWS云服务带来了真实的、有形的价值。辉瑞迅速部署了我们的内部生成式AI平台FOX,使同事们能够访问Amazon Bedrock和Sagemaker中可用的大型语言模型,AWS的各种服务以及Bedrock中的多种语言模型,意味着我们可以为研发、制造、市场等应用场景选择最佳工具,使辉瑞和AWS能够在短短几周内原型化17个不同的应用场景。在生成式AI中,将帮助我们识别新的肿瘤靶点,这个过程当前主要是手动完成的。通过AI,我们可以在更短的时间内从更多的来源中搜索和整理相关数据和科学内容,并通过算法生成和验证潜在的靶点,以提高我们的科学成功。借助Bedrock,我们可以扫描市场上的公司和资产,自动创建公司概况,以优先考虑在制造方面的潜在收购角色。Bedrock采用最佳流程参数来识别我们称之为“黄金批次”的批次,并使用生成式AI实时检测异常并向我们的操作员推荐操作,以提高周期时间25%。AWS的敏捷文化与辉瑞的Lightsail领先工作方式高度契合。我们期待在我们的学习基础上继续努力,不仅了解AI如何改变我们的日常工作,还了解它如何帮助我们颠覆整个行业。
最后,我们很高兴加速对抗癌症的步伐,通过辉瑞拟议的收购CDN,一个专注于癌症治疗的生物技术公司。我们计划将Jens领先的抗体药物连接技术更快地带给更多癌症患者。您知道,我们希望在癌症方面取得与COVID相同的成就。感谢AWS帮助辉瑞更快地为患者带来突破性。
因为在对抗疾病的战斗中,时间就是生命。
地球上每六个人中就有一个受到了辉瑞的影响。这实在是太令人印象深刻了。如此令人印象深刻。Lidia对我们来说意义重大,老实说,您信任AWS来提供所有这些能力,这些改变着人们生活的突破。
ML奖学金
全球范围的组织正在利用AWS的敏捷性、速度和所需的规模来推动他们的未来。但这需要拥有一流云技能的员工。我们知道没有足够多的人具备云技能,存在着一个需要填补的巨大技能缺口。当然,生成式AI是下一个令人兴奋的新机会,但它只会加大这一缺口。因此,我们正在投资以帮助提供未来数年全球所需的云规模技能。AWS致力于在2025年之前为29百万人免费提供云计算技能培训,而我们已经训练了2100万人。我们刚刚推出了AWS云学院,为学生提供深入的云专业知识,帮助他们启动整个云职业生涯。我们还推出了100门不同的ML和AI课程和资源,以支持创新。就在一周前,我们宣布了AI Ready,这是我们新的承诺,到2025年为另外200万人提供免费的AI技能,并帮助全球学生学习基础技能,为科技职业做好准备。我们实际上创建了一个AI和ML奖学金基金。
让我们来认识一些获奖者。我的名字是Vania Garewal。我的名字是Jose Tapia。我的名字是Olympia Otieno。
如果没有AI/ML奖学金,我将无法提出自己的问题,也不会知道有哪些工具可用于解决这些问题。
这个纳米学位确实解锁了我的兴趣,我一直试图与在肯尼亚因作物疾病而对人生道路感到困惑的女孩们交流,由于产量的下降速度令人震惊。因此,我和我的同事们开发了一个带有AI的移动应用程序,以帮助农民预防作物疾病的传播。通过参与这个项目,我现在知道我有能力在这个领域取得好成绩。
我是说,这就是我们做这些事情的原因,对吧?我们真的很幸运能够在今天与Jose和Olympia到现场。来吧,让我们为他们鼓掌。给你们两个。我为你们所做的事情感到骄傲。我真的希望re:Invent这一周对你们来说是一次很棒的经历。非常感谢你们让我们分享你们的故事。
利用FM的应用程序
对于所有在观众的人,我们希望赋予你们所有人建设和产生影响的能力。我们看到通过将生成式AI融入人们日常生活中使用的所有系统,可以在这方面发挥巨大的机会。我们相信,生成式AI应该帮助每个人在工作中无缝使用有益的、相关的辅助。无论你是否知道基础模型的第一件事是RAG还是其他任何东西。这就把我们带到了堆栈的顶端,由生成式AI驱动的应用程序,利用基础模型。我们相信,生成式AI当然具有随着时间推移改变我们所知的几乎每个客户体验的潜力。它可以深入系统的各个角落,实际上帮助您找到甚至您自己都不知道存在的数据。然后帮助您将其最佳地利用。它可以生成可以节省数小时手动工作的洞察,并可以将原本很烦琐的项目变得轻松。
Amazon CodeWhisperer
一个重要的例子是生成式AI如何可以使编写代码的任务变得极为迅速。因此,去年我们推出了Amazon CodeWhisperer,它可以通过实时生成代码建议,帮助您更快速、更安全地构建应用程序。现在,使用CodeWhisperer,开发人员使用自然语言提示,然后在每个流行的IDE中接收准确的代码建议。对于15种最流行的编程语言,CodeWhisperer为开发人员提供了强大的推动力,以获取通用的代码示例。当然,我们确保它非常适合为客户提供代码的特定建议,包括Warner Music Group、Bundesliga和Cigna Group已经使用了CodeWhisperer,以加速其开发能力,而Tata Consultancy Services、AWS、Accenture和HCLTech则正在让数以万计的员工使用CodeWhisperer。Cohen是全球电梯和扶梯行业的领导者。他们实际上认为CodeWhisperer是改变游戏规则的一项技术,我们希望尽可能多的开发人员受益。
因此,我们已经做了一些工作,使CodeWhisperer中的代码建议免费,个人用户可免费使用。CodeWhisperer中的建议和代码耳语对于一般的编码任务非常有用,但通用的编码建议只能使开发人员走得更远。想象一下,您刚刚聘请了一位新的开发人员,即使他们是世界级的,他们在理解您的代码库和内部最佳实践之前都不会做出最好的工作。AI 助力编码工具也是类似的。您可以拥有一个很棒的工具,但要获得最大的速度和相关性,使最大的不同,您的解决方案必须理解您的代码上下文,找到这个上下文的最佳位置就在您的内部API、库和包中。因此,几个月前,我们推出了一项功能的预览版,允许CodeWhisperer安全地从您的内部代码库中学习,以提供更加相关、定制和有用的代码建议和定制。CodeWhisperer是您代码的专家,并可以提供更加量身定制的建议。它能够理解您内部SDK、API、语言和类的背景。当然,任何定制都是隔离的,我们从不使用CodeWhisperer中的客户内容来训练我们底层的模型。为了理解这种定制的影响,我们与Persistent合作,这是一家数字工程提供商。他们的研究表明,使用CodeWhisperer进行定制的开发人员比没有定制的开发人员完成任务的速度快28%。AWS是目前唯一一家提供任何人都可以注册并使用的定制能力的主要云服务商。我们对CodeWhisperer的定制和它如何帮助您加速工作并增加影响力感到非常兴奋。
发布:Amazon Q
但我们只是刚刚开始,我们看到了更多生成式AI的潜在用途。例如,想象一下生成式AI聊天应用程序。这些天似乎每个人都在尝试它们,对吧?这个领域的早期提供者所做的事情真是令人兴奋,对于消费者所有者来说确实非常有用。但在许多方面,这些应用程序在工作中并不真正有效。它们是通用知识,它们的能力很强大,但它们不了解您的公司。它们不了解您的数据、您的客户或您的运营。这限制了它们的建议有多有用。它们还不太了解您在工作中是谁。它们不了解您的角色、您的偏好、您使用和无法访问的信息。因此,关键是,其他一些已经推出工具的提供者在没有数据隐私和安全功能的情况下推出了这些工具,这是每个企业都需要的品质。因此,许多首席信息安全官实际上禁止在其组织内使用许多最受欢迎的聊天助手。这已经被广泛报道,只需问任何首席信息安全官或首席安全官,他们会告诉您,您不能真正在事后添加安全性,并期望它能够像预期的那样工作。将安全性构建到技术的基本设计中要好得多。
因此,当我们着手构建生成式AI应用程序时,我们知道我们必须解决这些差距,必须从一开始就构建进去。对吧?这就是为什么当前我非常自豪和兴奋地宣布Amazon Q,这是一种新型的生成式AI助手,专为在工作中使用而设计。Q允许您通过自然语言交互快速回答问题,您可以轻松聊天、生成内容、执行操作,所有这些都是基于对您的系统、数据存储库和运营的理解。
当然,我们知道坚实的安全性和隐私性有多么重要。因此,Q了解并尊重您现有的身份、角色和权限。如果用户没有权限访问某些内容,即使使用Q,他们也无法访问。我们设计Q以满足企业的要求,从一开始就满足企业客户的严格要求。我们从不想要业务客户的内容。我们永远不会使用那些内容来训练底层模型。
我真的相信这将是变革性的。我们希望有很多不同类型的人,从事很多不同类型的工作,从Amazon Q中受益。正如您所期望的那样,我们希望Q能够帮助开发人员和构建人员更加高效、更加有知识和更加熟练。首先,Amazon Q是在AWS上构建的专家助手。现在,为了为开发人员和专业人士提供支持,我们已经对Amazon Q进行了17年的知识训练,使其能够转变您在AWS上思考、优化和操作应用程序和工作负载的方式。
发布:Amazon Q | 架构
我们已经将Amazon Q放在您工作的地方,因此它已准备好在AWS管理控制台和文档中协助您,在您的IDP通过CodeWhisperer以及在您的团队聊天室(如Slack)中与AWS云进行交谈,以探索AWS的能力,了解不熟悉的技术,构建解决方案。它是AWS Well-Architected模式的专家,学习最佳实践和解决方案实施。例如,您可以问Amazon Q如何使用AWS构建Web应用程序?我有哪些选择?它将以潜在服务列表的形式回答,例如Amplify、Lambda或EC2,然后提供您可能考虑每种服务的原因。从这里,您可以通过自然语言进一步缩小方案,比如说我的应用程序只需要运行几秒钟,流量非常少,Lambda就可以了。Amazon Q会考虑您的要求,并为您提供最佳的建议。一旦您选择了一个服务,您可以问Amazon Q如何入门?Q会为您提供配置解决方案的逐步说明,以及与文档等相关信息的链接。这只是Amazon Q将帮助您工作的开始。例如,如果您在控制台中遇到Lambda错误,只需按一下使用Amazon Q的故障排除按钮,Q会研究错误并建议如何修复。Amazon Q还可以解决您的网络连接问题,并分析您的端到端网络配置,帮助快速解决连接问题。这是一个巨大的时间节省者。还能帮助您什么?比如,选择最佳的EC2实例,因此您只需告诉Q您的工作负载,即可获得准确、快速和经济的实例类型建议。例如,哪种EC2实例类型为视频编码和转码工作负载提供最高性能,支持游戏应用场景,您会得到建议。就是这么简单。我们期望Amazon Q将在架构、故障排除和优化工作负载方面为客户节省大量时间,但这还不是Q可以为您做的全部。
Amazon Q还将出现在开发人员的IDE中。如果您对IDE中的代码不熟悉,或者需要深入了解特定功能的工作原理,Amazon Q和CodeWhisperer将帮助您借助其对AWS的深刻了解和对代码库的理解快速上手。所以如果需要添加测试,只需问Q,它将自动生成测试。这对于开发人员来说将是一个巨大的改变。但我们知道我们可以做得更多,以帮助您更快地构建。例如,考虑构建新功能所需的一切。您必须理解需求、思考设计、编写所有代码、添加测试、记录代码等等,而一个文件可能涉及数百甚至数千行代码。如果您使用Amazon CodeWhisperer,它将为您生成新代码的块,这是一个真正的时间节省者,但仍然保留了所有其他任务。因此,这听起来像是Amazon Q的一个任务,具体来说是Q的特性开发功能,它将自动化添加新功能到您的应用程序的多步开发任务。因此,现在您只需撰写一个提示,Q将使用其丰富的专业知识,结合对您项目代码的理解,为您处理所有繁重的工作。因此,Amazon Q将创建初步计划,您可以通过自然语言聊天进行协作和迭代改进,直到它变得平滑而准备就绪。然后Q真正开始工作。它将在您的应用程序文件中实施计划,而您则使用自己的专业知识来审查更改,确保最高质量。这是Q可以为您完成的几个小时的工作,只需一个好的提示。这个功能当前在Amazon CodeCatalyst中已经可用,并将很快在IDE中完全可用。您目前在其他主要云服务商中找不到可以为您执行此操作的AI助手。
发布:Amazon Q | Code Transformation
但我们还没有结束,让我们继续。我们知道开发人员花费大量时间在维护和升级的淤泥中挣扎,维护和升级,大不了。那么,以语言版本升级为例。有多少人正在使用较旧版本的Java?因为升级可能需要数月甚至数年的时间,所以手动升级是不现实的。哦,是的,很多人。因此,迁移是不可避免的,会带来很多细微之处和特例。因此,您最终会花费大量时间反复编写代码,试图使其编译并工作。有时这些程序需要很长时间,感觉就像您陷入了一个无限迁移循环。一个结束,下一个开始。可以理解只是保持现状的诱惑是多么强烈。但这样做意味着您会错过性能改进,更糟糕的是,这可能会让您面临潜在的安全漏洞。这就是为什么我们在Amazon Q中构建了Code Transformation,它可以帮助您在比当前更短的时间内进行升级,从而将Code Transformation。
所有开发人员需要做的是要求执行Code Transformation,它会处理从识别和升级到强制性代码包存储库和框架的一切,直到替换弃用的代码并整合安全最佳实践。因为它甚至会在升级的应用程序版本上运行测试。因此,我们一直在内部使用这个应用程序,这个功能的结果令人惊叹。通过Amazon Q转换,在很小的一个Amazon开发团队成功地在短短两天内将1000个应用程序从Java 8升级到Java 17。现在我要再说一遍,1000个应用程序升级在两天内完成。这是单个应用程序升级所需的时间。这意味着节省了几个月,甚至几年的开发时间,这让Amazon的很多人都非常开心,我向您保证。所以当前,Amazon Q可以在Java升级上发挥其魔力,但很快您将能够使用它来帮助将网络负载从Windows迁移到Linux。有很多应用程序因为进行迁移需要巨大的工作量而被困在Windows上,而这是在昂贵的许可费用之上的巨大成本节约的机会,除了固有的性能和安全性优势。
发布:Amazon Q | 您的业务专家
那么其他组织中的其他人呢?市场营销、财务、人力资源、产品管理等所有人员?贵组织的文件、数据、应用程序的所有信息都分散在其中,而这些不同角色的人每天都在努力找到他们需要的信息,并迅速将其转化为做出决策和采取行动所需的形式,以保持竞争力。寻找相关信息,提出建议,采取行动,这听起来很熟悉,对吧?是的,Amazon Q也是您的业务专家。
Q连接到40多个流行的企业系统,因此组织中的员工可以提出复杂的问题,并获得详细、准确、细致入微的答案,这些答案与他们在工作中的角色相关。而且,安全就是安全,Q也是安全和隐私的。它尊重您现有的角色和每个用户独特被授予的权限。我们对此感到非常兴奋,实际上我想向您展示一下Amazon Q在业务中的一点点操作。
特邀演讲嘉宾:Dr. Matt Wood,AWS技术副总裁
为了让Q经过严格的考验,请欢迎AWS的Matt Wood博士上台。
谢谢,Adam,大家早上好。我很高兴为您展示Amazon Q,这是一种新型的AI助手,旨在成为您业务中的专家。通过Amazon Q,您可以快速、准确、相关地获得对最紧迫业务问题的答案,所有这些都是安全和隐私地传递的。
Amazon Q业务专家演示
使用Q非常简单,只需三个步骤。
首先,通过连接和定制Q与您自己组织的详细信息,配置Amazon Q。然后,Q连接到现有的数据源,如S3、Salesforce、Microsoft、Google、Slack等,从而在开箱即用的情况下支持40多种流行的业务应用程序和服务。连接后,Amazon Q开始索引您所有的数据和内容,了解您的业务的方方面面。这包括理解核心概念、产品名称、组织结构,使您的业务变得独特的所有细节,以及从这些来源索引的数据。Q还使用生成式AI来理解和捕捉使您的业务独特的语义信息。这些额外的语义信息以向量嵌入的形式捕捉,使Q能够提供高度相关且专为您的公司和行业定制的结果。
您的数据始终完全由您控制。Amazon Q从不在外部共享它,也不使用它来改善任何基础模型。就是这样,出其不意。没有第三步。只需在浏览器中打开Amazon Q,您就可以拥有一个完全定制、安全的助手,这个助手是您业务领域的专家。您可以通过这个友好的Web应用程序与Q进行通信,这是为您组织中的每个人设计的。Q知道您是谁,了解您的身份和角色。由于Q理解您的业务语义,您可以提出更为详细和微妙的问题,并比以往更快地获得定制的答案。例如,您可以要求Q分析客户在哪些产品特性上遇到了问题,并推荐改进方法。一旦按下回车键,Q就开始处理您的问题并准备答案。Q首先创建一组输入提示,然后利用所有可用的业务上下文查找相关的数据、信息和文档,并在一瞬间将所有内容组合成一个响应,全部利用生成式AI的强大能力。
Amazon Q始终忠实于您的原始来源,在响应中引用它们,以便您可以轻松验证信息。Q的体验可能是神奇的,但并没有神奇的黑匣子只是为您提供答案。您可以动态上传新的Word文档、CSV文件和其他文件到Q,以纳入其响应,使您可以针对尚未添加到任何公司系统的即席数据提出问题。而且,Amazon Q是从头开始考虑隐私和安全性构建的。因此,即使您试图获取我们无权访问的信息,Amazon Q也尊重您现有的访问控制,仅返回您有权查看的信息。管理员还可以通过一组可配置的插件对敏感主题进行限制,从而在必要时过滤掉不适当的问题和答案。
最后,Amazon Q可以通过一组可配置的插件代表您采取行动。例如,如果您更新训练优先级,Q可以自动在JIRA中创建工单,通知Slack中的领导,并在ServiceNow中更新仪表板。Q允许您在运行之前检查操作,以便您可以审核它们并添加附加信息。总而言之,Amazon Q将AI助手引入了商业世界,提供了安全、相关和可操作的指导,完全定制为您的公司。我们迫不及待地想让您尝试一下Q,看看它将如何帮助您的组织。
发布:在Amazon Quicksight中使用Amazon Q
Amazon Q将为企业产生巨大的影响。员工们将热爱Amazon Q,它将帮助解决问题,发现并综合新信息,摆脱重复任务的单调乏味。而且,所有这些都伴随着严格的安全和隐私。现在,我知道至少有一些人在想Amazon Q是否可以访问我的数据?这是否意味着它可以帮助我的业务智能?是的,当然,Andrew Ng的答案是一个响亮的“是”。我们已经努力使业务智能对于没有BI专业知识的人更加易于访问。我们认为任何人都应该能够使用自然语言向其数据提出问题,因此Amazon QuickSight,我们的ML Power BI服务,现在内置了Amazon Q的功能。
首先,Amazon Q将帮助业务分析师将创建仪表板和报告的时间从几小时缩短到几分钟,只需让他们简单地告诉Amazon Q他们想要可视化的内容。例如,按产品的区域销售是桑基图。Q立即返回该图。您可以轻松将其添加到您的仪表板上,并告诉Q进一步完善可视化,比如将图表更改为按月份垂直堆叠的条形图,并按区域着色。您的愿望就是Q的命令。有了Q,您可以更快地获得更好的仪表板,但即使是最好的仪表板也不能展示故事的每个角度。例如,您可以问Amazon Q哪里的销售最高?您将得到一个根据您的业务数据定制的响应。您甚至可以提出跟进问题,甚至只有一个词,比如伦敦。由于Q保持您当前对话的上下文,您可以迅速从数据中获得洞察力。
现在,使用户能够与Q和QuickSight交流是向帮助您的组织更加注重数据迈出的一大步,但并非每个人都会亲自处理数据。许多人通过演示文稿和报告消费数据,因此,您在工作中所做的很多事情就是用数据讲故事。作为您的业务专家,Q也在这方面为您提供便利。比方说,您想要创建关于北美业务的月度报告。您可以要求Q为您撰写有关业务的月度报告,并为下个月提出建议。Q将为您提供可视化方案。您选择您想要的方案,然后Q将对其进行格式化。在几秒钟内,您就拥有了一个美丽而引人注目的故事,而且它是完全可定制的。您甚至可以通过要求Q添加一个使用趋势的可视化来为该部分添加更多上下文,Q将生成一个简短的摘要。然后,您可以通过使其更长、更短或重新格式化为项目符号来进一步调整它。让我们让它更长一些。一旦我们对故事感到满意,我们可以安全地与其他人分享它。有了Amazon Q和QuickSight,您现在拥有一个专业的BI助手,将使业务分析师更容易,并将使最终用户更容易快速获得答案和洞察力。这些新的Q功能和QuickSight当前已经提供了预览。
发布:在Amazon Connect中使用Amazon Q
许多组织正在寻找面向横向应用场景或特定业务线的定制解决方案,AWS在这些领域也有应用。因此,我们的第一个专业化业务解决方案是Amazon Connect。因此,Amazon Connect是云原生的,当然,Amazon Connect是一款可扩展、经济实惠、易于使用的联系中心应用程序,已经重新定义了客户服务生成式AI,它了解您的业务将在许多不同的行业中对整个客户服务体验产生令人难以置信的影响。您的客户服务团队是您业务的核心,提供让人们铭记的交互,无论是好是坏。因此,正确处理这一点真的很重要。当前,联系中心代理商花费大量时间从客户那里收集信息,以了解他们的问题,然后他们花费更多时间寻找正确的答案。现在,Connect已经通过ML转录分析使这变得更容易了,但我们知道我们可以为您的代理商以及等待在电话那一头寻求帮助的客户做得更好。现在,Amazon Q和Connect可以提供一项重要的辅助服务。代理商可以直接在Amazon Connect内与Q聊天,以帮助他们快速回答客户的问题。在Connect内进行与Q的实时聊天并获得快速答案是很棒的,但如果您能使通话本身成为提示呢?Q实际上在通话中协助提出建议的回答,提供建议的操作,提供相关文章的链接?无需打字,因此联系中心的监管人员和管理员也将获得生成式AI的助力。Connect现在会自动创建后通话摘要,监管人员可以用来跟踪后续操作并发现代理商训练的机会。对于管理员来说,Connect可以通过简单的自然语言提示设置聊天机器人和交互式语音响应。简化学习过程。Amazon Q只是许多专业行业和特定应用场景服务中的第一个,它将为Amazon Q提供强大的助力,因此请继续关注。Amazon CodeBuild,Amazon Q Builder,您的AWS专家,AWS Q Business,您的业务专家,Amazon Q和QuickSight,您的业务智能专家,以及Amazon Q和Connect,您的联系中心专家。所有这些都经过精心设计,以提供忠实于您选择提供的信息,并具有您从AWS中了解并依赖的内置安全性和隐私性的帮助。这仅仅是我们将如何帮助重新定义未来工作的开始。我们将继续在整个堆栈的所有层面进行创新,为您提供所需的工具,以利用生成式AI为您的组织带来性能卓越、经济实惠的基础架构,以及新安全的简便方式。建设和扩展功能强大的新应用程序,这些新应用程序具有基础模型生成式AI应用程序和可以用业务上下文丰富的能力。所有这些都在AWS上构建,具有我们的高标准,为您提供广泛且深入的功能、选择和企业级就绪性。但是,现在还处于早期阶段,我们对我们将能够共同完成的事情感到非常兴奋。
特邀演讲嘉宾:Stephan Durach,宝马集团高级副总裁
对于所有这些工作,客户将需要一样东西,那就是数据。您的数据。没有其他人拥有它。没有其他人可以完全做到像您一样。您的数据是使您的组织脱颖而出的关键。正如我们已经讨论过的,当您定制您的数据时,生成式AI使其变得更加相关和有影响力。
让我们听听一位长期客户,了解他们如何利用数据为客户创造一流体验。因此,请欢迎宝马公司连接公司副总裁Stephane Durach上台。
谢谢。大家好。能够在这里真是太棒了。我完全同意,数据至关重要。
汽车产品的复杂性大大增加。快速开发至关重要。让我向您展示宝马如何掌握数据,加速开发流程,并为我们的客户在任何地方、任何时间提供最佳体验,跨整个产品系列,从宝马到MINI,甚至劳斯莱斯。宝马正在提供由AWS支持的改变游戏规则的车辆娱乐和体验。我们通过优化技术栈、改善工作流程,并利用AWS云技术来使用数据。
让我给您一些例子。云数据,宝马中央数据湖是由宝马和AWS构建的,它托管来自我们联网车辆车队的数据,通过在其上上传并保持最严格的数据隐私标准,团队可以共同构建他们的应用程序和模型,并部署更新和改进。我们正在探索ML的创新应用,包括Amazon SageMaker。这个由宝马构建的自动驾驶平台正在AWS上构建下一代驾驶辅助系统。这个自动驾驶平台能够处理来自我们全球测试车队的数百PB数据。我们正在加速测试我们的开发、模拟和验证过程,以在2025年推出我们的产品。通过我们的路线优化充电服务,我们根据驾驶风格偏好、交通情况或可用充电站等提供实时的交通计算等服务。我们还使用Amazon技术,如Alexa作为我们的智能个人助手和Fire TV,以在车辆内创造独特的客户体验。
我们的联网车辆AI平台建立在AWS上,形成了最大的联网车辆车队的骨干。为了更加让人瞠目的统计数据,让我们深入了解。20年前,宝马推出了第一辆联网车辆,从那时起我们已经走了很长的一段路。如今,宝马集团拥有全球2000多万辆车的最大联网车队,在过去的三年中,我们已将联网车辆后端迁移到AWS,利用AWS在全球多个地区的存在。我们通过空中上传对超过600万辆车进行定期更新。这些数字不断增长。这需要每天处理超过120亿次请求,涉及1000多个不同的微服务。最终,我们每天处理超过110TB的数据流量,具有卓越的可靠性。看看这些数字。我总是深感印象深刻。
然而,随着我们新的产品架构,这个数字将在未来两年内增加三倍。让我们换个角度,看看开发阶段的一些数字。全球8500多名软件开发人员为我们的车辆和基础设施创建一流的代码。宝马系列7系上有超过5亿行代码。我们的全球DevOps团队每天执行超过110次软件构建,使用超过6万个虚拟CPU,以满足我们的需求。我们使用AWS服务在必要时进行扩展和加速开发。让我们深入了解开发。传统上,宝马的开发来自硬件驱动的开发,每个开发人员都必须在物理测试跑道上进行开发工作。当前,我们使用创新技术简化我们的信息娱乐开发流程。
新方法使我们能够远程向我们的全球开发团队提供测试功能。其中一个例子是使用Amazon EC2进行虚拟开发和测试,以改进跨功能协作。我们的下一步是扩展这种方法,建立一个完全虚拟的数字孪生体。现在让我们谈谈产品和我们为MINI客户创建的一些令人兴奋的功能。在图片上,您可以看到MINI的内饰。这是我们强调品牌典型设计的方式。以我们新的MINI家族中引人注目的圆形ALI显示屏为例。语音迅速成为与车辆进行交互的主导模态,我们在集成Alexa语音助手方面有着悠久的历史。然而,今年我们正在提高标准。我们将使用Alexa技术将我们的智能个人助手带到一个新的水平。现在让我们坐在我们七系的后座。我们最令人兴奋的功能之一是宝马剧院屏幕。这是一台30英寸、8K分辨率的屏幕。它在车内集成,非常壮观。搭配Fire TV,让我们的客户可以无缝地享受他们喜爱的系列和电影。
正是我们与AWS和Amazon的紧密合作打开了新的可能性,使我们能够以新的维度思考汽车。所以最后一件事,让您一窥未来。这就是宝马新系列,将于2025年推出。宝马一直走在汽车创新的前沿。新系列将是客户体验的飞跃。它将把驾驶体验提升到一个新的水平,正如您所看到的,新系列引入了全新的内饰,配备了宝马全景视觉。我们研发了新的抬头显示,将信息从柱子投射到柱子,以实现完美的驾驶员定位和用户体验。所有这些都强调了改进。
宝马正在掌握数据,加速开发流程,并在任何时间、任何地点为客户提供最佳体验。这绝对令人兴奋,而且所有这些都正在发生。AWS和宝马集团密切合作,共同塑造这个未来。谢谢大家。再见,很快就会再见。感谢您构建的令人难以置信的数据平台以及它为您的消费者创造的令人难以置信的体验。
您的数据是您的差异化因素
正如Stefan刚刚明确的那样,成功与AI以及几乎所有其他业务重点一样,都取决于有强大的数据战略。我经常听到客户提出的一个问题是,在生成式AI的世界中,我应该如何思考数据?嗯,答案是,对于生成式AI,您的数据是您的差异化因素。现在我们已经谈到了通过基石代码耳语定制、Amazon为您的业务量身定制的自定义,以及来自达美航空和辉瑞的例子,通过使用自己的数据为您的生成式AI应用程序添加上下文对提供价值至关重要。在这些例子中,用于定制应用程序的数据必须是最新的,必须是完整且准确的。它必须是可发现的,并且在您需要时必须是可用的。要实现所有这些的第一步是确保您的数据在云中。
从您的数据中获取价值
现在,生成式AI只是您希望拥有这一切的许多原因之一。拥有有效的基于云的数据战略将增加您的洞察力,减少您的成本,并加速创新。现在,要理解这一点,只需考虑在尝试充分利用您的数据时需要考虑多少不同的问题。组织拥有不同类型的数据,来自不同的来源,并且以不同的规模和速度出现,因为整个组织的不同团队将以许多不同的方式使用不同的数据。然后,您想要使用此数据的方式同样是多种多样的。您将其存储,为应用程序提供动力,对其进行分析,从中生成预测。没有一个工具或解决方案可以做到所有这一切,除非您愿意进行性能、成本或能力方面的牺牲方案。但您不想做出这些牺牲的方案。
因此,您需要一套全面的工具,以考虑此数据的规模和多样性以及您想要使用它的众多目的。您需要集成它,并将分散在各处的所有数据结合在一起,以更好地理解发生了什么并预测将会发生什么。当然,您还需要治理,以便在每一步都能保持访问和控制的正确平衡。您需要所有这些。如果您错过了其中一个方面,您使用该数据的能力将受到严重限制。
因此,为了确保您能够存储、分析和处理您拥有的数据,您必须拥有一套全面的数据服务,以便为您的应用场景获得价格性能、速度、灵活性和能力。这就是为什么我们构建了最全面的云数据服务集。首先,我们有Amazon S3,客户使用S3创建数以十万计的数据湖,将结构化数据与非结构化数据结合在一起,并使其全部可用于分析和ML。我们还提供了八个关系型数据库,包括Amazon Aurora,这是专为云端构建的关系数据库服务,仍然是AWS历史上增长最快的服务。我们还有八个专用数据库,非关系数据库,包括Amazon DynamoDB,它被超过一百万的开发者,抱歉,是一百万的客户使用,因为它在任何规模下都提供无服务器的单位毫秒性能。我们还拥有最广泛和最深入的分析服务集,其中包括我们的数据仓库服务Amazon Redshift,它在某些工作负载下提供了六甚至七倍于其他云数据仓库的价格性能。我们有Amazon EMR,可以轻松运行Spark和其他大数据工作负载,以及Amazon OpenSearch服务,拥有数以万计的活跃客户和数以十万计的受管理的群集。所有这些每月处理数万亿个请求,还有许多许多分析服务。我不会一一列举,但您需要这种广度和深度的选择,以便永远不必在成本、性能或规模上妥协,而是可以选择适合工作的正确工具。
零ETL的未来
我们已经广泛讨论了AI和ML,所以我在这里不会深入探讨。但是在将数据置于业务中心的过程中,您需要能够选择适用于喂养您的AI和业务中的其他所有内容的正确工具。在您迈向将数据置于业务中心的过程中,您需要做的第二件事是打破数据孤岛。大多数人的数据分散在组织的各个地方,包括数据库、分析工具、SAAS应用程序、电子表格等。为了从数据中获取最大价值,您需要能够使用所有这些数据,无论其位于何处。为了做到这一点,当前大多数人都会移动数据或尝试使用一个称为ETL或提取、转换和加载的过程来连接各种数据孤岛。是的,我看到当我说这个时,有些人畏缩了,因为你知道。
你确切地知道这个过程有多么糟糕。这完全是令人沮丧的,首先,开发人员必须设计ETL管道架构。他们必须决定从哪里提取数据,而且通常数据来自多个来源。然后,他们必须编写代码来转换数据并去除重复项。他们必须过滤掉异常值,检索缺失的数据并识别损坏的数据。所有这些之后,您必须进行转换。您必须将转换后的数据加载到其新的目标位置,这再次意味着更多的要编写的代码。然后,如果发生了什么变化,比如数据工程师更换了数据表或添加了新字段,您必须再次返回并更新所有代码。这是单调乏味的,这是乏味的,这只是很多很多令人不愉快的工作,这就是为什么我们引入了我们的零ETL未来愿景。在这个未来,您可以告别ETL这个沉闷、令人沮丧的过程。您的数据会自动从源头连接到目标地点。就是这么简单,您可以在需要时获得数据。不再构建和管理复杂、脆弱的流程和管道。
真的很令人兴奋。但是它是真实的吗?去年,我们宣布了Aurora MySQL和Redshift之间的完全托管的零ETL集成。在数据被写入Aurora后的几秒钟内,您可以使用Redshift进行几乎实时的分析,并在PB级数据上进行。您只需点击几下即可启用此集成,而无需零ETL。非常容易。现在这个第一个零ETL集成已经准备就绪。但是我们还想提供更多。因此,我当前非常激动地宣布了与Redshift的三个零ETL集成。
发布:Aurora PostgreSQL与Amazon Redshift的零ETL集成
发布:从RDS MySQL到Redshift的零ETL
发布:从Dynamo DB到Redshift的零ETL预览
我们一次完成所有工作。Aurora PostgreSQL、RDS for MySQL和DynamoDB。这些与Amazon Redshift的零ETL集成都已在当前开始提供预览。所以这是我们最受欢迎的关系和非关系数据库中的四个,再加上可以提供最佳价格性能而无需进行任何ETL的数据仓库。但请记住,我们对这个愿景并没有结束。因此,当然我们的下一个问题是,我们还能在哪里消除ETL的痛苦呢?现在,许多人需要在其交易数据上使用搜索功能来提升应用程序的体验。例如,如果您有一个电子商务应用程序,并且希望向用户提供个性化推荐,您可以在交易数据上使用相似性搜索。这些数据将存储在您的数据库中。为了做到这一点,您目前正在设计、构建和管理复杂的数据管道架构,从数据库到搜索引擎。
发布:Amazon DynamoDB与Amazon OpenSearch Service的零ETL集成
成千上万的用户正在构建这些管道,以利用Amazon OpenSearch服务强大的搜索功能。我敢打赌你能猜到我们正在做什么。因此,当前我非常高兴地宣布,在DynamoDB中推出了另一项零ETL集成,与开放搜索服务进行零ETL集成,这一集成当前已经正式推出。这项新的集成使得使用我们的开放搜索服务轻松搜索DynamoDB数据变得非常简便。而且这只是我们将要推出的一系列数据库与开放搜索服务集成的第一步,将帮助您更充分地利用数据。因此,我们的新的零ETL集成将事务数据和分析更快、更轻松地结合在一起,客户对零ETL未来的概念非常兴奋。因此,您可以确信我们将在这方面不断创新。现在,我们已经讨论了您所需的所有工具,以及如何在没有痛苦的ETL负担的情况下在需要时使用数据。
发布:Amazon DataZone AI建议
接下来,您希望赋予组织中的人们使用数据的权力,使他们沉浸在数据中,进行实验,提出问题,激发思想。而且,您希望给予人们访问权限。但是有一个问题,您的数据非常有价值,因此您希望只在合适的时间授予合适的员工访问权限。您需要确保数据安全可靠。因此,您还需要掌控,您的访问控制。哦,这些是对立的,对吧?不,事实上,您必须同时拥有这两者,并确保您的数据是安全的,受到治理,有着访问权限,即治理创建对数据的可见性并控制谁何时可以访问数据,有了强大的治理,您将给予人们访问他们所需的数据,仅限于那些数据。当您知道拥有哪些数据,知道数据在哪里,且有了安全解锁数据的防护栏和工具,这就构建了信心。然后,组织内的人们会对数据产生信任。这实际上是激发创新和实验,而不是扼杀它。
因此,为了帮助您进行治理,我们开发了Amazon DataZone数据区域,这是一项数据管理服务,帮助您在整个组织中编制目录、发现、共享和管理数据。我们从许多不同的客户那里得到了很好的反馈,包括巴西的金融服务领导者Itau。我们对DataZone正在产生的影响感到非常满意,并将继续在这个领域迅速创新。当前,DataZone使用ML自动向您的目录添加元数据,但为了在正确的时间找到正确的数据,客户仍然必须选择添加业务上下文,比如解释数据的目的或澄清列描述。现在,这有助于员工找到他们需要的数据,这非常重要,因为如果您不知道数据存在,那么访问和控制的问题就变得无关紧要了。但是添加所有这些数据是一项繁琐的工作,是一个手动过程。好吧,不再是了。我们正在使您的目录变得更加智能。
今天,我非常高兴地宣布一个新功能,它可以在几次点击中自动建议业务描述,为您的数据集添加上下文。客户只需选择一个数据集,DataZone将使用生成式AI为您的数据创建业务描述,使用我们训练过的模型。这使得理解这些描述变得更加容易,可以审核和接受这些描述,甚至可以根据您的确切偏好进一步澄清或编辑。DataZone还将为如何使用您的数据提供建议。这是一个巨大的时间节省者,这项功能将帮助员工更快地找到正确的数据,以获取更快的洞察力。我们将继续创新,帮助您使用数据治理释放您的数据。无论您在业务上要做什么,您都需要一个端到端的数据战略,该战略提供了您所有数据需求的能力。您需要轻松连接跨各个独立存储区的数据,而且您需要确保数据是经过治理的,以确保只有合适的人员以合适的方式使用正确的数据。我们正在使AWS成为所有这些不同领域的最佳选择。当您拥有所有这些,并且当您准备将数据作为AI和业务各方面的差异化因素时,这真是令人惊叹。
您的重新发明
今天我们已经谈论了很多关于重新发明的内容,而在AWS这里,最重要的重新发明是您自己的,以支持您以各种方式进行适应和演变。我们不断挑战自己,试图以不同的方式思考。
我们试图为您提供您一直想要的能力,甚至可能是您从未想象过的能力。现在,这不是几个月甚至一年的工作,但我们可以接受这一点。在Amazon,我们敢于大胆地下注。因此,Amazon Prime上的第三方销售,甚至AWS本身都是一项重大赌注。我的意思是,建设按需基础设施服务,简称为云,花费了很多年,也花费了大量资金。这种长期的关注是一件好事。愿意以不同和长期的方式思考是一件好事。这是改变为客户带来深刻变革可能性的唯一可预测的方式。
发布:Amazon Project Kuiper
Amazon正在进行的另一项重大赌注可能是您听说过的Kuiper项目。Kuiper正在建设数千颗低地球轨道卫星的星座。为什么呢?好吧,地球上有数亿人缺乏快速、可靠,甚至没有任何互联网访问。Kuiper项目将通过为处于没有可靠互联网连接的地方提供快速、经济实惠的宽带来帮助弥合这一数字鸿沟。
实际上,就在上个月,Kuiper团队成功地将其首批两颗原型卫星送入轨道。这真是一个不可思议的事情。我是说,他们把卫星送上去了。它们运行得非常顺利。每个人都非常高兴。让我们来看看。也许我应该停在那里。
Kuiper | 企业级私有连接服务
Kuiper是一个全球高速卫星网络,将在以前从未覆盖的地方提供覆盖。想象一下,在那些难以触及的地方,以与大多数人每天都视为理所当然的相同速度和可靠性访问互联网的能力。现在,对于消费者来说,可能性肯定是巨大的。但对于企业和政府来说,好处也是巨大的。有各种各样的应用场景,比如希望实时分析远离岸风电场数据的可再生能源提供商,或者在自然灾害期间需要快速、可靠连接的急救人员,或者在计划外停机时寻找连接备份的组织。Kuiper将帮助实现所有这些,并且AWS的客户已经在为这为他们提供的机会进行规划,以连接到他们的设施、传感器、数据和网络。对于如此多的客户来说,这将是令人惊叹的,但是有些客户当然不希望其数据通过公共互联网运行。而且正如您所知,安全性始终是我们的首要任务。因此,当前我非常激动地宣布,除了公共互联网连接之外,Kuiper还将提供企业级就绪的专用连接服务。现在,您将能够通过私人安全连接从几乎任何地方移动数据。并且在使用这些连接与您的数据时,您可以在AWS云内使用它。早期采用者将能够在2024年下半年开始进行测试。
因此,我们进行这些大胆的投注,以便客户能够做以前无法想象的事情。您随我们一同踏上这个旅程,因为我们愿意采取这些大胆的飞跃,好处是巨大的。对我们所有人来说,明年面临的激动人心的挑战是仔细审视我们的工作,并对其进行重新想象、重新发明,梦想出以前不可能的体验,并使它们成为现实。
我们非常激动能够在共同构建的这个新世界中成为您的伙伴,我为我们有机会一同探索而感到兴奋。
这一周一直都很不可思议。感谢当前台上所有的嘉宾,感谢所有观众,当然也感谢整个AWS团队为使这一切发生而努力工作。
现在,还有一个小小的惊喜。所以我不知道您是否还记得在一开始我提到了爱尔兰的Lowden Guitars,但我们实际上在这里有一把Lowden的吉他,来自我们在Lowden的朋友,我们邀请了一位才华横溢的吉他手、长期以来的AWS喜爱者Zach Person为我们演奏结束曲。因此,我们本周为您提供了一个出色的大会。现在让我们从这里开始吧,re:Invent。谢谢。现在,Zach,请开始吧。
---【本文完】---
近期受欢迎的文章:
我们正处于数十年未见之大机遇中
新技术爆发式发展,催生新产品
然而,颠覆式创新并非简单的技术堆叠
而是异常复杂的系统工程
需要深度洞察
欢迎一起分享思考和见解