洞见 re:Invent:生成式 AI 与云共舞,成为构建者最好的时代来临!
不久前,亚马逊云科技 re:Invent 2023 在拉斯维加斯圆满落幕,会上发布了一系列对行业带来深远影响的产品及服务,并由此引发了圈内的广泛探讨。为了能够更加清晰地理解这家全球云计算巨头的战略意图,以及这次大会对开发者带来的深刻影响,InfoQ 中国创始人霍太稳在 re:Invent 2023 现场采访了亚马逊云科技大中华区解决方案架构部总经理代闻,以下为经编辑整理后的访谈实录。
本次 re:Invent 大会,最引人瞩目的无疑是“生成式 AI”,亚马逊云科技首席执行官 Adam Selipsky 表示:围绕生成式 AI 模型的创新具有爆炸性,它将重塑我们在工作和家庭中交互的每一个应用程序,我们正在以一种跟以往完全不同的方式来探讨生成式 AI 的概念。
由此,亚马逊云科技围绕生成式 AI 的全新技术堆栈诞生,这也是目前业内最早围绕开发者和用户公布完整的生成式 AI 应用开发端到端能力的厂商之一。
亚马逊云科技大中华区解决方案架构部总经理代闻表示,亚马逊云科技的生成式 AI 技术堆栈共由三层技术栈组成,自底向上分别是基础设施层、基础模型服务层和 AI 应用层。在该架构之下,一方面亚马逊云科技会利用自研的芯片、模型、数据、服务等综合能力,确保在计算能力与成本之间取得平衡;另一方面,为了给到开发者和客户更多样化的选择,亚马逊云科技也将持续与英伟达、Anthropic 等软硬件厂商保持紧密合作。
他进一步解释道:“在基础设施层,主要包括用于训练和推理的基础设和 MLOps 平台,共同为生成式 AI 提供稳定可靠的计算和存储能力支持。”
事实上,凭借着 Nitro 虚拟机管理程序以及 Graviton、Trainium 和 Inferentia 等芯片家族,亚马逊云科技已经积累起丰富的芯片开发技术经验。在今年的 re:Invent 大会上,亚马逊云科技更进一步,推出了为生成式 AI 和机器学习训练而生的云端 AI 芯片 Amazon Trainium2 等,以及自研服务器 CPU 芯片 Amazon Graviton4。
“模型层主要负责模型的调用、微调、优化等,帮助用户更加灵活和高效地使用生成式 AI 技术,提高模型的性能和效率。这次发布会,我们也重磅升级了 Amazon Bedrock。它是一个可对托管基础模型进行访问的平台,其中既包括亚马逊云科技自身的 Amazon Titan 系列大语言模型,也提供来自其他厂商及开源生态系统的神经网络选项。”代闻介绍道。
值得一提的是,针对 Amazon Bedrock,亚马逊云科技此次还公布三项新功能:模型微调、检索增强生成(RAG) 与大模型预训练,允许客户针对特定任务对 Bedrock 中的大模型进行定制。
应用层主要包括各种生成式 AI 应用,如自然语言处理、图像识别、语音识别等。亚马逊云科技新推出的生成式 AI 助理 Amazon Q 也包含在这一层中。这些应用可以帮助企业快速构建和部署 AI 应用,提高业务效率和创新能力。
代闻表示:“总的来说,这三层 AI 堆栈里面,底层面向的是大模型的构建者,中间层面向大模型的使用者,最上层面向生成式 AI 应用的开发者。”
谈及这些发布对开发者究竟有何影响,代闻表示,对于国内大模型开发者而言,如何以更低的成本训练出高质量的模型才是重中之重。这涉及到两大核心问题:一是有没有强大的芯片支持,二是有没有便捷的框架来调度这些计算资源。恰好亚马逊云科技平台为用户提供了丰富的选择,包括高效的 GPU、机器学习和推理芯片,以及用户友好的 Amazon SageMaker 机器学习框架等等。
“对于希望在企业内部实际应用大模型的用户来说,亚马逊云科技的 Amazon Bedrock 则是个不可或缺的工具。如果没有它,开发者可能需要投入大量精力进行毒性过滤和鲁棒性评估等工作。但现在,有了这个标准化平台,开发者可以直接使用它的 Guardrails 等功能来解决上述问题,大大简化了工作流程。”代闻补充介绍道。
此外,对于纯应用开发者,比如移动 APP 开发者。代闻表示,即使没有大语言模型的知识,开发者们也可以利用亚马逊云科技的应用层服务,比如 Amazon Q 来轻松整合后台的各种数据源,来为 APP 增添新功能等。
综合来看,从底层基础设施到中间的基础模型,再到顶层 AI 应用,透过这张 AI 全景图,显而易见的是亚马逊云科技多年来在前沿技术领域的持续深耕,由此沉淀下来的端到端的综合实力。生成式 AI 浪潮的出现,正在全面影响技术行业,而亚马逊云科技希望以“全家桶”式的产品服务,帮助企业与开发者掌握先机。
毋庸置疑,生成式 AI 正在全面、广泛且深刻地影响着技术行业,但是对于企业和开发者而言,盲目地使用生成式 AI 产品很可能会对业务增长带来适得其反的效果,先进的技术与工具是否能够跟现有的业务流无缝链接、深度融合才是关键。而这一次的 re:Invent 大会上的一系列生成式 AI 产品的发布,则是在向全行业宣告 “企业级生成式 AI 工具” 正式到来了。
回顾 re:Invent 2023 生成式 AI 方面的重要发布,最令开发者兴奋的可能就是 Amazon Q 了。Amazon Q 是一项新型生成式 AI 辅助服务,官方定义其为——为业务量身定制的生成式 AI 助手,可以帮助员工快速利用公司的数据和专业知识获得问题答案、解决问题、生成内容等,同时还能根据企业客户的业务进行个性化定制。
据介绍,Amazon Q 主要面向生成式 AI 应用的开发,目前已经具备四个方面的能力:
亚马逊云科技专家:对亚马逊云科技的每一个功能、模块都有充分的了解。
业务专家:能够自动分析行业状况及下游客户的需求。
商业智能专家:能够对大量商业数据进行分析,从而辅助决策。
客服专家:对用户企业情况充分了解,可以充当智能客服工作。
代闻补充介绍道,首先是关于亚马逊云科技平台本身的开发,Amazon Q 能够显著提高开发者的效率。比如,如果你想知道如何在亚马逊云科技上构建一个网站,你可以直接咨 Amazon Q,它会在控制台内为你提供答案。如果你不清楚如何使用亚马逊云科技的某项服务,在过去你可能需要花费数小时搜索文档,但现在只需提问,Amazon Q 就能立即为你提供操作步骤,甚至生成所需的代码片段。
其次,在业务层面,Amazon Q 可以收集并连接多个数据接口,提取数据,并根据 Insights 进行综合分析,从而直接支持业务需求。
在 BI(商业智能)方面,Amazon Q 可以直接让用户在 QuickSight 等 BI 工具中提问,并进行 BI 级别的分析。
在呼叫中心方面,Amazon Q 能够直接被集成到亚马逊云科技平台上,从而帮助企业提升呼叫中心的运营效率。一方面,通过云计算的弹性和可扩展性,Amazon Q 能够根据实际需求自动调整资源投入,确保在高峰期提供稳定的服务;另一方面,通过亚马逊云科技平台,企业可以方便地获取并分析客服数据,了解客户需求和行为模式,为产品优化和市场策略制定提供支持。
另外,Amazon Q 还已经扩展到了 ETL 工具 Glue 中,你可以使用自然语言的方式来生成 ETL 代码。甚至在 RedShift 数据仓库中,你也可以利用 Amazon Q 的功能来助力查询等。
从某种意义上说,Amazon Q 的出现,就是为了帮助企业在做工程化的过程中能够获得更多标准化能力的支持,从而减少大量的重复性劳动。
“只要是通过亚马逊云科技的产品或服务写的代码,都可以使用 Amazon Q 来进行查询、分析、纠错等等;对于 BI(商业智能) 也一样,Amazon Q 能够直接把大模型的能力给到你,无论是数据的提取、异跳、查询以及 BI 展现,都能一站式解决。这些背后都源于我们给 Amazon Q 做了非常多标准化接口,并且能与业务流做整合。”代闻解释道。
除了面向生成式 AI 应用开发者的 Amazon Q 外,面向大模型使用者的 Amazon Bedrock 同样引发了广泛的关注。此次发布会上,Amazon Bedrock 迎来重磅升级,增加了 Fine-tuning、Agents、Knowledge Bases、Guardrails 等全新功能,旨在帮助客户更高效、智能、安全地构建应用。
发布会上,Adam 表示:“不会有一种模式能够统治一切,你需要尝试不同的模型,你需要选择合适的模型提供商。”据悉,Amazon Bedrock 支持 Stability AI、AI21 labs、Anthropic、Cohere、Meta,以及 Amazon Titan 等各类大语言模型或基础模型,为客户带来了更多的开放选择,目前已经吸引了超过 1 万名客户使用。
对于 Amazon Bedrock 开放兼容,代闻表示:“我认为对于客户来说,这不只是一个模型选择的问题,还有选择模型以后,怎样在自己的环境里面落地的问题。”
在大模型百花齐放的今天,究竟怎样的大模型才是最适合自身企业的大模型?这是很多企业想要得到的答案。Swami 在演讲里提到了一个金融科技公司 INTUIT 的案例,该客户表示虽然有非常多的大模型可供选择,但是就算选择了一个非常适合的大模型,也还是需要做一定的定制化,包括 Fine-tuning 能够使用自有语料,让它变成能够在自身企业上下文里理解问题、产生内容的大模型。
“其实我觉得这一点在 ToB 领域会更加明显,因为在 ToB 领域,各种行业的知识和交互都有特定的上下文,比方说在医疗行业里或在制造行业里,它们的上下文都是不一样,甚至一样的话可能有不一样的意思。在国内叫定制化,也刚好是这次 Amazon Bedrock 它进一步增强的能力。”代闻表示。
对于 Amazon Bedrock 的最新进展,代闻进一步补充道:“第一是 Amazon Bedrock 它已经严选了一批模型,覆盖了多种自然语言的交互,甚至包括一些小语种;第二,在网络安全层面,Amazon Bedrock 采用了单独的 VPC 做隔离,能保障模型的安全性和数据的隐私性;第三是 Amazon Bedrock 目前已经宣布对所有的库内模型提供 Fine-tuning 支持,能够帮助企业开发者更好地定制大模型。”
此外代闻还提到,虽然 Amazon Bedrock 才推出不到半年,但是已经有很多国内厂商在积极加入。比如,金山办公在 WPS 出海业务里已经使用了 Amazon Bedrock,之后亚马逊云科技也将会与金山办公的客户一起将 Amazon Bedrock 的一些新功能融入到业务场景中去。
总的来说,Amazon Bedrock 的这些更新不仅只是效率、灵活性、拓展性等方面的提升,更重要的是明确地传达了一个信息:在 AI 的开发和应用中,技术和道德、功能和责任是并行不悖的,也即是发布会上,亚马逊云科技反复提及的 “Responsible AI” 的理念,而这无疑是对整个行业的一个重要提醒和指引。
作为云计算行业的年度盛会,在与生成式 AI 碰撞之后,又会产生哪些新的火花与思考?
“用一个比较通俗的形容来说,云计算与生成式 AI 是相辅相成的关系。假设回到十年前,云计算还没诞生,我想生成式 AI 也很难实现,因为它背后需要大量的数据、大量的算力支撑等等,没有云计算和高性能的芯片支撑,是很难实现的。所以云计算本身的意义就在于计算的普惠,而生成式 AI 又大大地促进了技术对人类生产生活方式的改造。而且现在大家逐渐有了一个共识——只有在云上来做生成式 AI,才能够更进一步地普及生成式 AI。”代闻如是地答道。
“再反过来,生成式 AI 其实对云计算也会带来革命性的改变。比方说之前云计算本身很大一个方面是自动化。自动化以后我们就有 API,那现在有生成式 AI 以后,代码都可以自动生成了,再与 Serverless 结合之后,如果我们想生成一个网站,使用自然语言完全就可以实现。”代闻补充道。
事实上,现在亚马逊云科技社区里,已经推出了一项生成式 AI 试玩工具——Amazon PartyRock,开发者可以用自然语言的方式去实现基于云的生成式 AI 应用开发。关于 Amazon PartyRock 的更多玩法,我们同样有在 re:Invent 现场采访亚马逊云科技副总裁、首席布道师 Jeff Barr,听他谈谈 《生成式 AI 时代,开发者们如何玩转 PartyRock?》。
👆 扫码围观 👆
对于“云 + 生成式 AI”如何更好地赋能开发者,代闻表示,云其实是一个抽象工具,它首先抽象了所有的基础设施,然后再抽象了很多的平台软件,包括各种应用类、数据类的,进而我们又有了 Serverless 的编程方式。一方面,生成式 AI 的出现可能会进一步加速 Serverless 的普及,因为当一个组织里的技术人员,都开始思考怎样更好地应用生成式 AI、怎样提出更好的问题时,一些无差别的运维工作或者基础开发工作,通过生成式 AI + Serverless 的方式,很快能够做出来;另一方面,生成式 AI 的落地也需要结合 Serverless 的一些服务,去促进它的平台建设,当然这也是一个持续抽象的过程,比如基础设施抽象成基础设施即服务的接口,数据服务又抽象出数据服务的接口,应用服务抽象出应用服务的接口等。
对于 Serverless 的优势,他进一步举例道,亚马逊云科技新发布的 Amazon ElastiCache Serverless 缓存服务,能够把整个集群的内存容量扩到 5 个 TB。如果企业自己运营一个 5TB 的集群,运维工作量非常大。但是在云上其实只要使用 Amazon ElastiCache Serverless,就可以轻松地获得这个能力。包括这次发布 Amazon Aurora Limitless Database,也是一个 Serverless 的体现,它可以支持 PB 级的容量、百万级的写并访问,传统做法肯定是得用多个 Aurora 的 Instance 做分库分表,并且需要自己持续维护,但现在通过云上原生的一些能力就能实现,就像你写在一张表或者一个 Database 里面的效果,大大简化了运维,同时拥有更好的性能。恰好,Serverless 的这些能力也同样适用于生成式 AI 应用的构建。
从某种意义上来说,“云+生成式 AI”的核心优势就在于——开发者们通过云原生的环境去构建生成式 AI 应用,随时随地、且无限制地使用云上最新的资源、工具与服务,只需要专注于开发本身即可。而这也即是亚马逊云科技所倡导的“成为生成式 AI 原生开发者”。
事实上,无论是面向企业开发者的 Amazon Q 还是面向大模型使用者的 Amazon Bedrock,亦或是更早发布的面向个人开发者的 AI 编程工具 Amazon CodeWhisperer,随着生成式 AI 能力的增强与场景实践日益丰富,开发的门槛被大大降低,用自然语言进行编程正在逐渐成为现实。
“以前如果一个企业有数据中心,那就需要风火水电以及相应的运维工程师,但是现在有了云计算,大家可以省去这些基础运维了,基础性物理硬件维护都变少了。工程师们更多思考的是怎么样升级技能,把时间精力放在离业务价值更近的地方去。生成式 AI 也一样会带来类似的变化,这其实都是技术更迭带来的结果。”代闻表示。
面向未来,通过使用生成式 AI 工具,人人都可能成为开发者或者更准确的说是构建者,人们可以节省大量的重复劳动的时间,将精力集中在实现业务目标上,低代码和零代码平台同样也是这一趋势下的产物。
“但是虽然生成式 AI 工具能够帮你解决很多基础性问题,但这并不意味着你不需要学习,因为生成式 AI 之下,你得提出好问题,这样才能依托工具得出理想的结果,如果你不学习,缺乏系统性认知,其实是没有办法来提出有效的问题的。”代闻补充道。
对于传统的开发者而言,如何面对生成式 AI 的浪潮,需要做出怎样的改变,是亟需思考的一个话题。事实上,随着生成式 AI 的广泛应用,无论是开发者的技术路径还是职业发展路径,都可能会受到影响。
“我觉得对于开发者而言,首先是要拥抱技术趋势,不断学习。在亚马逊云科技的公司文化里,有一条叫‘learn and be curious’,即好奇求知。对于技术人员或者每一个人来说,好奇求知是应对技术更新和环境变革的最好方式;其次是要保持冷静,从自己的真实工作环境出发,去思考生成式 AI 能够给自己带来怎样的价值。很多网文贩卖焦虑,但在实际落地时,更应该与自己的实际需求形成闭环,比如短期内通过生成式 AI 的帮助能带来一个立竿见影的结果。只有这样才能大大推动生成式 AI 在组织中的利用,也为开发人员提供了一个正向的反馈。”代闻解释道。
针对不同背景的开发人员,如数据开发人员和传统的 Java 前端开发人员,他表示可以根据自身技能和背景直接使用已经开箱即用的生成式 AI 服务,比如通过亚马逊云科技提供的各种服务快速构建生成式 AI 应用,找到最小成本的体验路径和最快的正向反馈。
事实上,一项新的技术的提出并广泛推广,往往需要更多来自组织层面的力量。代闻强调在实际项目中,生成式 AI 的成功落地与业务部门的支持息息相关。生成式 AI 的浪潮与之前的 AI 项目有所不同,现在企业的业务部门甚至一把手都意识到了生成式 AI 对于降本增效的重要性,因此他们会支持这样的项目。这种支持也会让技术人员有更多的机会去了解和应用生成式 AI,促使技术人员成为“业技复合型”人才。同样也会对生成式 AI 的技术普惠和个人的职业生涯发展带来积极的影响。
当然,除了生成式 AI 方面的一系列重磅发布,本届 re:Invent 同样也带来了一系列云计算领域的新突破:比如亚马逊云科技全面升级 S3 对象存储服务 Amazon S3 Express One Zone,能够提供个位数、毫秒级的每秒数十万次数据访问,并且请求成本降低 50%,计算成本降低 60%;还比如宣布了 4 项新的 Zero-ETL 集成功能,使客户能够快速、轻松地连接和分析数据,而无需构建和管理复杂的提取、转换和加载(ETL)数据管道等等。
技术的车轮滚滚向前,对于企业而言,只有不断拥抱变化,持续创新,才有可能基业长青,从亚马逊云科技今年在生成式 AI 领域的大放异彩中,可见一斑。“总的来说,对于开发者而言,我认为理性看待生成式 AI 的浪潮,保持学习,并且积极利用先进的生成式 AI 工具解放双手,提高生产力、激发创造力,才是关键。”代闻总结道。
re:Invent 2023 带给行业最大的惊喜在于:伴随着亚马逊云科技一系列的生成式 AI 产品和云服务的发布,AI 普惠的力量开始从产业端、企业端,更进一步落位到个体端的构建者身上。构建者们可以利用这套全新的、融入业务流的生成式 AI 工具去重构业务,并且能够以更强的主观能动性去创造更大的社会价值。
期待更多的企业和开发者能够通过各种生成式 AI 产品或服务去重构未来竞争力,助力业务创新,进而推动生成式 AI 技术的普惠。而在这个过程中,亚马逊云科技或许会持续带给行业更多惊喜。