查看原文
其他

复杂企业的生成式人工智能解决方案架构

Oliver Cronk 清熙 2024-04-14

编译:王庆法


为一名技术战略家和架构师,我的职业生涯往往需要看得更远——不仅要考虑技术带来的机遇,还要考虑风险。在当代技术中,没有什么比 GenAI(生成式人工智能)更攸关的了。那么,当我们沿着生成式人工智能的轨迹前进时,我们最终会看到隧道尽头的光明吗?又或者那道光会是迎面而来的火车灯?!

本博客不打算提供生成式人工智能或大型语言模型 (LLM) 的概述,部分原因是本博客和我们的播客上的其他帖子已对此进行了介绍。相反,我们所提出的架构的重点是降低部署这些技术的风险,特别是在金融服务等高度监管的环境中使用时。正如我将解释的那样,当这些技术用于关键的解决方案时,风险就会激增,其中 GenAI 不是孤立的,而是需要与企业系统集成——通常是数据存储、事务和分析系统,这些系统为交互提供所有重要的上下文。当然,面向客户的系统会面对更大的挑战,因为它们可能使组织面临更大的公众监督和声誉损害

这是一个很大的话题,所以即使是抛砖引玉入门,也是一篇相当长的文章!我将在这里总结我将要介绍的内容

  • 企业GenAI业务风

  • 企业GenAI技术风险与挑

  • 拟议的GenAI

  • 架构再次令人兴奋

首先,生成式人工智能有哪些风险?简而言之,它们与值得信赖的人工智能系统的特征相反,这些特征在NIST 的人工智能风险管理框架中得到了很好的阐述

值得信赖的人工智能系统的特点包括:有效和可靠、安全、有保障和有弹性、负责和透明、可说明和可解释、隐私增强、公平且可管理有害偏见。

虽然这些很有用,但它们更多地关注技术本身的发展,而不是在复杂的企业中使用这些技术部署解决方案时的影响

企业GenAI部署的业务风

那么,在企业部署中,组织层面的主要风险是什么?以下一些因素彼此之间有着密切的关系——例如,模型中针对某些客户的偏见可能会导致监管合规性失效,进而导致声誉受损。总之,能力越大,责任越大这句话非常适用

主要风险包括

  • 声誉受损

  • 法律法规合规

    • 特别是客户行为又名消费者责任

    • 知识产权侵

    •  非法活

  • 道德与隐

    • 个人/个人身份数据的使

  • 《带上自己的机器人》中的更深的影子IT

声誉受损

声誉受损可能是 GenAI 最大的担心——特别是考虑到它容易产生幻觉——得出看似可信但有缺陷的结果。然而,同样应该关注法律和监管风险——特别是当应用程序面向客户并实时生成响应时。想象一下,它提出了不恰当的产品财务建议——这可能会导致不当的销售丑闻

法律和知识产权挑

另一个关键问题是知识产权——用于训练的数据集可能使用了商业知识产权(在你没有意识到的情况下),生成式人工智能随后用它来创建内容。在某些情况下,训练数据中的标志或水印可能会出现在生成的输出中,从而使组织面临诉讼

如果没有足够的上下文(可能在模型的提示中缺失),生成的内容可能会通过多种其他方式使您的组织面临无意中违反法律或做出不道德行为的风险。还有网络安全挑战,这些将在稍后讨论

道德和隐

当涉及道德和隐私风险时,这些风险与其他类型的机器学习的风险类似。最新一代模型的强大力量放大了道德风险。可以用这些能力取代或大规模增强人类吗?用户是否会开始过于信任这些系统?他们会被迷惑和操纵吗?鉴于它们基于大量互联网数据,偏见是一个需要管理的重要问题

大多数云托管的大型 GenAI 模型都放大了隐私方面的问题,因此,您需要确保可以将数据发送给第三方,并且可能使用匿名化(掩盖个人身份详细信息)或其他技术来解决隐私问题

更深影子IT

虽然本博客重点关注官方和受监管的项目,但围绕 GenAI 的兴趣和炒作(加上内部技术团队可能需要很长时间才能交付的看法)意味着一些员工和团队可能会倾向于直接使用公开可用的平台进行工作。这是自带设备/应用程序趋势的最新演变,但带来了更严重的不利影响。对于这项技术而言,用户在冰山一角看到的和与之交互的内容,与隐藏在水线以下的潜在问题之间的不对称是巨大的(正如这篇摘要文章的长度所示!

企业GenAI的技术风险与挑

出于业务考虑,技术实施中存在可能会产生严重问题的挑战。这些不仅仅与机器学习和数据科学有关——毫无疑问还存在与部署和系统集成相关的更多挑战

  • 可解释性/可重复性/透明

  • 可扩展

  • 数据和系统集

  • 免费试用的成本和危

  • 对环境造成的影

  • 财务可持续

可解释性和可重复

生成式人工智能往往是不确定的(即使使用相同的输入多次运行它也可能会遇到每次运行时出现不同的行为)。因此,我们如何设计、管理和测试它需要具备与传统的确定性技术不同的思维。与一般的机器学习一样,普通人(没有统计学和数据科学知识)无法理解的数学和算法会造成理解和透明度方面的问题。再加上现代组织中企业架构(业务、数据、程序和应用)的复杂性,可解释性变得更加困难

这种行为不确定性还带来了一致性、可靠性和可重复性方面的挑战。以下是最近的《明日架构师》节目中的一个片段,涉及以下几点

扩展和数据集

扩展由机器学习驱动的系统具有挑战性。在实验室环境中创建一种算法,在几个小时(甚至几分钟)内得出答案对于一次性的练习来说是可行的,但对于大规模的实时客户交互来说根本无法做到。这不仅仅是机器学习模型自身性能问题;如何将这些模型与企业数据存储和交易系统集成也会影响性能。例如,如果数据集成无法提供所需的响应时间,则无法查找客户的最近和历史活动以添加上下文

管理企业人工智能的安全风险可能是一篇单独的博客文章——同时,NCSC 的这篇文章https://www.ncsc.gov.uk/blog-post/chatgpt-and-large-language-models-whats-the-risk非常值得一读。遗憾的是,GenAI 技术很可能会导致利用这些技术的软件出现全新类型的安全问题。这可与早期的 Web 应用程序未经过滤的用户输入和 SQL 注入所产生的问题进行比较。我们已经看到了越狱聊天机器人的例子,毫无疑问,LLM 赋能的应用程序将会受到损害。遵循健全的安全实践不走捷径(当你在竞争中提供新的客户能力时并不总是那么容易)将是这里的基础。确保您的安全团队掌握最新情况并了解这一技术领域非常重要,否则,他们可能会因担心而终止项目

免费试用期的成本和危

据估计,GenAI 模型的训练需要数百万美元(更不用说招聘广受欢迎且昂贵的数据科学人才的成本)。因此,目前免费或低成本的平台不太可能保持这种状态。如果免费平台确实存在,那么很自然需要询问其商业模式以及是否包括使用输入到其中的数据。核查条款和条件以及它们是否与您组织的政策和监管制度兼容非常重要。这也是为什么带自己的模型来是有风险且不明智的——除非通过某种管理流程进行管理

展望未来的市场,基于 GenAI 的服务很可能会成为超大规模供应商提供的最昂贵的云服务之一。它们为用户提供了最大的价值,但研发费用过去很贵并将继续昂贵,运营成本高昂,并且给他们的提供者带来了需要规避的一系列风险

就个人而言,我认为这项技术会变得更加昂贵!由于炒作、兴奋和价格(通常是免费的),它将被用于一切事物。实际上,机器学习的费用和能耗应该被用于更具挑战性和更重要的问题——使用传统(通常足迹较小)技术无法轻松解决的挑战。训练这些模型需要大量的计算资源(具有隐含的碳足迹)并消耗大量的电力(同样会产生二氧化碳影响)。运行模型和推理也会消耗宝贵的能源。我们需要超越简单地抛出软件来解决问题的时代——但这也是我计划在不久的将来讨论的一个单独的主题

拟议的 GenAI

我们在这里仅仅触及了皮毛,即使这样也产生了很多需要考虑的问题!为了帮助您加速思考,我们识别了面向客户的应用程序需要考虑的架构的一些关键方面(例如聊天机器人和实时内容生成)。下图是根据知识共享署名4.0国际许可证Creative Commons Attribution 4.0 International License)开源的(如果您使用或演进它,我们很乐意听取您的意见,以便我们改进它)

该图假设您已经得出结论,用例或风险非常重要,无法仅通过 LLM GenAI 解决方案来解决(例如仅使用 ChatGPT 的白标版本)。将来也许以 GenAI 为中心的架构——简单地利用智能插件和集成——将变得更可靠。但在撰写本文时,对于这些技术的大多数企业应用程序来说,以 GenAI 为中心的架构看起来并不是一个明智的方法

         

上图分为运行时和设计时架构。从运行时开始

需求管

请求应通过需求管理机制进行管理 - 最好采用排队机制的形式。这确保了平台与客户需求的峰值实现隔离,并可以管理客户需求的峰值。如果访问量足够高并且工作负载对时间敏感,则可以考虑自动扩展编排组件

这是围绕不同组件的封装器或抽象层,管理生成式 AI 模型(在模型动物园中 - 稍后会详细介绍)并提供框架来添加勘测捕获、输入和输出检查等元素。这样做的好处是,您可保持上游和下游接口一致,却能够交换编排器中的组件或模型,或者根据需要放大或缩小它们

输入过滤和模型 IO

仅从使用来看,ChatGPT 和其他 Chatbot,很可能正在使用某种形式的输入过滤。作为清理输入的扩展,这很有意义,对那些“输入提示于结果的成功至关重要”的系统来说,这一点更为重要。输入可能需要进行重大更改才能获得更好的成功机会或避免内容生成风险;例如,可能导致与组织品牌不一致的结果的请求。Model Zoo 中的不同模型可能需要不同的输入数据或提示样式

模型动物

单个模型(无论它多么强大或通用)不太可能涵盖一个重要应用程序的所有用例。编排器可以利用 Model Zoo 中的许多已批准的模型(根据需要从 HuggingFace 等公开可用的模型中心提取并进行内部模型开发)。这允许对应用程序中使用的模型进行管理和治理。这种方法可能会导致接近通用人工智能(AGI——因为可以调用小的专业模型来解决特定的挑战并填补擅长人类交互的更通用语言模型的空白

勘测

当飞机不幸坠毁时,黑匣子飞行记录仪对于调查事故发生的原因至关重要。当利用机器学习的应用程序失败时,我们需要类似的审计跟踪数据源——捕获输入数据、决策和输出。这样,就可以吸取教训,并根据数据和证据做出调整或改变模型的决策。从监管角度来看,在客户流程中使用机器学习技术时,这可能会成为一项要求——将来,监管机构可能会要求查看您的应用程序勘测数据

输出检

在实时处理客户请求时,仅仅尝试在事后发现问题和错误并随后调整架构是不够的。为了防止品牌受损、销售不当或其他事故产生不当内容,需要进行输出检查和过滤。这可能是传统的基于逻辑的过滤和机器学习模型的结合,来保障模型产生的输出与公司政策和/或监管标准一致的置信百分比。然后,可以更改或保留对客户的响应,并提报给人类员工来响应客户

设计时架

其基础是设计时组件——这些组件将获取勘测和性能数据,并协助更新模型动物园、输入和输出过滤以及其他支持组件。可以评估和微调平台的性能,并可以根据捕获的勘测数据调查问题和事件

架构再次令人兴奋

一旦您罗列了问题和风险领域,就很难避免不知所措!每一次新的技术应用浪潮都伴随着风险和回报,因噎废食试图忽略下一个主要技术平台并不是一个明智的选择。关键是在最关心的领域确定优先顺序并找到务实的权衡。在某些情况下,您的组织可能无法适应这一风险水平,发生这种情况时,您可以考虑遵循延迟并开发策略,即在面向客户的部署之前进行研发投资,探索处理风险的方法或创建新的控制机制

GenAI 使架构变得更加令人兴奋 - 大多数新应用程序都遵循日益标准化的云平台,这无疑会带来改变!现在是通过架构进行差异化和创新的时候了,以管理组织的风险,同时允许全新的创新浪潮

底线是,您需要尽早与风险、安全、监管和/或法律利益相关者合作,以便他们了解 GenAI 的独特特征。将相关的非功能需求和质量属性视为一等公民。这些创新领域通常被忽视,但对于企业安全且成功采用突破性的机器学习模型至关重要。

继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存