Dell+NVIDIA: AI工厂(5篇)
戴尔携手NVIDIA共推AI工厂
Source: STEVE MCDOWELL; DELL AI FACTORY WITH NVIDIA; MARCH 20, 2024
背景
在NVIDIA GTC上,戴尔科技联手NVIDIA揭幕了戴尔AI工厂,这是一套全面解决方案,旨在简化企业采纳和集成AI的复杂流程。同时,戴尔还宣布对其旗舰PowerEdge XE9680服务器进行升级,推出了业界首款液冷服务器方案,让服务器能够充分发挥NVIDIA新发布的AI加速器的强大性能。
戴尔AI工厂
戴尔AI工厂与NVIDIA联手,共同开启企业AI应用与部署的新篇章。这一先导性举措旨在加速企业采纳和实施AI。该全面端到端解决方案旨在简化AI技术的部署流程,解决当前企业面临的多个关键挑战。
主要特性和服务
一体化AI方案:戴尔AI工厂将戴尔广泛的硬件能力(涵盖计算、存储、客户端设备及网络)与NVIDIA领先的AI基础设施和软件套件相融合,确保AI应用解决方案既强大又流畅。 企业定制设计:为满足企业环境的多样化需求,戴尔AI工厂支持在多个位置(从数据中心到边缘和云端)进行分布式、民主化的AI运营,同时确保企业数据安全和治理标准的严格遵循。 GenAI全生命周期支持:该方案覆盖生成式AI(GenAI)运营的全生命周期,包括模型开发、调优及应用。它简化了从数据转换到可操作见解和结果的整个过程。 检索增强生成(RAG):在新增功能中,戴尔AI工厂引入RAG技术,有效整合组织数据,减少对开源模型和专业知识的依赖。此功能提升了大型语言模型(LLM)的响应质量,并降低了计算成本。 AI优化基础设施:为满足企业日益增长的需求,戴尔AI工厂采用配备强大NVIDIA GPU的服务器,支持高速连接和优化网络布局。这种基础设施能够处理组织内的多个AI项目和部门,确保对增加的推理需求和模型训练提供高性能支持。 数据可视化和专业知识:该方案还专注于通过提高数据可见性和为GenAI项目做准备来克服数据孤岛问题。戴尔科技提供专业服务和戴尔Data Lakehouse,帮助客户识别正确的数据集,并加速其GenAI成果。
影响和优势
戴尔与NVIDIA合作的AI工厂是一款一站式解决方案,适用于希望通过利用AI力量推动创新、提升生产率和实现更智能、高价值成果的企业。该方案提供全面的工具、服务和基础设施套件,帮助组织更有效地应对AI实施的复杂性,确保更快的投资回报率和可扩展的AI转型路径。
服务器与存储平台升级
为构建戴尔与NVIDIA合作的AI工厂并支持NVIDIA新发布的加速器和网络组件,需要更新构成解决方案基础的服务器和存储平台。戴尔宣布了平台升级,为企业提供了推动AI创新和高效扩展AI运营所需的计算能力和存储解决方案。
戴尔PowerEdge XE9680服务器增强
戴尔旗舰型号PowerEdge XE9680服务器经过重大升级,以增强其支持生成式AI应用的能力。重点升级包括支持NVIDIA先进而强大的新GPU架构、扩展内存容量,以及引入新型冷却配置。
以下是关键更新的概览:
NVIDIA H200 Tensor Core GPU:PowerEdge XE9680服务器现已支持NVIDIA H200 GPU,并配备了高级的HBM3e内存,每块GPU容量高达141 GB。此次升级有助于处理更多用于训练和推理的AI模型参数,同时在6RU空间内实现空气冷却,旨在降低TCO。 BlueField-3:与NVIDIA BlueField-3的集成进一步提升了网络流量加速和卸载功能,这对于大型AI模型至关重要。这使得GPU间的通信更为高效。 搭载NVIDIA HGX B100 GPU的空气冷却配置:引入NVIDIA Blackwell家族的HGX B100 GPU,为PowerEdge XE9680提供了一个八路GPU配置,增强了处理能力,并配备了1.54 TB的HBM3e GPU内存。这种配置加强了服务器从拥有数万亿参数的模型中生成精准GenAI洞察力的能力。 搭载NVIDIA HGX B200 GPU的液冷配置:戴尔首款液冷PowerEdge XE9680配置采用了NVIDIA HGX B200 GPU,与之前的模型相比,提供了高达25倍的AI推理性能,显著降低了TCO和能源利用率。 NVIDIA GB200 NVL72多节点规模化服务器架构:这种新架构采用了NVIDIA GB200超级芯片,并配备了ARM CPU和片上Blackwell微体系结构B200 GPU,承诺提供拥有72个NVIDIA NVLink互连GPU的高密度配置,为训练和推理最大的AI模型树立了新的标杆。
戴尔存储SuperPOD验证
戴尔PowerScale F710存储解决方案已经通过NVIDIA DGX SuperPOD系统的验证,包括DGX H100系统。此次验证将PowerScale标定为首个与DGX SuperPOD兼容的以太网存储解决方案,尤其适用于已采用以太网的数据中心。
PowerScale架构充分利用GPU,同时确保高可用性、高效性,并有效防范数据污染和模型反演等威胁。
分析
随着企业的不断壮大,对支撑日益增长的AI应用所需的强大基础设施需求也越发凸显。戴尔科技正深化与NVIDIA的合作,旨在满足未来的需求,通过为服务器增添新的NVIDIA GPU以及支持高性能的AI网络布局,来强化基础设施能力。
NVIDIA拥有广泛的生态系统支持,戴尔并非唯一宣布支持其新平台的供应商。联想已宣布更新其ThinkSystem AI系列,以增强GPU配置并支持Nvidia的新GB200超级芯片和Quantum-X800网络产品。同样,HPE也计划更新其生成式AI解决方案堆栈,而Supermicro也公布了针对AI产品组合的类似更新。然而,戴尔与NVIDIA的合作更具战略意义。
戴尔与NVIDIA携手共建戴尔AI工厂,此举颇具战略眼光。双方能力互补,为企业打造基础设施,简化AI的采纳过程。这一行动将降低企业采纳AI的门槛,解决数据管理、安全性以及AI技术复杂性等挑战。
戴尔的PowerEdge增强措施,作为这一努力的核心,确保企业对其AI愿景有明确的性能提升路径。这对于支撑企业AI转型项目所涉及的日益复杂的任务来说至关重要。
随着组织不断拓展其AI能力,对优化基础设施以支持密集工作负载和复杂数据管理需求的需求只会日益增加。戴尔科技的最新举措正是对这一趋势的积极响应,为企业提供有效推动AI战略的工具。
戴尔与NVIDIA的AI工厂及其相关的产品增强措施,不仅是为了满足当前AI和生成式AI市场的需求;更重要的是,它们旨在预见行业未来的需求。
随着企业日益依赖AI来推动创新和竞争优势,拥有强大、可扩展且高效的AI基础设施的重要性不言而喻。戴尔正发出明确的信号,表明它有意成为这个不断发展的生态系统的核心,助力企业充分发挥AI投资的全部潜力。
戴尔打造由NVIDIA驱动的AI工厂
助力企业业务分析
Source:Chris Mellor; Dell building Nvidia-powered AI Factory for business analytics; March 18, 2024
戴尔正积极打造以NVIDIA技术为驱动的AI工厂,助力企业深化业务分析。通过这一平台,客户能够充分利用戴尔的服务器、存储和网络服务,将专有数据融入集成了RAG的AI推理系统,进而获得更精准的分析结果。
业内预测,到2025年,三分之二的企业将结合GenAI与检索增强生成(RAG)技术,以推动特定领域的自助知识发现。据IDC的一份AI报告显示,这一趋势有望使决策效果提升高达50%。戴尔表示,其全面的AI解决方案将帮助客户比其他任何供应商更高效地采纳GenAI技术。
Wedbush金融分析师马特·布莱森向订阅者透露:“从NVIDIA的金色芯片开始,其引发的涟漪效应现已演变成未来几年科技界巨大的开支浪潮。我们预计,在未来十年内,AI领域的开支将超过1万亿美元,因为全球范围内企业和消费者的用例不断增多,这标志着第四次工业革命的到来。”
AI工厂 与NVIDIA和RAG集成的GenAI GenAI模型训练 搭载NVIDIA GPU的PowerEdge服务器 为NVIDIA SuperPOD系统设计的PowerScale存储 戴尔Data Lakehouse
这一切均由戴尔的专业服务团队提供支持,并通过其基于APEX的订阅服务模式提供给客户。
AI工厂是一个端到端的系统,集成了上述所有组件。它旨在将戴尔的计算、存储、客户端设备和软件能力与NVIDIA的AI基础设施和软件套件相结合,构建在高速网络结构之上。
GenAI基础设施由配备NVIDIA GPU的PowerEdge服务器、PowerScale扩展型文件存储器和PowerSwitch网络组成。后者还融合了NVIDIA的NeMo等微服务,并融入了RAG技术。戴尔指出,新数据可以快速导入以更新语义搜索数据库。然而,正如我们所强调的,将组织的全部专有数据导入语义搜索数据库是一项极具挑战性的任务。
戴尔提供了结合其服务器、存储和网络设备与NVIDIA GPU服务器和软件的参考架构。其x86服务器系列包括R760xa、XE8640和XE9690。NVIDIA GPU则涵盖L40和H10型号,并计划支持更多新型号。
XE9680采用了NVIDIA的H200 GPU,并配备了新推出的更强大的空气冷却B100和液冷HGX B200。HGX H200的性能是HGX H100 GPU的两倍,同时TCO降低了一半。
戴尔还将支持NVIDIA的GB200超级芯片,其处理性能提升了20倍,推断成本降低了40倍,适用于大规模推理场景,相比8路HGX H100 GPU具有显著优势。GB200被定位为实时推理芯片,能够高效运行多万亿参数模型。
戴尔表示,这些设备既可用于AI模型训练,也可用于推理。它们支持BlueField-3以太网或InfiniBand网络。PowerEdge 760xa采用了NVIDIA的Omniverse OVX 3.0平台,而XE9680则配备了NVIDIA的Spectrum-X以太网AI网络结构。
戴尔的PowerScale存储已通过NVIDIA DGX SuperPOD验证,成为首个获得该资格的以太网连接存储设备。据称,PowerScale的性能超过了SuperPOD的基准要求,但戴尔并未透露具体的基准数值。
根据戴尔PowerScale解决方案的概述文档,最新的PowerScale(基于PCIe 5的F710与OneFS 9.7)相比上一代产品(基于PCIe 3的F600与OneFS 9.4)在流式写入和读取性能上提升了2倍,性能/瓦特提高了高达90%,高并发工作负载的改进幅度更是达到了2.5倍。
在GPUDirect方面,F600的节点顺序写入速度为1.26 GBps,节点顺序读取速度为5.26 GBps。经过2倍的改进,F710的节点读取带宽达到了2.52 GBps,节点写入带宽则提升至10.52 GBps。其他系统的速度更快,例如DDN的AI400X2 Turbo,在写入时每节点速度高达37.5 GBps,读取时则达到60 GBps。
戴尔的Data Lakehouse作为这一端到端AI组合的重要组成部分,融合了Starburst Presto软件、基于Kubernetes组织的Lakehouse系统软件,以及基于戴尔ECS、ObjectScale或PowerScale存储产品的规模化对象存储,为企业提供了强大的数据处理和分析能力。
戴尔AI工厂与NVIDIA已通过传统渠道及戴尔APEX服务,在全球范围内提供。 戴尔PowerEdge XE9680服务器搭载NVIDIA B200 Tensor Core GPU、NVIDIA B100 Tensor Core GPU以及NVIDIA H200 Tensor Core GPU,预计将于今年晚些时候上市。 戴尔与NVIDIA携手推出的生成式AI解决方案——RAG,现已通过传统渠道和戴尔APEX服务实现全球供应。 戴尔与NVIDIA共同打造的生成式AI解决方案——模型训练,将于2024年4月通过传统渠道及戴尔APEX服务,在全球范围内推出。 戴尔Data Lakehouse现已面向全球开放。 戴尔PowerScale已通过NVIDIA DGX SuperPOD与DGX H100以及NVIDIA OVX解决方案的验证。 戴尔针对RAG的实施服务自5月31日起,已在部分地区提供。 戴尔模型训练的基础设施部署服务自3月29日起,已在部分地区推出。
戴尔携手NVIDIA推出AI工厂
加速AI应用落地
Source:Harold Fritts; Dell AI Factory with NVIDIA to Accelerate AI Adoption; March 18, 2024
戴尔科技进一步加深了与NVIDIA的战略合作关系,共同推动企业快速采纳AI技术。通过增强戴尔生成式AI解决方案组合,特别是推出全新的戴尔AI工厂与NVIDIA合作方案,我们实现了数据、AI工具和基础设施的无缝整合,从而优化了企业在生成式AI(GenAI)领域的投资。
戴尔与NVIDIA结成战略联盟,致力于推动AI技术的广泛应用,进一步丰富了其产品组合。特别是全新的戴尔AI工厂与NVIDIA方案,为组织提供了全面的工具,帮助他们整合数据、AI技术和本地基础设施,从而优化其GenAI的应用。
迈克尔·戴尔强调了与NVIDIA合作所提供的简单性和整合性,使企业能够根据个人和组织的需求量身定制开发GenAI模型。黄仁勋则强调了AI工厂在生产可扩展智能方面的重要性,并认为与戴尔的合作是企业将其独特数据转化为可操作见解的关键。
这一方案的一个重要补充是PowerScale,这是首款与NVIDIA DGX SuperPOD(包括DGX H100系统)完成验证的以太网存储解决方案。这一验证标志着存储效率和速度的重大提升,满足了AI工作负载不断增长的需求。PowerScale与NVIDIA架构的兼容性使组织能够加速AI数据存储过程,提升性能和效率。
此外,双方合作还推出了戴尔PowerEdge XE9680服务器,预计将支持最新的NVIDIA GPU型号,如NVIDIA B200 Tensor Core GPU。这些升级旨在实现AI推理性能的显著提升,同时保持成本效益。此次合作还支持NVIDIA的先进网络平台,进一步夯实了尖端AI工作负载的基础设施。
戴尔AI工厂与NVIDIA共同推出了一款基于NVIDIA先进超级芯片的机架规模、高密度、可能采用液冷技术的架构。即将面世的戴尔PowerEdge XE9680服务器将搭载最新的NVIDIA GPU,为AI推理任务带来显著的性能提升,并降低总拥有成本。预计这些服务器将支持一系列NVIDIA GPU和网络技术。
戴尔与NVIDIA的生成式AI解决方案现已纳入检索增强生成(RAG),提供全栈、经过验证的解决方案,旨在通过RAG加速企业的AI应用。该方案通过使用专有数据提升了GenAI模型的质量。此外,我们还提供了用于自定义模型开发的全栈解决方案。
戴尔数据湖屋现已全球上线,作为一个现代化的数据平台,它促进了各种环境下的数据分析。同时,戴尔PowerScale已成为首个与NVIDIA高端AI系统完成验证的以太网存储解决方案,旨在提升AI存储效率。
戴尔的生成式AI解决方案的专业服务套件已得到扩展,NVIDIA的专业知识正在协助客户集成和保护这些解决方案。戴尔的实施服务现已扩展至包括新的RAG解决方案、模型训练、数据湖屋实施以及生成式AI数据安全咨询服务,旨在解决潜在的安全风险。
这些产品可通过传统渠道和戴尔APEX获得,戴尔PowerEdge XE9680服务器预计将于今年晚些时候上市。新的RAG解决方案和模型训练服务现已推出,而其他专业和咨询服务已在部分地区上线。
推动企业AI体验升级
Source:Jonathan Seckler; Power the Enterprise AI Experience; March 18, 2024
过去一年,生成式人工智能(GenAI)以其巨大的潜力,如加速新功能和产品的开发、提升用户生产力、实现竞争优势等,促使全球范围内的AI转型以惊人的速度和动力向前推进。
然而,将生成式人工智能引入并扩展至整个组织仍然面临诸多挑战,企业正寻求更加迅速、全面的“一键式”解决方案,以推动AI体验的全面提升。
2024年众多AI选择引发决策犹豫
一年前,戴尔推出了搭载八颗NVIDIA H100 Tensor Core GPU的戴尔PowerEdge XE9680服务器。这款服务器在2023年的NVIDIA GTC大会上亮相,成为加速生成式人工智能应用程序的强有力平台。随后,戴尔迅速推出了完整的解决方案蓝图,助力组织快速启动AI开发。
然而,如今的挑战凸显了行业的进步,同时也让组织难以实现能推动业务发展的解决方案。这些问题包括追求高质量结果、打破数据孤岛、确保数据的信任、治理和安全性,以及在市场上选择模型、架构和解决方案时缺乏指导和专业知识。为此,戴尔科技正带来新方案,助力客户克服这些挑战。今天,我们宣布戴尔与NVIDIA合作推出戴尔AI工厂。
通过端到端AI解决方案实现运营现代化
即便对于最尖端的组织而言,制定并在整个组织中部署AI战略,并采用统一的框架和方法也非易事。戴尔AI工厂将所有必需的基础和服务整合进一站式方法,以支持AI和生成式AI运营的整个模型生命周期。
戴尔与NVIDIA的合作带来了一个完全集成且无缝的解决方案,旨在满足企业内部的多样化AI需求,并支持从数据中心到边缘和云的多地点分布,实现AI运营的民主化。
戴尔与NVIDIA携手推出的戴尔AI工厂是业内首个端到端解决方案,它将戴尔的计算、存储、客户端设备、软件和服务能力与NVIDIA先进的AI基础设施和软件套件完美结合,所有这些都得到了高速NVIDIA网络布线的有力支撑。
作为完全集成的解决方案,它采用机架级设计,经过严格测试和验证,为将数据转化为有价值的洞察和结果提供了无缝的解决路径,特别符合企业数据安全和治理标准。戴尔与NVIDIA合作推出的戴尔AI工厂现已上市,为企业提供了独特的机遇,利用AI力量推动创新,实现更智能、更高价值的结果。
利用新功能实现更佳成果
随着LLM和用例的增长,早期采用者开始使用预训练模型和孤立的方法来开发生成式AI的应用。然而,开发人员、IT人员和数据科学家很快意识到,通用型LLM可能产生误导性结果,公司数据必须始终安全地保存在防火墙之后,不得随意传输到云端,而微调和训练则耗时耗力。
为此,我们引入了一种比微调预训练模型或构建自有模型(一种更具挑战性的方法)更快的方法:检索增强生成(RAG)。虽然RAG并非全新概念,但它允许组织在集成数据的同时减少对开源模型和专业知识的依赖。
戴尔与NVIDIA携手推出的戴尔AI工厂全面支持各类AI用例和应用。它集成了端到端的解决方案、软件、方法论及专业服务,旨在覆盖从推理和RAG到模型创建与调优的整个GenAI生命周期。
RAG新功能的引入,使客户能够优化LLM的响应质量,减少误判。RAG减少了传统微调模型所需的计算资源及专业知识。客户可利用Dell基础设施,结合NVIDIA NIM和NVIDIA NeMo Retriever微服务,迅速部署RAG,这些微服务将纳入NVIDIA AI Enterprise软件套件。 定制训练模型的方法让数据科学团队能够利用基于企业特定数据领域构建的小型语言模型,解决复杂问题。训练小型模型同样降低了对开源LLM的计算开销和误判率。
AI优化的创新与连接性
随着组织需求增长,他们积极寻找能够满足当前及未来需求的AI基础设施策略,以提升生产力并为客户创造更多价值。
如今的服务器在强大GPU的助力下,大幅缩短了处理时间。数据计算连接需要高速网络、优化的布线方案,并确保组织内任何位置都能无障碍访问数据。未来需求将进一步推动技术发展,支持组织内多个部门开展多个AI项目。这要求更高的性能来支撑日益增长的推理需求,并满足更多RAG和模型训练的新用例。
戴尔科技正深化与NVIDIA的合作,以满足客户不断增长的需求:
戴尔PowerEdge XE9680服务器正在进行升级,以支持NVIDIA H200 Tensor Core GPU,以及最新的NVIDIA B100和B200 Tensor Core GPU,为需求严格的组织和多用途场景提供清晰的性能提升路径。 戴尔还宣布将支持NVIDIA GB200 Grace Blackwell超级芯片作为独立平台,用于特定部署。更多详情将于今年下半年揭晓。 戴尔PowerEdge服务器同时支持NVIDIA BlueField–3 SuperNIC,加速AI基础设施的扩展连接。当与NVIDIA Spectrum-4交换机协同工作时,作为完整的NVIDIA Spectrum-X以太网平台的一部分,可实现AI网络通信性能的全新优化水平。此外,这种高性能AI布线还通过PowerEdge服务器驱动NVIDIA OVX架构,加速生成式AI工作负载,并通过PowerEdge服务器实现数字孪生模拟。 戴尔PowerScale存储对于存储数据集、LLM模型和开发框架至关重要。PowerScale F710现已验证可与NVIDIA DGX H100系统的NVIDIA DGX SuperPOD配合使用。客户现可使用PowerScale构建他们的AI解决方案,这是首个与DGX SuperPOD验证的以太网存储方案,非常适合已采用以太网的数据中心。戴尔PowerScale是一种可扩展的验证架构,能够保持GPU的高利用率,同时确保高可用性、卓越效率,并保护AI模型免受数据污染、模型反转和网络攻击。 戴尔的NVIDIA加速基础设施解决方案与NVIDIA AI Enterprise软件套件配合使用,该套件现已支持NVIDIA NIM推理微服务,可在数十种NVIDIA和社区模型上实现优化的推理,从而加速AI部署。
数据可见性与专业知识
组织常面临数据孤岛问题,降低了查找和准备生成式AI数据的效率。缺乏生成式AI的专业知识可能进一步阻碍企业的进步,因为他们试图启动项目。找到正确的数据以提供高质量结果至关重要,同时需要找到合适的合作伙伴来加速客户部署。
戴尔科技正加快实现商业价值的速度,今日推出以下新内容:
戴尔数据湖屋现已全面上线,帮助客户将AI引入其数据,使数据科学家能够为每个GenAI项目确定正确的数据集。
加速实施RAG系统 部署模型训练基础设施 扩展生成式AI的数据管理服务,包括数据安全 以领先的AI组合推动您的AI之旅
通过戴尔AI工厂与NVIDIA今日宣布的新功能,组织可实现更快的投资回报率和更短的项目成果时间。其AI战略能够满足他们的多种需求和用例,这一切都得到了全面的端到端、一站式AI解决方案的支持。戴尔科技不断扩大的产品组合通过验证的基础设施策略、平台和合作伙伴,加速客户目标的实现,提供创新和经过验证的方法,加速从自有数据中获取洞察。
戴尔科技与NVIDIA携手打造AI工厂
Source:Varun Chhabra; Simplifying AI in the Enterprise: The Dell AI Factory with NVIDIA; March 18, 2024
近日,戴尔科技宣布与NVIDIA达成合作,共同推出戴尔“AI工厂”(AI Factory)。这是业界首个覆盖全流程的企业级人工智能(AI)解决方案,致力于简化企业应用AI技术所遇到的复杂挑战。
将广泛的可能性聚焦到最具影响力的应用场景上 有效管理、准备关键企业数据,并确保其安全性和治理 为AI应用提供必要的、无可妥协的性能保障 获取实施集成解决方案所需的技术技能 确保对各项需求做出适当和准确的响应
针对这些问题,众多企业寻求能够简化AI部署的综合解决方案。戴尔与NVIDIA合作推出的AI工厂正是这样一种创新方案,它整合了戴尔在计算、存储、网络、工作站和笔记本领域的领先技术,以及NVIDIA的先进AI基础设施和企业AI软件(包括专为优化推理而设计的NIM微服务),并依托于NVIDIA高速Spectrum-X网络技术。
这一完全集成的解决方案采用机架级设计,经过严格测试与验证,为企业将数据转化为有价值洞察和成果提供了无缝途径,同时满足企业数据安全和治理的高标准。随着企业在全球范围内的数据日益分散,戴尔AI工厂与NVIDIA共同支持企业在不同场景下的部署需求,包括核心数据中心、边缘部署(通过Precision AI-ready工作站、NVIDIA AI Workbench和PowerEdge-XR服务器)以及云部署。
戴尔与NVIDIA合作的AI工厂基于双方的共同努力,构建了一个基于戴尔PowerEdge XE9680、最新NVIDIA GPU、NVIDIA Spectrum-X以太网平台和戴尔PowerScale F710存储的高性能AI系统,旨在优化性能和吞吐量,验证客户应用场景并确定最佳配置。
支持多样化的企业AI应用场景
戴尔与NVIDIA合作的AI工厂支持广泛的AI应用场景和程序。它提供端到端的验证,覆盖整个AI生命周期,从推理和检索增强生成(RAG)到模型调优、开发和训练。
业界领先的专业服务
企业还可以借助行业领先的专业服务,在AI转型的每个阶段加速进展。客户可以通过戴尔服务的成熟框架,进行战略研讨、应用场景评估、数据准备和组织准备。戴尔和NVIDIA提供专业技术知识,帮助企业设计数据中心、优化AI软件和数据分析,加速概念验证和生产实施。此外,专家还能协助进行模型调优、增强和数据安全,扩展AI操作。员工体验服务结合培训和认证,旨在解决技能缺口,简化新AI工具和技术的采纳。
灵活的按需服务
戴尔与NVIDIA合作的AI工厂解决方案还可通过戴尔APEX订阅服务获得,使企业能够快速采用AI技术,无需大量前期投资。APEX订阅允许企业按使用量付费,使财务和运营需求与技术发展保持同步。
戴尔与NVIDIA合作的AI工厂已正式推出,为企业提供了利用AI推动创新、实现智能化和高价值成果的独特机遇。
共同推动AI性能的新飞跃
NVIDIA和戴尔还共同推出了基于NVIDIA GB200 Grace Blackwell超级芯片的机架规模、高密度液冷架构,用于支持戴尔AI工厂。这些系统将支持数据中心的下一代能力,包括分布式、高密度功率—每个机架高达100千瓦——为戴尔AI工厂的性能和密度带来质的飞跃。
通过戴尔AI工厂,客户可以利用统一的解决方案、软件和策略框架,为全球团队创建、推出、产品化和扩展AI和生成AI工作流。
戴尔科技和NVIDIA将继续推进AI技术的发展,拓展其在企业级应用场景中的广泛应用。通过这种合作,企业可以期待开发新的潜在应用场景,推动业务发展,保持在快速变化的数字化世界中的竞争力。
--【本文完】---
近期受欢迎的文章:
更多交流,可添加本人微信
(请附姓名/关注领域)