AI的未来需要以太网(超级以太网)
内容概要
超级以太网与InfiniBand的区别:超级以太网注重解决大规模部署中的性能和效率问题,而InfiniBand可能因端点间的一对一关系限制网络效率。 以太网和InfiniBand在大规模部署中的限制:目前,以太网和InfiniBand在支持大规模部署时都存在实际端点数量的限制,例如InfiniBand的尾延迟增加问题。 超级以太网关注的工作负载网络:超级以太网特别关注处理特定工作负载的网络,如“网络一”和“网络二”,以及针对规模化GPU加速的“网络三”。 超级以太网的核心目标:超级以太网旨在通过优化物理层、链路层、传输层等多个层面,支持百万级端点,并适应HPC和AI等多种工作负载。 超级以太网的关键问题和挑战:超级以太网需要解决有序传输、可靠性等问题,并与软件API紧密集成,关注内存转移、拥塞控制、网络效率等关键方面。 超级以太网与HPC和AI的关系:使用超级以太网需要HPC思维,同时它可作为AI建模集群中的数据传输机制,显示出在大规模部署和特定工作负载处理方面的优势。
---【以下为正文】---
随着AI网络的飞速发展,以太网在工作负载通信中所扮演的角色愈发重要。在本次讨论中,Tom Hollingsworth携手Drew Conry-Murray、Jordan Martin以及超级以太网 Consortium主席J Metz,共同探讨UEC如何致力于满足AI的需求。他们深入探讨了技术应用路线图、推动协议增强的关键因素,以及我们如何参与其中。
Tom Hollingsworth,Tech Field Day总监
J Metz,超级以太网联盟主席兼SNIA主席、AMD技术总监 Jordan Martin,World Wide Technologies首席解决方案架构师 Drew Conry-Murray,Packet Pushers总监
-----
Tom Hollingsworth
以太网领域的发展日新月异,不仅连接工作站、无线接入点,还广泛应用于HPC集群等领域。然而,我们不禁要问,以太网的未来究竟会如何?它将如何助力新兴技术的发展?
几周前,我们录制了一期节目,探讨AI是否会很快取代InfiniBand。没想到,超级以太网联盟的负责人主动联系了我,希望就这一问题展开对话。在与他的交流中,我深感他的观点独到且引人深思。显然,超级以太网联盟对于当前的趋势和发展有着更深入的了解。因此,本期节目的主题便是:AI的未来确实需要以太网。接下来,我将邀请来自超级以太网联盟的朋友J,与我们一起探讨这一话题。
J,能否为我们解释一下,用以太网取代InfiniBand的想法是从何而来的?目前推动这一想法的因素有哪些?
J Metz
我认为这是一个很有意义的问题。实际上,这个观点并非要完全取代InfiniBand。InfiniBand作为一种卓越的技术,长期以来一直是高性能网络领域的黄金标准。它表现得非常出色,我相信没有人会说InfiniBand不适合我们所讨论的工作负载类型。
问题的关键在于,我们如何利用以太网的生态系统、产业规模、经验、用户基础以及技术路线图等方面的优势。以太网在速度和灵活性方面都有着强大的发展潜力。多年来,我们一直在探索如何针对各种工作负载优化以太网技术。
近年来,我们可以看到,许多HPC解决方案已经转向以太网。这并不是一个不切实际的想法,而是希望将已经在性能和工作负载方面表现出色的技术进一步优化。我们希望通过这样的努力,让以太网在未来的技术发展中发挥更加重要的作用。
Tom Hollingsworth
我明白了,但是,除了“哦,我们已经使用以太网一段时间了”这个原因之外,如果不打算取代现有的技术,还有其它理由吗?
就像3Com的Bob Metf所说的那样,我并不知道网络的未来会是什么样子,但我敢肯定,它还会被称为以太网。我们当前所面临的问题与10兆以太网时代已截然不同。
J Metz
确实,这恰恰是关键所在,不是吗?当我们谈论以太网时,我们是指它的绝对速度和成本吗?是指它在链路层的能力吗?在路由层实现它还是在传输层实现它?是以太网的哪一部分呢?
无论改变一部分还是全部,它最终仍然会被称为以太网。因此,我并不认为Bob对整个局势的看法有误。尽管我从未见过他,但我把他当作是我们的挚友。最终,这种灵活性为我们提供了许多调整的机会,但确实需要我们转变思维方式。
当我们考虑以太网时,我们往往从水平层次的角度,如物理层、链路层、传输层等方面来思考。我们对整个解决方案的堆栈都非常熟悉,我们了解它,同时也对它爱恨交织。然而,当我们思考以太网时,我们往往忽略了必要的垂直对齐。因为一切都被封装起来,如果查看帧,它们都被封装在这些环境中,在末尾有错误检查,在开头有头部,只是将其打包成一个像俄罗斯套娃一样的结构。
问题在于,当开始谈论垂直对齐时,链路层的变化对传输层或上面的软件层会产生什么影响?如何确保这些层次之间的对齐,以确保我们拥有最有效的过程?这既是优点也是缺点。可以处理许多这样的变化,但发现的趋势是人们只会不断增加抽象层,直到处理的抽象层如此之多,以至于底层的好处都被堆栈顶部的大量虚拟化所掩盖。而Infiniband之所以表现出色,是因为它是一个紧密耦合的网络,对端点正在做什么以及实际的布线有深入的了解。它是一种针对特定类型工作负载解决方案的有力支持者。
那么,我们为什么不能实现呢?答案是我们完全有能力做到。在超级以太网,我们正在开展一项宏大的项目,涵盖了从物理层到最高层的各个方面。同时,我们也在创建这些水平方法,以处理在链路层所做的更改对传输层、API中发生的事情的影响。这对于管理、存储、合规性和性能都至关重要。我们正在构建所有这些功能,当然也包括安全性。我们从一开始就致力于构建这一整套系统,所以我们的目标是,这不仅仅是一系列我们希望能够对齐的水平层,我们实际上正在努力实现这一目标。
Tom Hollingsworth
我想给Jury和Jordan一个机会加入讨论,因为你们已经与许多正在评估这些解决方案的现实世界用户进行了交流,无论他们专注于部署AI,还是探索通过增强以太网获得的其它机会。你们所看到的视角与我们迄今为止的讨论有什么不同吗?
Drew Conry-Murray
我也想问J,作为超级以太网联盟的代表,Infinband在AI方面是否有用?以太网是否只是坐在一旁,觉得我们不能错过这个市场机会,所以我们最好也做点什么?这是一个驱动因素吗?
J Metz
不,真正的问题在于Infiniband如何解决问题与以太网如何解决问题之间的区别,以及问题的实质是什么。我们试图解决大规模部署的问题。目前,无论是以太网还是Infiniband,对于任何类型的系统中实际端点的数量都存在一定的限制。然而,我们希望实现的是数量级的增长,比如说百万个端点。
在Infiniband中,可能会遇到的问题是,由于端点之间的一对一关系,实际上限制了网络的效率。这会产生一系列的连锁后果,包括由于流量的行为模式导致的尾延迟增加。我们希望能够充分利用所有可用的链路,这就引发了一系列问题,包括拥塞、拥塞信号、拥塞通知收集、拥塞缓解等。这需要在接近方面的适当语义下进行精细的数据包喷洒(packet spraying),有许多不同的问题必须解决。而在当前的范例中,无论是对于以太网还是Infiniband,这些都是无法实现的。这并不是说不能做出改变,而是说现在还没有发生改变。
所以我们试图说明的问题是,考虑到两种不同的配置文件——AI配置文件和HPC配置文件,Infiniband对这两者都是有用的,但需要进行一些微调才能使其适应另一种应用场景。还面临的挑战是,云服务商拥有大型和超大型数据中心,而还有常规企业和集群方法。超级以太网的观点是,为了做到这一点,我们必须能够处理有序传输和可靠性问题,同时我们还需要进行混合和匹配,无论是在以太网传输内部还是在以太网层内部。事实上,我们主要是在传输层内部进行处理,并且我们还将其与软件API紧密耦合,以便处理与这些API相关的软件。这样,就可以确定工作负载流量是什么,是HPC还是AI,是大规模部署还是小型机架规模行或列规模环境,将如何调整适当的语义层和数据包传输服务以适应这些不同类型的工作负载,并且将如何调整以使实际的工作负载本身有助于实现所期望的网络性能的最佳表现。这些调整是在交换机内部完成还是在端点内部完成。所有这些灵活性都需要非常谨慎地处理,这就是我们在超级以太网联盟内部努力的方向。
这不仅仅是一个关于Infiniband能做什么或不能做什么的问题。实际上,我们并没有每次讨论都关注Infiniband。我们关注的是问题本身,我们试图解决的问题,以及以太网如何解决这个特定问题,需要做出哪些改变、修改或调整来实现这一目标,而不是完全回到过去,彻底抛弃整个系统。
我们的目标是看看超级以太网在哪里发挥作用。我们试图说明如何实现向后兼容性和向前兼容性。在某个时间点上,这种过渡将在所有这些不同的环境中发生。我们预计会有一定数量的现有环境,但在HPC和AI领域,例如,可能会发现自己处于更多的新环境中。因此,我们现在有一个机会,特别是考虑到DPU的大量使用、端点的使用,以及交换网络内部的智能,在必要时处理网络计算组件。但不需要全部采用这些技术,这不是一个全有或全无的选择。
当我们开始使用紧密耦合的AI GPU集群时,例如,这是我们计划路线图的一部分。当需要时,它就会在那里发挥作用,它只是一个将来可以被命名的组件,但我们已经将其纳入我们的使命和宪章中。
Tom Hollingsworth
你提到我们谈论的不是取代Infiniband,而是让以太网具有更好的性能特性等类似的东西。但我认为回顾一下你和我讨论过的一些事情可能是一个好主意。关于我们将要替换的以太网网络是哪一个,因为不幸的是,“以太网”已经成为我们在构建网络时所引用的术语的通用词,它可以指代服务器之间的互联、广域网互连,也可以是客户端设备连接到网络的方式。我们打算升级的是哪一个网络呢?
J Metz
谢谢你提醒我,这可能是我应该一开始就提到的。我们确定了三种基本的网络类型。其中一种是LAN、WAN,那种我们都熟悉且深爱的以太网,它与互联网和其他一些东西共同存在。
然而,超级以太网与我们的讨论并不相关,所以我们实际上并不关心,或者更准确地说,我们根本不关注你在数据中心或企业内部,甚至是小型企业或Wi-Fi连接到以太网的东西。这些都被视为超出我们讨论的范围。
我们正在寻找一种针对特定工作负载的处理方式,主要处理两种类型的网络,我们创新地称之为“网络一”和“网络二”。但话说回来,我们现在关注的是网络二,主要是指大规模网络。对于HPC和AI,是否有一个拥有百万个节点的AI集群?我不知道,但我们的某些成员倾向于认为这不仅是可能的,而且是必然的。显然,如果谈论的是百万个节点,那么所指的是非常大的系统。因此,大家可能已经猜到了,谁对这种特定类型的解决方案更感兴趣。
而网络三,就是我之前提到的那个,它是一个针对规模化GPU加速的网络。这里的GPU只是一个例子,它可以是任何类型的加速器网络。这种网络具有紧密耦合、高速、高带宽和低延迟的特点。与大型系统相比,它可能对尾延迟的担忧较少,但它们之间也有重叠之处,它们并不是互斥的。因此,我们现在真正关注的是中间网络,用于大规模扩展的系统,这些系统将需要最多的即时工作。当我们进入所谓的网络三加速器焦点网络时,这些工作也将同样适用。
Drew Conry-Murray
那么,你认为谁会想要构建基于以太网的AI网络呢?是云服务商还是大型企业?
J Metz
可以在我们的网站上看到所有希望展示自己名称和标志的组织的名单,实际上,这个名单相当长。你所期待的常规参与者众多,比如微软、甲骨文,以及一些中国的超大型云服务商。对于需要解决特定网络问题的提供商来说,他们确实不在少数。在指导委员会上,我们还看到了惠普、思科、阿里斯塔等公司的身影。我总是担心漏掉某些人,英特尔和AMD都是指导委员会的重要成员。在不到一年的时间里,更具体地说,在短短四个月内,我们的队伍从只有6家公司迅速扩大到了近60家公司。这些公司都在努力解决这个特定问题,涵盖了从物理层到软件供应商,再到合规性和测试,以及性能等各个领域。大家都认为这将是一个值得投资的方向。因此,我们非常谨慎地确保我们的行动方式是正确的,不会过于冒进。我相信你会发现,那些希望部署这些系统的政府机构,包括国际政府机构,都会对此感兴趣。当然,超大型云服务商也都在提供和参与,但他们是否实际参与UEC还需另说。我认为我们已经看到了一些迹象,表明非UEC成员也在独立表达他们想要参与的意愿。这是一个大家都在努力解决的问题,只是解决问题的方式可能有所不同。
Drew Conry-Murray
对于市场现状,我认为NVIDIA在InfiniBand领域占据主导地位。他们销售GPU和大量的SDK来构建这些AI工作负载,这是整个行业所强调的。但有些人认为,我们不希望NVIDIA垄断一切,因此希望以太网成为一个有价值的选择,而不仅仅是InfiniBand的替代品。
J Metz
我认为这种看法并不准确。首先,我们是一个开放的组织,如果NVIDIA想加入,他们完全可以加入,没有任何阻碍。这是NVIDIA自己的决定,也是他们解决问题的方式。再次强调,这是NVIDIA的解决方案,他们希望以这种特定的方式来实现。因此,我再次强调,我们对任何对发展技术感兴趣的人都敞开大门。NVIDIA目前尚未表现出对此的兴趣,这完全取决于他们,但我们对他们保持开放态度,我们不会排斥他们的解决方案。
当我们开始解决这个问题时,NVIDIA有他们自己的方法,并且这种方法对他们似乎非常有效。我看到了他们的市值增长,但我对任何寻求处理NVIDIA方法与我们方法的人没有任何建议。我只知道这两种方法是完全独立的。我们的方法是开放的,我们采用开放的解决方案,我们正在寻找一种广泛的生态系统和行业方法来解决我们认为将会面临的问题。
Tom Hollingsworth
有一个问题也出现在这些同样的方面上,那就是采取的方法。你之前提到过,你正在尝试通过添加遥测和弄清楚如何进行数据包喷洒等方式来解决以太网本身的许多问题。但我认为其它一些公司可能会采取的方法是,在NIC或DPU或主机中解决这个问题,或许不一定在网络或交换机本身。UEC采取的是一种不偏不倚的方法来解决这个问题,或者说我们只是想解决问题,而不是偏向于在网络中解决它。这样,连接到超级以太网的人就不必进行太多额外的繁重工作或购买太多额外的设备来接口它。
J Metz
因此,开始问自己我们到底在这里谈论的是什么以太网,以及在方块图中的什么角色和功能,这是非常关键的。
DPU所带来的可能性之一是,现在网络的信任边界已不再局限于交换机内部。这意味着,当我们探讨网络堆栈的功能时,原本可能位于交换机内部的功能可以被推送到DPU中,与此同时,原本可能位于主机中的功能也可以被推送到DPU中。
因此,真正的问题在于CPU、GPU、DPU在主机内的关系如何。但让我们进一步拓展视野,如果DPU就是主机,那么我们在重新思考网络堆栈中的角色和信任边界时,需要考虑的就不再仅仅是主机与网络的界限,而是网络从何处开始、主机从何处结束,以及交换从何处开始、网卡或DPU从何处结束。这些决策实际上是在哪里做出的呢?我们能否将其分解成更精细的粒度?
如果可以做到这一点,那么我们需要关注的核心问题就是如何处理内存转移,即如何将数据从一个内存位置移动到另一个内存位置。现在,我们像拆解“霍伯曼球”一样,将其分解并重新组合,思考是否可以将某个特定的内存位置放在这里或那里,是否可以在某个点上将端点连接到网络。我们所做的这一切,都是在扩展和爆炸性地扩展构成一个端点的可能性,而这个端点不一定必须在交换机内部或DPU内部,它很可能在加速器内部。
我们需要思考的是,这个角色是否可以放在一个完全不同于我们传统看法的功能中,以使其更有效率。例如,假设我有一个PCB,它上面有一个主板,这个主板具有很多额外的智能功能,用于确定内存将被放置在何处、如何访问内存、如何移动内存以及如何在网络上表示内存。如果那个内存碰巧在网络上而不是通过多个不同的设备进行,会发生什么呢?通过探索不同的处理方法,我现在可以使所有这些可能性成为现实,并且可以将它们放在最有效的位置。我可以将其分开,并且可以根据我想要执行的功能类型有不同的延迟预算。这些都是AI作为一个机械和处理功能所带来的影响,网络必须意识到这意味着什么。
这时存储和内存将必然同时发生碰撞,这也是为什么我们在超级以太网联盟内部设立了一个存储工作组的原因。现在,存储角色和内存角色将会发生碰撞,并且它们将与网络有一个不同的接口。那么,这具体会是什么样子呢?这就是为什么我们试图说,当开始考虑到底是什么构成了内存端点以及它将位于何处时,所有的事情都变得不确定。
同时,还有交换机,这些交换机可以处理某些类型的加速和网络中的效率,以减轻端点的负担。因此,如何能够处理拥塞将是一个大型系统需要考虑的问题。基于拥塞控制、拥塞信号、拥塞意识、拥塞削减等方面进行构建,所有这些也都是可能的。对于那些希望在我们的网络中应用这些隐喻和范例的人来说,很好,让我们做到这一点。让我们确定可以做些什么,并让端点知道你想要实现的目标是什么,基于你想要运行的配置文件,而不一定需要它。
因此,配置文件并不需要强制执行,但在配置文件中,可能会发现一些必要的要求,以确保其正常工作。尽管配置文件本身并非强制性,但仍然需要遵循这些要求。这就是一个逐步混合和匹配的过程,最终目标是实现功能互操作性。如果我要制定这个配置文件,我希望大家都能明白我的意图,并意识到他们需要执行X、Y和Z等步骤。对于不在美国的朋友们,也同样需要执行这些步骤。无论我们采取何种方法,我们都必须确保在范例和可能性方面保持一致。确实,这需要我们非常小心处理,但这也是以太网在这类环境中展现魔力的地方。
Jordan Martin
我认为以太网可能从一个更传统的角度来看待。你所说的网络可能与这些话题不完全相关。然而,当涉及到设计和架构时,网络工程师经常谈论故障域,以及如何隔离系统和引入新事物。我对Infiniband的了解是,它是一个大型、高性能的L2网络,非路由型。因此,我们有一个可以进行路由的以太网。在这些特定网络中,使用以太网是否具有一些优势,如提供更好的弹性和故障域?毕竟,我们正在讨论一个可能让任何网络架构师、管理员、工程师都感到恐慌的100万节点网络。将所有内容放在一个L2域中,对吧?那么,InfiniBand和你所讨论的以太网之间的主要差异是什么?这有助于我们理解在这个领域中是否有一些优势,可能是为了提高弹性和故障域。
J Metz
故障域从L2提升到L4,大致上是这样的。我这里使用了一个非常宽泛的说法,UEC内部可能有些人会因为我这样说而想杀了我,但只是为了保持简洁明了。一个拥有数百万节点的L2域会让任何有常识的人都感到惊恐,10万节点的域可能也会产生同样的效果。因此,我们正在传输层内部进行大量工作,以处理适当的语义和数据包传递服务,这些服务将在所有这些不同的端点之间进行通信和协商。
我必须谨慎对待我可以讨论的内容,因为我们还没有批准这些提议。因此,我在多大程度上可以深入讨论是有限制的。但一般来说,我们正在与传输层上方的Libfabric紧密集成,以处理许多协议在软件层面上的协商。然而,传输层本身将能够基于网络的大小以及将要处理的工作负载类型来识别和自我识别不同的语义和不同的语义行为。因此,大部分这样的问题将由传输层来解决。现在,大多数生成和管理网络的人员永远不会面临这个问题,因为他们面临的问题不同。他们面临的是通用以太网问题,多种不同的工作负载类型、多个不同的租户,尤其是当你在谈论虚拟化容器等内容时,必须处理多种不同类型的IO混合。
我们要解决的问题主要是关于单一或基本单一类型的工作负载,这类工作负载可能具有多租户特性,但它们会共享相似的网络特征。这意味着,在决策使用哪种网络解决方案时,工作负载类型将起到决定性作用。你可以选择一种包含多种类型的、经过广泛验证的通用解决方案,也可以选择一种特别针对工作负载和数据传输的超级以太网解决方案,为特定类型的配置文件提供精确规范。
随着我们进入这一阶段,我预计管理员们会对超级以太网产生浓厚兴趣。我们将提供必要的教育和培训,确保他们在适当的时机能够参与进来。在某种程度上,这是一个循序渐进的过程。我们已经迅速通过了初始阶段,但要进入下一阶段,人们需要摒弃一些固有的思维方式。因为超级以太网具有HPC的特点,而一般的网络人员可能缺乏这方面的经验。因此,我们需要引导他们像HPC人员一样思考,即使他们在某些方面也涉及AI。对于熟悉HPC网络的人员来说,这些概念可能并不陌生,但要将其应用到一般以太网管理中,我们确实需要进行一些教育工作。
在进行合规性测试、性能测试以及处理各种类型的工作负载时,我们也在思考如何教育人们正确使用这项技术,以及如何判断它是否是最合适的方法。我收到的问题涵盖了从如何在Wi-Fi中实现到如何在区块链中实现等多个方面,但并非所有场景都适合使用这种技术。因此,我们需要在教育过程中明确告诉人们,这项技术可能或不是解决他们问题的最佳方案。如果不是针对特定问题,新技术未必就是最好的选择。
Jordan Martin
关于可扩展性,当谈到部署范围时,超级以太网具有极高的可扩展性。我所说的不仅仅是百万节点,还包括数千节点之间的以太网和InfiniBand选择。传统网络加上一些增强功能可能已经足够,并在这方面保持良好的步伐。但一旦超出这个范围,你就需要开始考虑更专业化的解决方案。我很好奇这项技术的普及程度。你提到了一些参与你项目的人,如云服务商和网站规模的网络供应商。显然,任何提供AI作为其产品线一部分的公司都会参与其中。我想知道这项技术在企业市场的普及程度会如何,是否只局限于提供AI服务的少数公司,还是更广泛的行业都会采用。因为不是所有企业都有这种规模,所以典型从业者可能不需要关注这些。我对这项技术的实际应用范围很感兴趣,想知道谁会使用它,以及是否有一定的使用门槛。
J Metz
为了更直观地理解,让我给你一个随意的比喻。假设你想使用一种常见的存储比喻,即你有一个前端网络连接到客户端,有一个后端网络连接控制器和实际存储设备之间。没有什么可以阻止你使用基于超级以太网的解决方案作为后端网络,以使控制器能够与这些存储设备进行通信。这样,你就可以充分利用超级以太网的高性能和可扩展性优势,提升整体系统的效率和性能。当然,这只是一个比喻,实际应用中可能需要根据具体需求和环境进行选择和调整。
比如说,你加入了DPU,突然间,你就拥有了一个极其智能的网络,这实际上是一个以数据存储为传输机制的AI集群。这些环境之间并没有本质的区别。同时,你可以在主机中配置能够感知UEC的网卡,并且,如果你愿意,还可以利用这种流量。我这么说,并不是要你太认真,我只是在讨论一些假设和可能的做法,我想表达的是,这个问题并不一定是非黑即白。
在需要的时候,你可以混合搭配所需的组件,将它们用在需要的地方,这是你可以根据系统类型来考虑的众多因素之一。但需要注意的是,如果你尝试在信任边界之外进行混合和搭配,可能会有风险。比如,你可能会说,“哦,我喜欢UEC的安全模型,我们会在网络一中实现它”,但如果性能没有达到你的期望,那可能是因为网络一中存在其它你没有考虑到的问题,我们也没有考虑到,因为这不是我们的重点。
你可能会发现自己处在一个环境中,你拥有这些与AI相关的、任意的建模集群。例如,为了进行深度学习建模,你可能需要从数据中提取数据结构,并将其转换为其它形式,以便在CPU中进行处理。这是深度学习中常见的问题,你需要处理多个数据移动,突然之间,你有了这个额外的层,因为你需要对数据结构进行修改,然后才能进行处理。那么,解决方案是什么呢?你在其中放置了计算存储解决方案吗?它们是否具有UEC感知功能?如果没有,那么你现在插入的是一种端节点之间的数据通信模型,即使你的整体思路是在这些不同事物之间使用UEC,这真的对你有帮助吗?你刚刚在中间插入了一些东西。因此,如果你创建了一个数据结构模型,说明了如何从一个位置移动到另一个位置,那么,如果途中有缓冲阶段,网络本身将无法帮助你。
因此,根据你尝试实现的目标,整体架构可能会有很大的差异。任何声称UEC、InfiniBand或传统以太网是你在数据中心面临的所有工作负载问题的万能解决方案的人,要么是试图欺骗你,要么是试图向你推销产品。而我既不想欺骗你,也不想向你推销任何东西。
Drew Conry-Murray
听起来你在说,即使你不是专门构建AI特定网络的工程师,也可能会在UEC中找到一些可以在网络中找到用例的开发或增强功能。
J Metz
我相信我们有许多不同的供应商,通常不会认为他们是AI或HPC方向的,但他们都是UEC的一部分,来解决这个特定的问题。因此,他们在那里看到了一些东西。我认为这是一件好事,因为这意味着人们不会简单地说“这是我们一直以来的做法”。这是我们一直以来对存储的方式,这是我们一直以来对内存的方式,这是我们一直以来对网络管理的方式。他们可能会考虑说,我们是否可以在我的现有环境中做得更好。这是好事。我认为不会今天发生,明天也不会,可能今年年底也不会,但如果我们试图将这些东西纳入传统网络,最终它将会实现。我认为它最终将成为下一个伟大的VC风险投资的强有力候选人,谁知道呢。
Tom Hollingsworth
这是一个引人入胜的讨论,正如你所看到的,关于以太网如何能够覆盖更广阔的范围,以便更有效地执行我们所需的HPC、AI以及其他多种任务。
---【本文完】---
近期受欢迎的文章:
更多交流,可添加本人微信
(请附姓名/关注领域)