查看原文
其他

(视频)英伟达黄仁勋访谈:从日常研究到战略规划,AI正改变CEO们的工作方式与思维模式

AI工作坊 AI深度研究员
2024-11-08

(关注公众号并设为🌟标,获取最新人工智能资讯和产品)

全文约18,000 字,阅读约需33分钟

金句整理

——公司的真正潜力不在于当前规模,而在于其'鱼塘'大小——市场创造者通过开辟新天地获得无限可能,而仅专注于在现有市场中争夺份额的企业终将受限,因此企业应以前瞻性思维拓展'鱼塘',而非局限于现状

——所有伟大的公司都应该有这样的核心问题:你们正在做的事情是否必要?是否有价值?是否有影响力?是否能帮助到人?

——我们自己已经有AI芯片设计师、AI软件工程师、AI验证工程师,所有这些AI都在内部构建,因为我们有能力,我们也乐于亲自探索这些技术的可能性

——我的工作并不总是有趣的,当然也没有指望它有趣。你问我这是不是我期望的,我会说因为工作是重要的。我不太看重自己,但我非常认真对待我的工作和责任以及我在这个时代的贡献

近日,NVIDIA首席执行官黄仁勋(Jensen Huang)就AGI发展、AI市场前景及其对各行业的影响等话题接受了采访。作为科技行业的领军人物,黄仁勋对AI的现状和未来提出了一些个人见解。

黄仁勋首先强调了区分AI模型与AI应用的重要性。他指出,模型只是AI的基础组成部分,真正的价值在于AI的具体应用。无人驾驶、人形机器人、聊天机器人等不同领域的AI虽有关联,但各自特点鲜明。这意味着AI产业链的每个环节都蕴含商机,但并非无限。

谈及AI对企业管理的影响,黄仁勋认为AI将成为企业决策的有力助手。AI可以帮助自动化流程、拓展思考维度,但确定核心问题仍需人为判断。他预见每个人都将成为"AI代理的CEO",通过创造力和推理能力来指导AI完成任务。他认为,通过AI之间的交流、辩论和强化学习,可能产生类似于人类头脑风暴的效果,从而实现智能的进一步提升。他同时也分享了自己使用AI的亲身体验。他表示AI已成为自己日常工作中不可或缺的工具,无论是研究、验证还是头脑风暴,AI都在其中发挥着重要作用。

他坚信,AI将为社会带来巨大贡献,而继续探索AI的无限可能性,正是他坚持不懈的动力所在。


视频时间轴

( 1:50 ) AGI 和个人助理的演变

( 15:51 ) AI推理和训练的未来

( 19:01 ) 构建AI基础设施

( 31:35 ) 创造AI未来的新市场

( 43:25 ) AI模型的未来

( 55:54 ) 推理时间推理及其重要性

( 01:00:46 ) AI在生产力方面的作用

( 01:12:31 )开源与闭源的平衡

文稿整理

主持人: 我们现在在英伟达的总部,就在Imer街的附近。欢迎你!

嘉宾黄仁勋: 谢谢,谢谢。

unset1、AGI即个人口袋助手unset

主持人: 今年的主题是从智能扩展到通用人工智能(AGI),这真是让人难以置信。两年前我们第一次谈论这个话题时,还处于AI的时代,那时距ChatGPT发布只有两个月的时间。而如今的变化令人难以置信。我想我们可以通过一个思想实验开始,并做一个预测。如果我把AGI设想成一个口袋里的个人助手,它会了解我所有的信息,拥有完美的记忆,能够和我交流,帮我订酒店,甚至帮我预约医生。你觉得,随着世界变化的速度,这样的个人助手什么时候能真正出现在我们的口袋里?

黄仁勋: 很快,以某种形式吧。是的,很快。这个助手会随着时间的推移变得越来越好,这是科技的魅力所在。所以一开始它会很有用,但不会完美,随着时间推移,它会越来越完美,就像所有的技术一样。

主持人: 当我们观察变化的速度时,我记得Elon(马斯克)曾说过,唯一重要的就是变化的速度。而我们现在感受到的变化速度似乎已经加快到了前所未有的程度。因为我们一直在围绕AI这个话题转悠了十年,而你甚至比我们还要早。这是你职业生涯中见过的最快的变化速度吗?

黄仁勋: 确实如此,因为我们已经重新定义了计算。很多变化都是因为我们在过去十年里将计算成本降低了十万倍。摩尔定律只能带来百倍的增长,而我们做到了十万倍。我们通过几种方式实现了这一点:首先是引入了加速计算,把一些在CPU上效率不高的工作放到了GPU上。其次是我们发明了新的数值精度、新的架构,比如张量核心。我们还发明了新的系统架构,比如NVLink,以及极其快速的存储器HBM。所有这些创新都促成了计算能力的飞速发展。

结果就是,我们从人类编程走向了机器学习,而令人惊讶的是,机器学习的速度也很快。随着我们重新定义计算的分布方式,我们引入了各种形式的并行计算,包括张量并行、流水线并行等,我们变得擅长在这些基础上发明新的算法和训练方法。这些技术和创新互相叠加,最终带来了令人难以置信的进展。以前的摩尔定律时代,软件是静态的,预编译后装入商店,硬件按摩尔定律增长。而现在整个堆栈都在增长,我们在所有层面上进行创新,因此我们看到了前所未有的扩展速度。确实如此。以前我们讨论的是预训练模型的扩展,每年翻倍模型大小和数据量,计算需求也因此每年增加四倍。而现在我们在推理阶段也看到了扩展,甚至有人认为预训练很难,而推理很简单,但现在看来一切都变得更加复杂。这也很合理,毕竟把所有人类思维都简化为一次性反应是荒谬的。快速思考和慢速思考、推理、反思、迭代和模拟,这些概念现在都开始显现了。

主持人: 我认为关于英伟达的一个被普遍误解的事情,就是英伟达的竞争护城河到底有多深。我觉得有一种说法是,一旦有人发明了一个更好的芯片,他们就赢了。但事实上,你们过去十年一直在构建的是从GPU到CPU再到网络,尤其是软件和库的全栈架构,能够支持应用程序的运行。所以,当你思考今天的英伟达时,你觉得今天的竞争壁垒比三到四年前更了,还是更小了?

黄仁勋: 我很感谢你能认识到计算的变化。实际上,很多人过去认为,包括我现在还有很多人认为,只要设计出一个更好的芯片,拥有更多的计算能力,更多的浮点运算能力(flops),就赢了。你知道他们的意思,他们在发布会上展示的都是关于这些浮点运算能力、条形图之类的东西。这当然很重要,计算能力确实很重要。然而,这种思维方式已经过时了。这是一种过时的想法,因为过去的软件都是在Windows上运行的,软件是静态的,也就是说,你提升系统性能的最好方法就是做出更快的芯片。但是我们意识到,机器学习并不是人类编程。机器学习不仅仅是软件的问题,它关乎整个数据管道。

事实上,机器学习的关键是“飞轮效应”,这是最重要的事情。因此,我们要考虑如何让这个飞轮高效运转,同时让数据科学家和研究人员在这个过程中保持高效。很多人甚至没有意识到,光是数据的整理和训练都需要AI,这个过程本身就非常复杂。

unset2、英伟达竞争优势unset

主持人: 是的,而且这个AI本身也在不断加速,对吧?当我们考虑竞争优势时,它是整个系统的组合效应。

黄仁勋: 完全正确。正是因为有了更智能的AI来整理数据,我们现在甚至有了合成数据生成以及各种不同的数据整理方式。因此,在进行训练之前,你已经有了大量的数据处理工作。很多人认为PyTorch是这个过程的起点和终点,PyTorch确实很重要,但别忘了,在PyTorch之前有大量工作,之后也有大量工作。所以,当你考虑这个飞轮时,应该从整体来看待它,而不仅仅是关注训练这一块。你应该设计一个计算系统和计算架构,能够让这个飞轮的每一步都尽可能高效,而不仅仅是某个特定的应用场景的训练。这种思维方式有意义吗?训练只是其中的一步,每一步都是艰难的。

所以,你要做的第一件事不是想着如何让Excel运行得更快,或者如何让游戏《毁灭战士》运行得更快,那是过去的思维方式。现在你要思考的是,如何让整个飞轮转得更快。而这个飞轮包含了很多不同的步骤,机器学习没有任何容易的部分,你们也知道,无论是OpenAI做的事情,还是DeepMind的Gemini团队做的事情,都不是简单的任务。所以,我们决定这才是你应该关注的整个过程。你需要加速每一个步骤,尊重Amdahl定律。如果某个步骤占用了30%的时间,你把它加速了三倍,但实际上并没有加速整个过程很多。你要做的是加速每一个步骤,这样才能真正显著地提高循环时间和整个飞轮的效率。

这个学习的加速过程,最终会带来指数级的提升。因此,我想说的是,一个公司对自己在做什么的理解,最终会体现在产品中。正如你所看到的,我一直在谈论这个飞轮,整个系统的飞轮。我们现在加速一切。现在的主要焦点是视频,很多人专注于物理AI和视频处理。你能想象一下前端每秒数TB的数据流入系统的场景吗?举个例子,展示一下如何构建一个能够摄取所有这些数据并准备训练的管道。整个流程都是通过Cuda加速的。今天,大家大多还在关注文本模型,但未来的视频模型同样重要。我们还会使用一些像o1这样的文本模型来处理大量数据,甚至在我们真正进入训练阶段之前。语言模型将参与到每一个步骤中。整个行业花了巨大的技术力量和努力来训练大型语言模型,现在我们几乎在每一步都在使用这些语言模型,真是不可思议。

主持人: 我不想把这件事说得过于简单,但我们经常听到投资者问:“那定制的ASIC呢?竞争壁垒会不会因为这个被打破?”我听到你说的是,在一个组合系统中,优势会随着时间的推移而增长。所以我理解的是,我们的竞争优势比三四年前更强,因为我们在不断改进每一个组件,而这种改进是累积的。再举个例子,比如英特尔作为商业案例研究,他们在某个周期的顶峰时具有显著的竞争优势。你能简单比较一下今天你们的竞争优势与他们在巅峰时期的竞争优势吗?

黄仁勋: 英特尔确实很了不起,他们可能是第一家在制造工艺、制造和芯片设计方面极其优秀的公司。他们在x86架构上不断提升芯片速度,这就是他们的辉煌成就,他们将制造与设计完美结合。我们的公司有些不同。我们意识到,实际上,并行处理并不需要每个晶体管都要完美无缺,而串行处理则需要每个晶体管都非常优秀。并行处理需要大量晶体管更具成本效益。我宁愿要10倍更多的晶体管,但速度慢20%,也不愿要10倍更少的晶体管,但速度快20%。

他们喜欢的可能是相反的,串行处理和并行处理非常不同。我们发现,实际上,我们的世界并不是往下走得更好,而是往上走得更好。并行计算很困难,因为每个算法都需要为不同的架构重新架构。很多人不知道的是,你可以有三个不同的CPU指令集架构(ISA),它们各自都有自己的C编译器,你可以将软件编译到ISA上,但这在加速计算和并行计算中是做不到的。

发明架构的公司必须自己创建特定领域的库,比如我们革命性地推进了深度学习,因为我们有一个叫cuDNN的领域特定库。没有cuDNN,就没有人谈论cuDNN,因为它在PyTorch、TensorFlow等框架的下层运行。以前还有Cafe和Theano,现在有Triton和许多不同的框架。因此,cuDNN是一个领域特定的库,Optics是一个,cuQuantum是一个,Rapids是另一个,用于行业特定算法的库都位于PyTorch下层。我常听到人们说,如果我们没有发明这些,任何应用程序都无法工作。你们明白我的意思吧?NVIDIA擅长的是算法,我们在架构和科学的融合方面非常优秀。

unset3、推理模型训练unset

主持人: 现在大家都关注推理阶段了。我记得两年前,Brad和我跟你共进晚餐时,问过你一个问题:“你认为在推理阶段,你们的壁垒会和训练阶段一样强大吗?”你刚才提到的许多因素,比如灵活性,对于客户来说能够在不同阶段之间保持灵活性非常重要。既然我们已经进入了推理的时代,推理训练正以规模化的方式进行,你对此有什么看法?

黄仁勋: 是的,你说得对。如果你训练得很好,那么在推理阶段很可能也会表现得很好。如果你基于这个架构进行训练,即使没有特别的优化,它也能在这个架构上运行。当然,你可以去为其他架构进行优化,但至少它已经在英伟达的架构上构建了,肯定能够在英伟达上运行。另一个方面是资本投资的考虑。当你训练新模型时,你会希望用最好的新设备来进行训练。而那些你昨天用过的设备,正好适合用来进行推理。因此,新设备之后会留下一些免费的设备和基础设施,而这些都与Cuda兼容。我们非常有纪律地确保整个系统的兼容性,这样我们留下的所有东西依旧可以发挥极大的作用。我们还投入了大量精力不断重新发明新的算法,这样当时机成熟时,Hopper架构的性能可能会比购买时提高两到四倍,基础设施仍然能保持很高的效率。我们所做的所有工作,包括改进新算法、新框架,都会对我们所有现有的基础设施有益。Hopper受益,Ampere也受益,甚至Volta也受益。

我记得Sam刚刚跟我说,他们最近才在OpenAI停用了他们的Volta基础设施。所以我认为,我们留下了一条坚实的安装基础,就像所有计算设施一样,英伟达在每一个云中都存在,无论是本地还是边缘设备。现在创建的视觉语言模型可以在边缘设备上的机器人上完美运行,无需修改,因为它们全部与Cuda兼容。所以,我认为架构的兼容性对大规模应用非常重要,就像iPhone或其他设备一样。我认为安装基础对推理非常重要,而我们真正受益的是,因为我们正在为这些大型语言模型构建新架构,所以我们可以思考如何设计出在未来推理时表现出色的架构。

我们一直在考虑推理模型,特别是如何为你的个人助手创建非常互动的推理体验。你不希望它听到你的话后需要长时间思考,而是希望它能快速回应。于是我们发明了NVLink,这样我们可以利用这些系统进行高效的训练,并且在训练完成后,它们的推理性能依然非常出色。我们希望优化的是从开始到生成第一个词的时间。而实现这个目标非常困难,因为这需要大量的带宽。如果你的上下文丰富,你还需要大量的计算能力。因此,要在几毫秒内实现响应,你同时需要无限的带宽和计算能力。这种架构非常难以实现,我们为此发明了Grace Blackwell NVLink。

主持人: 我本周早些时候和Andy Jassy一起吃了晚餐,Andy说我们有Trainum和Inferentia即将推出。很多人认为这是英伟达的威胁,但紧接着他说,英伟达对我们来说是非常重要的合作伙伴,而且在可预见的未来都会保持这种重要性。他说,世界运行在英伟达的基础上。当你考虑到定制的ASIC,比如Meta的推理加速器,或者亚马逊的Trainium,以及谷歌的TPU,再加上你们当前的供应短缺问题,这些因素是否会改变现状?或者这些只是对你们系统的补充?

黄仁勋: 是的,实际上我们在做的是不同的事情。英伟达的目标是为这个新的世界——机器学习的世界、生成式AI的世界、具备代理能力的AI的世界——构建一个计算平台。我们想要创建的东西非常深远,在经过60年的计算之后,我们重新发明了整个计算栈。我们改变了从编程到机器学习的软件编写方式,改变了从CPU到GPU的软件处理方式,改变了从软件到人工智能的应用方式。每一层技术堆栈都发生了变化。我们希望创建一个随处可用的计算平台。

我们现在做的事情非常复杂。如果你想象我们所做的事情,我们实际上是在构建一个完整的AI基础设施,我们把它视为一台计算机。正如我之前说过的,数据中心现在是一个计算单元。当我思考一台计算机时,我不只是在思考一个芯片,而是在思考整个系统,包括所有的软件和协调工具,这就是我的计算机模型。我们每年都在努力构建一台全新的计算机。没有人曾经像我们这样,每年都构建一台全新的计算机,每年都将性能提升两到三倍,每年都将成本降低两到三倍,每年都将能效提高两到三倍。因此,我们会告诉客户,不要一次性购买所有设备,每年买一点。这样,他们可以更好地成本平均化到未来,而所有设备都是架构上兼容的。

这样快速地构建新的系统已经非常困难了,而更难的是,我们要把所有这些技术解耦开来,并将其整合到GCP、AWS、Azure以及其他平台中。每个平台的集成都是不同的,我们需要把我们的所有架构库、算法和框架整合到他们的平台中。我们需要把我们的安全系统、网络都整合进去,对吧?我们每年都进行大约10次集成操作,每年都是如此。这真是个奇迹,但同时也是疯狂的。

unset4、英伟达市场策略unset

主持人: 你们每年都在做这件事。是什么促使你们每年都这样做呢?还有,Clark刚从台北、韩国和日本回来,拜访了你们的供应商合作伙伴,这些合作关系已经持续了十年之久。你觉得这些长期的合作关系对建立竞争壁垒有多重要?

黄仁勋: 当你系统地分解这些事情时,越分解,你会越感到惊讶。整个电子行业的生态系统今天都在与我们合作,最终构建出一个计算机集群,这个集群被集成到所有不同的生态系统中,且协调非常顺畅。当然,这背后有API、设计方法、业务流程以及设计规则,这些东西我们已经推行了几十年,并且它们还在不断进化。当这些API整合在一起时,无论是在台湾,还是世界各地生产的设备,最终都会落地到Azure的数据中心,所有东西都顺利地“咔咔咔”组合在一起。有人调用OpenAI的API,一切就能正常运转。这就是我们发明的——这个庞大的计算基础设施。整个地球都在和我们合作,这些系统无处不在。你可以通过Dell销售,也可以通过HP销售,它们在云端托管,甚至延伸到边缘设备。现在人们在机器人、自驾车上使用它们,它们全部与架构兼容,这确实是疯狂的。关于你的ASIC问题,我的意思是,我们只是在做不同的事情。

作为一家公司,我们要有情境意识,我非常清楚我们公司周围的一切,包括我们的生态系统。我知道所有人正在做的替代方案,有时这些方案对我们有竞争性,有时没有。我非常清楚这些事情,但这不会改变我们公司的使命。我们公司的唯一使命就是构建一个能够无处不在的架构,一个平台。这就是我们的目标。我们不是要从别人那里抢市场份额,英伟达是市场创造者,而不是市场份额的掠夺者。如果你看看我们的公司幻灯片,你会发现,我们从来不谈论市场份额。我们所关注的是如何创造下一个东西,解决下一个问题。我们想的是如何让原本需要一年的飞轮运转时间缩短到一个月的时间,光速是什么?我们在考虑这些不同的问题。我们对周围的一切都有情境意识,但我们对我们的使命非常明确。唯一的问题是,这个使命是否有必要?

所有伟大的公司都应该有这样的核心问题:你们正在做的事情是否必要?是否有价值?是否有影响力?是否能帮助到人?我非常确信,如果你是一个开发者,或者你是一家生成式AI初创公司,正在决定如何成为一家企业,有一个选择你不需要做,那就是支持哪种ASIC。如果你支持Cuda,你就可以走遍天下。之后你可以随时改变主意。我们是AI世界的入口。一旦你决定进入我们的平台,其他决策可以推迟。你随时可以自己构建ASIC,我们对此并不反感。当我们与所有的GCP合作时,比如与Azure、AWS合作时,我们会提前几年向他们展示我们的路线图。他们不会向我们展示他们的ASIC路线图,但我们也不会对此感到不满。如果你的使命明确,并且这个使命是有意义的,透明性就不会成为问题。你们在GTC上看到的路线图对我们的朋友Azure和AWS来说更加深入。即使他们在构建自己的ASIC,我们仍然没有问题。

主持人: 人们观察我们公司时,你说过,最近对Blackwell的需求非常大。你还说,工作中最艰难的一部分是面对无法满足所有人计算需求的情绪压力。批评者说,这只是暂时的现象。他们说这就像2000年的思科一样,我们正在过度建设光纤网络,这会是一次繁荣与衰退的周期。你还记得2023年初我们共进晚餐时,当时预测英伟达2023年的收入是260亿美元,而你们最终实现了600亿美元的收入。

黄仁勋: 我的确记得。我要说的是,这是历史上预测失败得最严重的一次,对吧?(哈哈哈哈)

unset5、Blackwell的需求unset

主持人: 我的感受是,2022年11月时我们非常兴奋,因为像来自Inflection的Mustafa和来自Character的Noah这样的创业者来我们办公室谈论他们的公司投资时说,如果你无法投资我们的公司,那就买英伟达的股票吧,因为全世界的人都在争抢英伟达的芯片来构建这些将改变世界的应用程序。当然,ChatGPT的诞生引发了这个“寒武纪时刻”,而这些分析师们却还沉浸在加密货币的“寒冬”中,无法想象这个世界正在发生的变化。结果远远超出了预期。你说过,现在对Blackwell的需求非常大,并且这种情况在未来可见的时间内都不会改变。当然,未来是未知的,但为什么批评者会如此错误地认为这次不会像2000年的思科那样,出现过度建设的情况呢?

黄仁勋: 从第一性原理出发思考未来是最好的方式,对吗?那么问题是,我们现在在做的事情的第一性原理是什么?首先,我们在做什么?我们正在重新发明计算,不是吗?我们刚刚说过,未来的计算将高度依赖机器学习,对吧?几乎我们做的每一件事、每一个应用程序,比如Word、Excel、PowerPoint、Photoshop、Premiere、AutoCAD,所有这些过去是由人类手工设计的应用程序,我可以保证,未来它们都将高度依赖机器学习。这些工具将会被重新设计,并且我们还会有机器代理来帮助我们使用它们。我们现在已经可以确定这一点,不是吗?我们已经重新发明了计算,不会回头了。整个计算技术栈正在被重新定义。那么,软件将会不同,软件的编写方式将会不同,使用软件的方式也会不同。这些就是我们的“真理”。

接下来,我们要问的是,接下来会发生什么?让我们回头看看过去的计算是如何进行的。我们已经投入了数万亿美元的计算设备。如果你看看现在的数据中心,问问自己,这些设备是否适合未来的计算需求?答案是否定的,对吧?你看到的是那些堆满了CPU的设备,我们已经知道这些设备能做什么,不能做什么。我们也知道,我们有数万亿美元的数据中心需要现代化。现在我们讨论的是,在未来四到五年里,逐步升级这些旧设备是合理的,对吧?这很合理。而你们正在与那些需要现代化的公司进行对话,他们正在使用GPU进行现代化改造。再做个测试。假设你有500亿美元的资本支出,选项A是为未来建设基础设施,选项B是像过去一样建设基础设施。你已经拥有过去的资本支出,对吗?它就在那里,但摩尔定律基本上已经终结了。为什么还要重新建设旧的基础设施呢?不如把这500亿美元全部投入到生成式AI中,不是吗?这样,你的公司就变得更好了。那么你会把这500亿美元中的多少投入到未来?我会把100%都投入进去,因为我已经有四年的历史基础设施了,这些基础设施属于过去。因此,我从第一性原理的角度来思考这些事情,而这些聪明人也正在做同样的事情。

第二部分是,我们现在有价值数万亿美元的设备需要建设,未来四到五年可能会投入约1500亿美元的资金进行现代化改造。第二个我们观察到的现象是,软件的编写方式已经发生了变化,但未来软件的使用方式也会有所不同。我们将会有“AI代理”,对吧?我们公司里会有数字员工。你收件箱里现在有很多小点和小头像,未来这些都会变成AI的图标,不是吗?我将不再用C++编程,而是用提示词来编程AI,对吧?这和我今天早上与团队沟通时没什么不同。我描述了背景、我所知道的基本约束条件,以及我对他们的任务要求。我会给出足够明确的方向,让他们明白我的需求,并尽量清晰地表达出我希望的结果。但我也会留出一些模糊的空间,给他们发挥创造力的余地,这样他们就能给我带来惊喜,不是吗?

这与我现在如何提示AI没有区别。这正是我如何提示AI的方式。因此,在我们正在现代化的基础设施之上,将会有一套新的基础设施,这个新的基础设施就是运行这些数字人类的AI工厂。它们将全天候运行,不间断地为世界各地的公司工作。我们会在工厂、自动化系统中使用它们,对吧?所以这将是一整层新的计算结构,我称之为AI工厂,而世界必须为其建设一个全新的基础设施,而这些在今天是完全不存在的。那么问题是,这个市场有多大?现在我们还无法知晓,可能会是几万亿美元的规模。我们无法确定,但美妙之处在于,现代化数据中心的架构和AI工厂的架构是相同的,这就是好消息。

主持人: 你已经明确指出,旧的数据中心基础设施需要现代化改造,而与此同时,大量的AI工作负载也正在到来。你今年大概会实现1250亿美元的收入。有一次有人告诉你,这家公司永远不会超过10亿美元的市值。今天坐在这里,你是否认为没有理由相信未来的收入会是现在的两倍、三倍?

黄仁勋:  是的,正如你所知,公司的发展并不取决于当前的规模,而是取决于“鱼塘”的大小。金鱼只能在足够大的鱼塘里长大。所以问题是,我们的鱼塘有多大?这需要一些想象力。这也是为什么市场创造者会考虑未来的原因。如果不创造新的鱼塘,你很难通过回顾过去并试图抢夺市场份额来实现大的增长。抢市场份额的公司往往只能做到一定规模,而市场创造者的潜力却很大。我认为我们公司很幸运的一点是,从公司创立之初,我们就必须发明一个市场来供我们发展。人们可能不记得了,但我们实际上是3D游戏PC市场的开创者。我们发明了这个市场以及所有的生态系统,图形卡的生态系统也是我们发明的。所以,创造一个新市场并为其服务,这对我们来说是一件很自然的事情。

unset6、OpenAI 的影响unset

主持人:  确实如此。既然你提到了市场的创造者,我们来谈谈模型和OpenAI。你知道,OpenAI本周融资了650亿美元,估值约为1500亿美元。我们都参与了他们的融资,对此感到非常高兴。他们做得很棒,团队表现出色。有报道称,他们今年的收入或收入运行率将达到50亿美元,明年可能会达到100亿美元。如果你看看今天的业务规模,它的收入大约是谷歌在IPO时的两倍,他们有2.5亿周活跃用户,这大约是谷歌在IPO时的两倍。如果你相信明年他们的收入将达到100亿美元,那市盈率大约是15倍,这与谷歌和Meta在IPO时的估值水平相当。22个月前,这家公司还没有收入,没有周活跃用户。Brad对历史有着非常深刻的理解。你能和我们谈谈OpenAI作为你们的合作伙伴的重要性吗?以及OpenAI在推动公众对AI的认知和使用方面所发挥的作用?

黄仁勋: OpenAI是我们这个时代最具影响力的公司之一,是一家专注于AI的纯粹公司,致力于追求AGI(通用人工智能)的愿景。至于AGI的定义究竟是什么,我认为这并不是最重要的,甚至时间节点也不那么重要。我唯一知道的是,AI的能力将随着时间的推移逐步发展,而这个能力路线图将会非常壮观。在达到任何人对AGI的定义之前,我们已经能够充分利用AI。你现在只需要去找数字生物学家、气候科技研究人员、材料科学家、物理学家、天体物理学家、量子化学家,或者去问视频游戏设计师、制造工程师、机器人专家,无论你选择哪一个行业,深入其中,询问那些真正掌握工作的人,问问他们,AI是否已经彻底改变了他们的工作方式?你会得到肯定的答案。

你收集这些数据点,然后再回头问自己,你到底想对AI保持多大的怀疑态度?因为他们谈论的不是AI的某种概念性好处,而是现在就在使用AI。无论是气候科技、材料科技,还是其他领域,AI现在正在帮助他们推进工作。每一个行业、每一家公司、每一所大学都在利用AI,这难道不令人难以置信吗?AI肯定会在某种程度上改变商业运作。毫无疑问。我们现在可以感受到,它的影响已经非常明显,甚至是触手可及的。ChatGPT的问世激发了公众的觉醒,这简直是不可思议。我非常喜欢他们的速度和他们推动这个领域的明确目标。这真的是一家非常重要的公司,

主持人: 他们构建了一个经济引擎,可以为下一代模型的研发提供资金支持。硅谷现在有一种越来越普遍的共识,即整个模型层正在变得商品化。像LLaMA这样的模型让很多人可以非常便宜地构建自己的模型。早期有很多模型公司,比如Character、Inflection、Cohere等等。很多人质疑这些公司是否能够建立足够的经济引擎来继续为下一代模型提供资金。但我们看到的是,OpenAI显然已经达到了这种“逃逸速度”,他们能够为自己的未来提供资金。而其他很多公司是否能做到这一点,这一点还不太清楚。你觉得这种看法是否正确?未来我们会像其他市场一样,看到市场领导者的整合,这些领导者有足够的经济引擎和应用场景,能够继续投资于未来的发展。

黄仁勋: 首先,我们要区分模型和人工智能之间的区别。模型是人工智能的必要成分,但并不足够。人工智能是一种能力,但关键在于它的应用是什么。无人驾驶汽车的人工智能与人形机器人、聊天机器人的人工智能相关,但并不完全相同。因此,你需要了解每个层次的“栈”结构。在这个栈的每一层都会有机会,但并不是每一层都有无限的机会。就像我刚刚说的,你可以把“模型”这个词替换成“GPU”。我们公司32年前的一个重要发现是,GPU和加速计算之间有着根本的区别。加速计算与我们在AI基础设施上的工作相关,但它们并不完全相同。每一层抽象都需要不同的技能。那些擅长构建GPU的人未必懂得如何成为一家加速计算公司。我们发明了GPU,但现在并不是唯一生产GPU的公司。GPU无处不在,但不是每家公司都是加速计算公司。有很多公司做应用加速器,但这与一家加速计算公司是不同的。

举个例子,一个非常专业的AI应用可能会非常成功,这就是我们所说的MTIA(Meta Tensor AI)。这是一种非常专业的加速计算应用。但这可能不是那种能够广泛影响和提供能力的公司。因此,你必须决定你想要站在哪一边。不同领域可能都有机会,但就像建立公司一样,你需要意识到生态系统的变化,以及什么东西会随着时间的推移而商品化,认清哪些是功能、哪些是产品,哪些是真正的公司。这里有很多不同的思考方式。

unset7、马斯克和 X.AI公司unset

主持人: 当然,有一个新入局者具备资金、智慧和野心,那就是X.ai。外界有传言说你和Larry以及Elon共进晚餐时,他们谈论过购买10万块H100,他们去到孟菲斯,几个月内建造了一个大规模的超级计算集群。你能谈谈他们的能力吗?有消息说他们还想要再购买10万块H200来扩大集群规模。首先,跟我们聊聊X.ai的雄心和他们的成就,同时我们现在已经进入了拥有20万到30万块GPU集群的时代了吗?

黄仁勋: 答案是肯定的。首先,应该对他们的成就给予肯定。从概念的提出到为英伟达准备数据中心,再到我们将设备连接并启动系统,进行第一次训练,这一切的时间都非常短暂。建造一个如此大规模的工厂——液冷、供电、获得许可——在这么短的时间内完成,简直超乎常人想象。据我所知,世界上只有一个人能做到这一点,那就是Elon。他在工程、建设、大型系统和资源调度方面的理解是独一无二的。他的工程团队也非常出色,软件团队、网络团队、基础设施团队都非常优秀。Elon对这一切理解非常深入。从我们决定开始到规划完成,英伟达的工程团队、网络团队、基础设施计算团队和软件团队都做了大量的前期准备工作。

然后是基础设施、物流、以及那天涌入的技术和设备,英伟达的基础设施和计算设备,还有所有的技术,19天内完成训练。你知道,有人睡觉吗?毫无疑问,大家没怎么睡。但是,首先,19天是一个令人难以置信的时间。不过,我们也可以退一步思考一下,19天实际上也就是几周时间。而这期间涉及到的技术量,简直让人难以置信。如果你看到那里的布线和网络系统,你会惊叹不已。英伟达的网络设备与一般的大规模数据中心网络非常不同。一台计算机的背后全都是线缆,整合这么庞大的技术体系,以及所有软件的整合,真是难以想象。:所以我认为Elon和X团队所做的事情非常了不起,我非常感激他承认了我们在工程、规划等方面的合作。但他们的成就是前所未有的。为了让大家有个概念,10万块GPU,这毫无疑问是全球最快的超级计算机集群。通常,建造一台超级计算机需要三年的计划,然后花一年时间安装和调试。而我们在19天内就完成了,这也证明了英伟达平台的可靠性。所有流程都已经非常成熟。当然,X团队有自己的一整套算法、框架和技术栈,我们也进行了大量的集成工作,但前期规划是非常了不起的。Elon确实是个例外。

主持人: 你回答问题时提到,20万到30万块GPU的集群时代已经到来了。那这种规模会扩大到50万块甚至100万块GPU吗?你们对产品的需求是否依赖于集群规模扩大到上百万块GPU?

黄仁勋: 最后一个问题的答案是否定的。我的感觉是,分布式训练必须有效运行。而我的预感是,分布式计算将会被发明出来,某种形式的联邦学习和异步分布式计算将会出现。我非常有信心和乐观。当然,过去的扩展规律主要集中在预训练阶段,但现在我们进入了多模态、合成数据生成的时代。后训练也实现了惊人的扩展,合成数据生成、基于奖励系统的强化学习等,现在推理的扩展也飞速增长。你可以想象,一个模型在回答问题之前,可能已经进行了内部推理,可能多达一万次,也许还做了一些研究、强化学习、模拟,肯定还进行了大量的反思,查找了一些数据、信息,不是吗?所以它的上下文信息可能已经非常庞大。这种智能正是我们所做的,不是吗?所以,这种扩展能力,如果你进行简单的数学计算,再加上每年模型大小和计算能力的四倍增长,再结合日益增长的使用需求,你会发现,我们需要上百万块GPU,这是毫无疑问的。

那么问题是,我们如何从数据中心的角度进行架构设计?这与数据中心的规模密切相关,比如它们是以千兆瓦为单位还是以250兆瓦为单位?我的感觉是,两者都会出现。我认为分析师往往专注于当前的架构选择,但我认为本次对话的一个重要启示是,你在考虑整个生态系统,并且考虑了未来的多年发展。因此,英伟达的扩展并不是为了应对当前的需求,而是为了迎接未来的发展。并不是说你只能依赖于50万或100万块GPU的集群规模。到分布式训练普及时,我们已经为此做好了准备。要记住,如果没有我们七年前开发的Megatron,这些大规模训练任务的扩展就不会实现。我们发明了Megatron、NCCL、GPU Direct,还有我们在DMA上的工作,使得流水线并行化、模型并行化和分布式训练得以实现。

unset8、Strawberry和o1 模型unset

主持人: 现在我们正在为未来一代的技术奠定基础。既然如此,我们来谈谈Strawberry和o1。我不想占用你太多时间。

黄仁勋: 我有的是时间。

主持人:  非常感谢你的慷慨。首先,我觉得他们将o1命名为o1签证(指的是美国吸引全球顶尖人才的签证)真的很酷。这种签证的宗旨是吸引全球最优秀、最聪明的人才来到美国,这也是我们都非常热衷的事情。我喜欢这种理念:建立一个能够思考并带我们进入下一个智能扩展阶段的模型,向那些通过移民带来集体智慧的人致敬,他们为我们今天的成就贡献了力量。这无疑是我们朋友Noan Brown带领的项目,他曾在Meta工作,参与了Pluribus和Cicero项目。那么,推理时间推理作为一种全新的智能扩展向量,与仅仅通过构建更大模型相比,重要性如何?

黄仁勋: 这非常重要。很多智能无法提前完成。很多计算也无法提前完成,比如无序执行是可以提前做的,但很多事情只能在运行时完成。所以,无论你从计算机科学的角度,还是从智能的角度来看,很多事情都需要上下文、环境、所需答案的质量以及具体的应用场景。有时一个快速的答案就足够了,取决于答案的后果。你可能会说:“有些答案可以等一夜,有些答案可能需要一周。”我完全可以想象,我给我的AI发一个提示,告诉它:“考虑一晚再告诉我。”然后第二天,它会给我最好的答案,经过了充分的推理和思考。所以,从产品的角度来看,智能的质量和分层是非常重要的。当然,而且有些问题的回答可能需要五分钟,而智能层会根据问题的需求将其路由到合适的模型。

主持人:  我昨天晚上在使用o1的高级语音模式,我正在为我儿子的AP历史考试辅导他,就像有世界上最好的AP历史老师坐在旁边思考这些问题,真的非常了不起。今天我的导师是AI,对吧?当然,现在的AI导师已经存在了。而且回到刚才的话题,今天你们40%以上的收入来自于推理,推理即将迎来因推理链(Chain of Reasoning)的出现而大幅增长,对吗?推理能力即将呈现出亿倍的增长,这也是大多数人还没有完全理解的部分。

黄仁勋: 我们所谈论的这一切,其实就是一场工业革命,这是智能生产的革命。没错,推理的增长将达到亿倍的规模。

主持人: 现在每个人都过于专注于英伟达在大模型训练上的表现,不是吗?但事实上,如果你们今天的收入是50%来自训练,50%来自推理,未来推理的增长将远远超过训练的增长。训练固然重要,但推理的增长会更大。

黄仁勋: 我们希望如此。这就像上学的目标是为了将来在社会中有所贡献。训练模型很重要,但最终的目标是推理它们。

主持人: 你们是否已经在自己的业务中使用推理链和o1这样的工具来提升业务表现?

黄仁勋: 我们目前的网络安全系统无法运行得那么好,如果没有我们的AI代理。我们的芯片设计、Hopper、Blackwell都不可能实现。如果没有AI,我们根本无法完成这些任务。我们有AI芯片设计师、AI软件工程师、AI验证工程师,所有这些AI都在内部构建,因为我们有能力,我们也乐于亲自探索这些技术的可能性。

unset9、英伟达企业文化unset

主持人: 当我今天走进这栋大楼时,有人告诉我说,要问问黄仁勋关于文化的问题,一切都关乎文化。我看着你们的业务,我们谈论了很多关于效率和灵活性的内容——扁平化的组织结构能够快速执行,小团队高效运作。英伟达在这一方面真的独树一帜,每位员工平均产生的收入大约为400万美元,利润或自由现金流大约为200万美元。你们创造了一个以效率为基础的文化,释放了创造力、创新精神和责任感,打破了传统的功能管理模式。你认为AI的运用是否是让你们在保持高创造力的同时依然高效运作的关键?

黄仁勋: 毫无疑问。我希望有一天英伟达会从今天的3.2万名员工发展到5万名员工,同时拥有1亿个AI助手。它们将存在于每一个团队中,我们会有一个完整的AI目录,其中的一些AI擅长通用任务,而我们也会有专门的AI助手,它们会解决特定的难题。我们未来的收件箱将充满AI目录,这些AI都是我们合作过的,擅长特定技能的助手。AI还会招募其他AI来一起解决问题。AI会和人类一起出现在Slack频道中,成为一大群员工的一部分,有些员工是数字AI,有些是生物体。我甚至希望有些员工会是机电一体化的。

主持人: 从业务角度来看,你刚刚描述了一家公司,这家公司现在的产出相当于拥有15万名员工的公司,但你们实际上只有5万人。你并没有说要减少员工数量,而是说公司员工数量还会继续增长,但公司的产出会显著增加。

黄仁勋: 这常常被误解。AI不会取代所有工作,它将改变每一个工作方式。我们要承认这一点。AI有巨大的潜力去做一些难以置信的好事,但它也有可能带来负面影响。我们必须构建安全的AI,这是基础,必须要做到的。而被忽略的一点是,当公司通过人工智能变得更高效时,这通常会体现在更好的收益或更快的增长上,或者两者兼有。当这种情况发生时,CEO发出的下一个邮件通常不会是裁员通知,反而是公司在增长。因为我们有太多的想法需要探索,需要更多的人来帮助我们思考问题,然后再去自动化。AI可以帮助我们自动化,也能帮助我们思考,但我们仍然需要决定我们想解决哪些问题。我们有成千上万的问题可以去解决,公司的目标就是找到合适的问题,然后找到一种方法来自动化和扩展。所以,当我们变得更高效时,我们会雇佣更多的人,而不是更少。人们往往忘记了这一点。如果我们回顾历史,显然今天我们拥有的想法比200年前多得多,这就是GDP变大的原因,更多的人被雇佣了。尽管我们在疯狂地自动化,但今天的经济体量远超过去。

主持人: 这是一个关键点。几乎所有的人类生产力和繁荣,都是过去200年技术进步和自动化的结果。从亚当·斯密到熊彼特的“创造性破坏”,你可以看到过去200年来人均GDP的增长图表,它一直在加速。这引出了一个问题:如果你看看90年代,美国的生产率增长率大约是每年2.5%到3%,到了2000年代,降到了大约1.8%,而过去10年是有记录以来生产率增长最慢的时期。生产率的增长是固定劳动和资本投入所能产出的产量,而过去10年,这个增长率创下了最低纪录。很多人讨论了背后的原因,但如果按照你刚才的描述,随着我们大规模利用和制造智能,人类生产率是不是即将迎来一次剧变?

黄仁勋: 这是我们的希望,确实如此。而且我们有直接的证据表明这一点,无论是一个单独的研究人员现在能够通过AI以难以想象的规模探索科学,这是一种生产率的提升;还是我们在设计复杂的芯片,以前不可想象的速度和复杂性在飞速增长,而公司员工数量并没有呈指数增长,这同样是生产率的提升。我们开发的软件越来越好,AI和超级计算机帮助我们开发这些软件,而员工数量几乎是线性增长的,这也是生产率的提升。所以,无论是在很多行业中进行抽查,还是从我们自己的业务来看,生产率的提升都非常明显。毫无疑问,智能是世界上最有价值的商品,而现在我们即将大规模制造它。我们必须学会如何应对一个充满这些强大AI的世界,它们做的事情可能比你更好。

当我反思这一点时,这也是我的生活写照。我有60位直接汇报的董事成员,他们之所以在团队中,是因为他们在各自的领域表现得非常出色,比我做得更好得多。我毫无问题与他们互动,毫无问题“提示”他们,或者“编程”他们,就像我与AI的互动一样。所以我认为,人们将学到的一件事就是,每个人都会成为自己AI代理的CEO。他们将通过创造力、意志力以及某些推理能力,分解问题,从而编程这些AI,帮助他们完成目标。这就是我现在做的事情,叫做经营公司。

unset10、AI监管重要性unset

主持人:  你提到了一点——安全AI。你提到中东的悲剧事件,现在世界上很多地方都在使用自主系统和AI。我们谈谈坏人、谈谈安全AI、谈谈与华盛顿的协调工作。你现在觉得我们走在正确的道路上吗?我们的协调力度是否足够?

黄仁勋: 马克·扎克伯格曾说过,打败坏AI的方式是让好AI变得更好。我认为这是非常重要的观点。如何确保AI为人类带来净正效益,而不是将我们推向一个没有意义的反乌托邦世界,这是一个非常重要且值得讨论的话题。对AI的抽象化、概念化,像是把AI看作一个巨大的神经网络,这种理解并不太准确。原因在于,人工智能和大语言模型虽然相关,但并不完全相同。现在有很多做得非常出色的事情。首先,开源模型的发布让所有研究人员、每个行业、每家公司都可以接触AI,学习如何将这种能力用于他们的应用,这非常好。第二,大家没有足够认识到投入到AI发明、保持AI安全的技术有多么重要。

我们已经创造了AI来携带数据、信息,训练AI、对齐AI、生成合成数据,扩展AI的知识,减少幻觉。还有很多AI正在被创造,用于矢量化、图形化等等,来告知其他AI,设立AI的“护栏”。这些AI系统用于创建安全的AI,但它们并没有得到足够的重视。事实上,我们已经在构建这些AI,并且行业各界都在全速前进。建立这些评估系统、模型卡、基准测试系统以及所有的“安全带”,进展速度非常快,但并没有得到足够的关注。你们知道,世界上没有任何政府规定要求必须这样做,而是现有领域的从业者们自发地重视这些问题,并围绕最佳实践进行协调。所以这点确实没有得到足够的重视。大家需要开始更多地讨论AI作为一个由多个AI组成的系统,它是一个工程化的系统,这些系统是从第一性原理出发构建的,经过了充分的测试和验证。

主持人:  说到监管,你认为AI作为一种能力可以被应用于多个领域。监管是必要的,但你觉得在某些情况下,过度监管可能会导致问题吗?

黄仁勋: 是的,重要技术需要监管,但不要过度到限制创新。大部分监管应该发生在具体应用层面。像FAA、NHTSA、FDA这些机构已经在监管技术的具体应用,现在他们也需要监管那些融合了AI的技术应用。因此,不要忽视当前世界上已经存在的大量监管,也不要依赖于某种全球统一的AI监管机构。不同的监管机构是为不同的目的而设立的,我们需要遵循这些机构的专业领域来进行有效的监管。

主持人: 我必须回到开源这一点上,你们最近推出了一个非常重要、功能非常强大的开源模型。Meta也在开源领域做出重大贡献。我在社交媒体上看到很多关于“开源 vs 封闭”的讨论,你对开源的看法如何?开源模型是否能跟上前沿发展?你认为未来是否会有开源与封闭模型并存的局面?这是否会带来一种健康的安全性张力?

黄仁勋: 开源和封闭与安全相关,但不完全是关于安全。没有什么问题是因为有封闭模型存在,这些封闭模型可能是商业模式的引擎,它们是推动创新所必需的。我对此完全支持。重要的是,不应是“开源 vs 封闭”的对立,而是“开源和封闭”并存。开源对于激活许多行业是必不可少的。如果没有开源,许多科学领域和行业如何能够参与AI?因为他们需要开发自己的特定领域AI,而这通常是基于开源模型来实现的。开源模型使得金融服务、医疗保健、交通运输等领域得以激活,带来了巨大的潜力。

主持人: 你们的开源模型需求量大吗?

黄仁勋:  我们的开源模型,首先,LLaMA的下载量非常惊人。显然,Mark和他的团队所做的工作非常了不起,他们的贡献彻底激活并吸引了各行各业、每个科学领域的关注。我们创建Neotron模型的原因之一是为了生成合成数据。直觉上,一个AI反复进行自我学习,听起来可能显得脆弱,而且这个循环能持续多少次也是个问题。不过,我的想象是,如果你把一个超级聪明的人关在一个有缓冲的房间里一个月,出来的可能并不会是一个更聪明的人。但是,如果有两三个人坐在一起,通过交流、讨论、相互质询,所有人都可能变得更聪明。所以,AI模型之间的交互、争论和强化学习,以及合成数据的生成,这样的概念是合理的,也是有道理的。我们的Neotron 340B模型是世界上最好的用于奖励系统的模型,它是最好的“批判者”。它是增强其他模型的最佳工具。无论其他模型多么强大,我都会推荐使用Neotron 340B来使它们变得更好。我们已经看到它让LLaMA和其他模型变得更好了。

unset11、关于AI个人想法unset

主持人: 好的,我们快到时间了。你自2016年推出DGX-1以来,经历了一段令人难以置信的旅程。你们的旅程既不可能想象,但又异常辉煌。你成功了,生存下来真的是非常不容易。你们在2016年交付了第一个DGX-1,2022年我们迎来了“寒武纪时刻”。我常被问到的问题是:你如何能在今天依然保持你所做的一切?你有60个直接下属,你无处不在,推动这场革命。你还在享受这个过程吗?你有想做其他事情的想法吗?

黄仁勋: 如果你在问我过去一个半小时的感受,我的回答是:我非常享受。我真的很开心,我无法想象有比这更想做的事情。我不认为我们工作的全部都是有趣的。我的工作并不总是有趣的,也没有指望它永远有趣。你问我这是不是我的期望,我会说这工作是重要的。我不太看重自己,但我非常认真对待我们的工作、我们的责任和我们在这个时代的贡献。

主持人: 这不是永远有趣的,但你一直都热爱它吗?

黄仁勋: 是的,和所有的事情一样,家庭、朋友、孩子,它们不总是有趣的,但我们总是深深地热爱它们。

主持人: 你能做多久呢?

黄仁勋: 真正的问题是,我还能保持多长时间的相关性。这个问题只有通过我是否能继续学习来回答。我今天对自己能保持相关性并继续学习的能力更加乐观。这个不是因为今天的讨论,而是因为AI。我每天都在使用AI,没有一天不使用。没有一个研究我不使用AI,即使我知道答案,我也会用AI再确认一下。通常,接下来的两三个问题会揭示我不知道的东西。AI作为导师、助手,作为一起头脑风暴的伙伴,检查我的工作,它彻底颠覆了一切。而我只是一个信息工作者,我的输出是信息。所以我认为,AI对社会的贡献将是非凡的。如果我能通过AI保持相关性,并继续做出贡献,我知道这项工作足够重要,值得我继续追求。而我的生活质量也非常好。

主持人: 我也无法想象错过这个时刻,这是我们职业生涯中最重要的时刻。我们非常感谢这次合作,感谢你让我们变得更聪明。

黄仁勋: 感谢你们的邀请,我非常享受这次对话。



原视频来源:https://www.youtube.com/watch?v=bUrCR4jQQg8&t=1s&ab_channel=Bg2Pod 素材来源官方媒体/网络新闻

对了,喜欢就别忘了点赞、收藏、转发支持一下!期待在评论区听到你的观点和看法!

往期回顾

1、[演讲视频:2024年第65届国际奥数大会上,陶哲轩再次表示当前AI进展惊人,智能水平已与人类相当]

2、[“WE, ROBOT”发布会上,马斯克视频演讲:基于 AI 技术特斯拉无人驾驶出租车即将改变世界]

3、[对话2024化学奖得主谷歌Demis Hassabis:利用AI设计蛋白质,人工智能被证明是未来各领域的关键技术]


我们旨在将 AI技术与创新想法完美融合!

想要掌握人工智能,但不知从何开始?告诉我们你的需求,学习AI让你抓住这波浪潮

unset告别昂贵服务和缺人烦恼,再见漫长交付周期unset

unset无限创意,快速生成专业级产品unset

unset感受 AI 带来的全新工作体验!unset

欢迎各大品牌方、媒体、企业和个人等

请联系负责人微信:Milo-1101

--END--

继续滑动看下一个
AI深度研究员
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存