查看原文
其他

AI前沿探索:7家热门AI公司CEO的洞察与展望

常华Andy Andy730
2025-01-02

核心观点

Jensen Huang (NVIDIA CEO)  

  • NVIDIA不仅是芯片公司,已经转型为完整的数据中心解决方案提供商,提供从硬件到软件的全栈优化。  
  • NVIDIA致力于构建统一的计算平台,确保软件开发者能在不同基础设施上无缝运行其应用。  
  • NVIDIA强调软件的长期维护成本,投资于构建可以广泛适配云平台的硬件架构。  

Andrej Karpathy 

  • AI将成为人类认知的延伸,但目前的AI模型仍由少数大公司主导,未来可能会出现更开放、去中心化的AI平台。  
  • 未来的AI模型可能比现在小得多,利用蒸馏技术将大模型的能力压缩到更小的模型中。  
  • AI的所有权问题至关重要,类似于加密货币的“不是你的密钥,就不是你的币”。  

Bret Taylor (Sierra CEO)  

  • 未来企业的数字化存在将不再是一个网站,而是一个品牌化的AI代理,能够代表公司进行多种互动,包括客户服务和商业交易。  
  • 公司代理不仅限于客服,而是将逐步扩展到所有业务领域,成为公司数字化存在的核心。  

Sora团队(OpenAI)  

  • Sora通过视频数据学习世界的三维概念,进而构建了一个基于视觉的世界模型,提升了AI的理解能力。  
  • 未来的AI将不仅限于生成视频,而是通过更好的世界建模,具备预测事件和理解复杂互动的能力。  
  • AI模型的规模将不断变小,精度也不再是唯一的关键,简化的模型同样能够实现高效的智能表现。  

Dmitri Dolgov (Waymo CEO)  

  • 尽管技术不断进步,实现完全自动驾驶(100%准确性)比表面上看起来要复杂得多,关键在于可靠性和长尾问题。  
  • Waymo通过Transformer和视觉模型的微调,提升了自动驾驶系统的能力,但要达到完全自动化的安全标准仍然需要大量工作。  

Dylan Field (Figma CEO)  

  • AI将推动用户界面的变革,未来的UI将不仅限于对话式界面,而是与现有界面共同演化。  
  • 视觉AI和智能摄像头将成为下一代输入方式,极大地提升交互体验。  

Scale AI(Alexandr Wang)  

  • AGI的实现类似于攻克癌症,需逐一解决独立的小问题,技术进展将是逐步且渐进的。  
  • 当前AI模型在不同模态之间的迁移效果有限,每个领域需要独立的数据飞轮推动提升。  
  • 技术的进展将是持续的,社会有足够的时间适应每一次进步,不会出现突如其来的变革。  

Jensen Huang,NVIDIA CEO

首先,我们呈现一段NVIDIA首席执行官Jensen Huang的访谈节选。这家公司正引领AI革命。自2023年No Priors节目与Jensen对话以来,NVIDIA的股价已增至三倍,2024年市值每月增长近1000亿美元,成功迈入3万亿美元市值行列。近期,Jensen再次与我们分享了他的洞察,此次他谈及了为何NVIDIA已不仅仅是一家芯片公司,而是一个数据中心生态系统。以下是我们与Jensen的对话内容:

Sarah Guo:NVIDIA为客户提供的支持单位规模持续扩大,从单一芯片到服务器,再到机架,现已发展到DGX H100。你如何看待这一演进历程?接下来将有何新动向?NVIDIA是否会全面涉足数据中心的建设?

Jensen Huang:实际上,我们已在构建完整的数据中心。我们的构建理念是这样的——除非是只专注于软件开发,否则你需要一个完整的计算机系统。

我们并非仅做PowerPoint演示然后发货芯片。我们构建整个数据中心。在数据中心建成前,如何确定软件能否顺畅运行呢?在数据中心建成前,如何验证网络架构的有效性,以及期望的效率能否在大规模环境中真正实现?

这正是实际性能往往远低于PowerPoint展示的峰值性能的原因。计算已今非昔比。我认为,数据中心已成为计算的新单位。

对我们而言,这是我们必须交付的成果。这是我们当前的构建模式。我们以这种方式构建所有产品。无论是空气冷却、x86架构、液体冷却、Grace CPU、以太网、InfiniBand、NVLink或不含NVLink的配置。

我们构建各种配置。NVIDIA目前有五台“超级计算机”。明年,我们将轻松再增五台。如果我们对软件投入认真,就必须构建自己的计算机。如果对软件投入认真,就必须构建整个计算系统。

我们以规模化方式构建所有产品。这部分真的非常有趣。我们规模化构建,并实现垂直整合。我们从全栈端到端进行优化,然后将各部分解耦,并以组件形式出售。

这就是我们工作的卓越之处。这种复杂性难以想象。我们这样做的目的是能够将我们的基础设施嵌入GCP、AWS、Azure和OCI等平台。它们的控制平面和安全平面各不相同,对集群规模的理解也各有差异。

尽管如此,我们仍使它们兼容NVIDIA架构,以便CUDA能够无处不在。

最终,我们的核心理念是:我们期望提供一个计算平台,让开发者能够使用,并在很大程度上保持一致性——可能存在约10%的差异——因为不同的基础设施有略微不同的优化方式。

尽管存在约10%的差异,但他们构建的所有内容都能无缝运行。这是软件开发的一个基本原则,绝不能放弃。我们对此极为重视。

这使得我们的软件工程师能够“一次构建,处处运行”。这是因为我们认识到,软件投资是最昂贵的投资。

看看整个硬件行业的规模,再看看全球各行业的规模。硬件是一个万亿美元的产业,而在其之上,软件也是一个万亿美元的产业。这揭示了一些问题。开发的软件,基本上需要终身维护。


Andrej Karpathy

我们当然也要提及与备受尊敬的Andrej Karpathy的对话,在这次对话中,我们深入剖析了AI作为外部大脑(Exocortex)——即人类认知的延伸——的未来发展。Andrej一直是AI发展的核心人物,无论是在OpenAI、Tesla,还是在启迪我们所有人方面,他都分享了关于AI模型所有权和访问权的颇具挑战性的观点。他还论述了为何未来的模型可能会比我们预想的小得多。

Sarah Guo:若谈及外部大脑,这无疑是一件极为根本且重要的事,需要实现访问的民主化。你如何看待当前LLM(大语言模型)研究市场的结构——目前仅少数几个大型实验室在推动下一代训练——这会对未来人们获取这些技术产生怎样的影响?

Andrej Karpathy:你或许在指的是生态系统的现状。我们面临的是一个由少数封闭平台主导的寡头垄断市场,而另一边是相对滞后的开放平台,例如Meta的LLaMA等。这与开源生态系统的现状颇为相似。

我确实认为,当我们开始将AI视作外部大脑时,加密货币领域的一句流行语十分贴切:“不是你的密钥,就不是你的币。”那么,是否可以类比说,“不是你的权重,就不是你的大脑”?

Elad Gil:这很有意思,因为一旦一家公司实质上掌控了你的外部大脑,若这是我的外部大脑,它便开始显得具有侵扰性。

Sarah Guo:我认为人们会更加重视所有权问题。

Andrej Karpathy:没错,你会意识到你是在“租用”自己的大脑。租用大脑听起来颇为奇特。

Sarah Guo:这个思想实验是:你是否愿意放弃所有权和控制权,去“租用”一个更强大的大脑?因为我就愿意。

Andrej Karpathy:是的,我认为这就是需要权衡的地方。我们且看这会如何发展。也许使用封闭版本会成为默认选择,因为它们非常强大,但在各种情况下你都会有一个备选方案。

实际上,事情已经在朝着这个方向发展。当某些封闭源提供商的API出现故障时,人们开始实施备用机制,转向他们完全掌控的开放生态系统。例如,这样会使他们感觉更有掌控力。

也许这只是大脑未来发展的一个趋势——如果出现问题,你会回退到开源的解决方案。但大多数时候,你实际上……

Sarah Guo:因此,开放源代码生态系统的持续发展至关重要。

Andrej Karpathy:我认为是这样的,100%。这不是一个显而易见的观点,也并非所有人都普遍认同,但我认为这至关重要。

Elad Gil:我一直在思考的一个问题是:能获得的最小有效模型是什么?无论是从参数数量还是其他维度来衡量。我对你的观点很感兴趣,因为你曾深入钻研过蒸馏和小型模型。

Andrej Karpathy:我认为它可以出奇地小。当前的模型在记忆不重要的事情上浪费了大量的计算能力——它们会记住SHA哈希、古老的琐碎之事。

Sarah Guo:这是因为数据集没有得到良好的筛选?

Andrej Karpathy:没错,完全正确。我认为这种情况将会改变。我们只需要触及认知核心,而认知核心可以非常小。它只是一个思考的实体,如果需要查找信息,它知道如何利用不同的工具。

Sarah Guo:那大概是三十亿个参数,还是二百亿个?

Andrej Karpathy:我认为甚至十亿个参数就足够了。我们可能会达到那个临界点,模型可以变得非常非常小。

它们之所以能如此小,是因为蒸馏(distillation)技术有效。蒸馏是指利用一个非常大的模型或大量计算资源来指导一个非常小的模型。你实际上可以将大量的能力压缩到一个非常小的模型中。


Bret Taylor,Sierra CEO

我们与Bret Taylor的对话为我们描绘了一个迥异的未来图景,关乎我们将如何与企业进行互动。Bret在这段对话中阐释了公司代理(company agents)的概念,以及为何网站将逐渐退居幕后。

Bret Taylor:另一个我所在的公司Bret正涉足的领域,我称之为“公司代理”。这并非仅仅关乎简单的自动化或自主性。在这个对话式AI盛行的时代,你的公司应如何以数字化的形式存在?

我常用这样一个比喻:若是在1995年,数字化的存在意味着拥有一个网站,并被列入Yahoo目录中。而到了2025年,数字化的存在或许意味着拥有一个品牌化的AI代理,客户可以通过它与你互动,完成在网站上所能做的一切——无论是咨询你的产品和服务、进行商业交易,还是处理客户服务问题。

我认为,在现有技术条件下,这个领域已经处于“万事俱备,只欠东风”的状态。就像基于角色的代理一样,这并非要解决技术上的“天方夜谭”。你已拥有明确的客户体验流程和清晰的记录系统。关键在于,在我们从网站到应用程序再到对话式体验的转变过程中,你希望围绕你的品牌构建怎样的对话式体验?

这并不意味着它是完美无缺或轻而易举的,否则我们就不会围绕这个问题创立公司了。但至少方向是明确的。我认为,现在在AI领域,如果你在从事人工通用智能(AGI)的研究,你所理解的代理可能有所不同,这并无妨。这只是需要解决的一个不同问题。

在Sierra涉足的领域,以及你们投资的众多公司中,现有技术条件下确实存在“万事俱备,只欠东风”的机遇。我对此深信不疑。

Sarah Guo:你能否描述一下构建公司代理的“风口期”?研究与现实之间存在哪些差距?作为工程团队,你们的投资重点是什么?你们如何理解不同客户环境的范围?这里的投资方向是怎样的?

Elad Gil:或许,作为起点,我们应该明确一下Sierra今天为客户提供的产品,以及你们期望它未来发展的方向,并将这些反馈到产品的各个组成部分中。我认为,这对观众而言将大有裨益,尤其是你们正逐步成为该领域的佼佼者。

Bret Taylor:当然,没问题。我举几个例子来让这个概念更加具体。

如果你购买了一台新的Sonos音响,并遇到技术问题——比如闪烁的橙色灯光让人头疼——你现在可以与Sierra的AI聊天,它由Sierra提供支持。它会帮助你进行初始设置并排查问题,判断是硬件问题还是Wi-Fi问题。

如果你是SiriusXM的订阅用户,他们的AI代理名为Harmony,我认为这是一个很讨喜的名字。它处理从升级或降级订阅级别到在你购买新车时讨论试用期等所有事务。

广义而言,我们帮助公司构建品牌化的客户服务代理。“品牌化”是其中的关键一环——它是你品牌体验的一部分。我认为这一点非常有趣且颇具吸引力。

回溯到1995年,你的网站就是你的数字名片。那是你首次拥有数字化存在。我认为,我们将以同样的怀旧情怀回望今天的代理。如果你使用Wayback Machine查看早期的网站,它们通常只是一个电话号码,或者看起来像一个充斥着大量图形的DVD介绍屏幕。

如今,许多代理从客户服务用例开始,这是一个很好的切入点。但如果你将时间轴快进三到四年,我真的相信你的代理将涵盖你公司的所有业务。

例如,设想一下保险公司。你与他们的所有互动——提交理赔、比较计划,或者在你的孩子获得驾照后将其添加到保险单中——都将通过你的代理来完成。这就是我们帮助公司构建的目标。


Sora,OpenAI

接下来,我们与OpenAI的Sora团队进行了深入交流,他们正致力于构建一个极为逼真的视频AI生成模型。在这次对话中,我们探讨了他们的研究成果,以及他们理解世界的模型如何融入人工智能的发展轨迹。

Sarah Guo:能否谈谈你们与Sora的合作是如何影响更广泛的研究路线图的?

Sora:当然,我认为关键在于,Sora通过观测大量的视觉数据,最终习得了关于世界的知识。它理解了三维(3D)空间,这非常神奇,因为我们并未专门训练它去理解三维,也没有将三维信息显式地融入模型中。我们只是用视频数据对它进行训练,而它便从这些视频中习得了三维的概念。

它学会了,当你咬下一口汉堡时,会留下咬痕。它正在习得大量关于我们这个世界的知识。我们与世界互动时,很多信息都是视觉的。我们一生中看到和学习的许多内容,都是以视觉信息的形式呈现的。

我们认为,在智能领域,向更加智能的AI模型发展,这些模型能够像我们一样更好地理解世界,这将至关重要。对于AI模型而言,拥有这样的基础——理解“这是我们生活的世界,充满了各种复杂性”——将帮助它们理解人们的互动方式、事件的演变过程,以及过去的事件如何影响未来。这将推动AI模型变得更加智能,甚至超越仅仅生成视频的能力。

Elad Gil:这几乎就像你同时发明了未来的视觉皮层和大脑中的某些推理部分。

Sora:是的,这是一个很好的类比。因为人类的很多智能实际上都与世界建模有关。当我们思考如何行事时,会在脑海中模拟各种场景。

我们会做梦,梦中的场景也在不断演绎。我们会提前思考:“如果我这样做,会发生什么。如果我做另一个选择,又会发生什么?”我们有一个关于世界的模型。将Sora构建为一个世界模型,与人类智能的一个重要部分非常相似。

Sarah Guo:你如何看待人类拥有一个大致的世界模型与像传统物理引擎那样精确的模型之间的类比?

例如,如果我拿着一个苹果并把它扔下去,我预计它会以一定的速度下落。但大多数人并不会把这个过程明确地表达为一个速度计算。你认为这种学习在大模型中是否是并行的?

Sora:我认为这是一个非常有趣的观察。我们认为,世界建模不够高保真,这是人类的一个局限。

我们无法在狭窄的物理范围内做出非常准确的长期预测,这是我们可以通过这些系统来改进的地方。我们乐观地认为,Sora将超越这种能力。从长远来看,它将使模型作为世界模型变得比人类更智能。

然而,这确实证明了,精确度并不是其他类型智能所必需的。无论如何,Sora和未来的模型仍然能够在这方面进行改进。

Sarah Guo:显然,轨迹预测——比如投掷橄榄球——在这些模型的下一版本中,会比我的预测更准确,对吧?

Sora:如果我可以补充一点,这与规模的范式以及我们希望方法随着计算量的增加而变得越来越好的经验有关。

在这个范式中,效果非常好的一个任务就是预测数据。你可以尝试提出更复杂的任务——例如,不显式使用视频但模拟类似的事情。但是,所有这些复杂性在方法如何随着规模增加而改进的扩展规律中,并没有带来额外的好处。

随着规模的增加,最有效的做法就是简单地预测数据。我们在文本上就是这样做的:只是预测文本。这正是我们在Sora中处理视觉数据的方式。我们并不是在优化某些复杂的新事物。我们在说:“嘿,学习智能的最佳方式就是简单地预测数据。”

Sarah Guo:这很有道理。正如你所说,预测会变得越来越好,而且没有必要的限制来逼近人类的能力。

Sora:没错。


Dmitri Dolgov,Waymo CEO

我们还与Waymo的联合首席执行官Dmitri Dolgov进行了深入交流。如今,Waymo正不断壮大其自动驾驶车队,在旧金山、凤凰城等城市每周完成超过10万次全自动驾驶出行,这也是我个人非常青睐的出行方式。在这次对话中,Dmitri详细阐述了为何实现完全自动驾驶——即完全取消驾驶员,达到100%的准确性,而非99.99%——要比表面看上去困难得多。

Sarah Guo:从能够在多种场景中正常运行的高级驾驶辅助系统(ADAS)到完全自动驾驶,为何这两者之间的跨越如此之大?

Dmitri Dolgov:这既是数字上的巨大差异,也是问题的核心所在。

如果我们回望2009年我们起步的时候,我们为自己设定的首个里程碑之一,便是在整个湾区完成10条各100英里的自动驾驶路线。这些路线涵盖了高速公路、旧金山市区、塔霍湖周边——所有的路段。车辆必须在没有任何人为干预的情况下,自动驾驶完这100英里。

当时,我们团队仅有十几个人,用了大约18个月的时间。2009年,我们就已经达成了这个目标。那时还没有ImageNet、卷积神经网络(ConvNets)、Transformer模型,也没有大模型,计算机的性能也远不及现在。一切都是从非常基础开始的。

这个领域的特点一直是,初期的进展相对容易取得。但真正的挑战在于长尾部分——即实现多个九位数字的可靠性。这也是原型车或驾驶辅助系统在复杂性上不易被察觉的地方。正是这一部分,我们投入了全部的时间和精力。这也是问题中唯一真正棘手的部分。

如今,随着每个技术周期的推进,这些工作变得越来越容易。随着人工智能,特别是生成式AI和大语言模型(LLM)的发展,我们可以直接使用现成的Transformer模型或视觉模型。Transformer模型非常强大,视觉模型也同样强大。

我们可以使用一个接收图像或视频并带有解码器的视觉模型。给它一个文本提示,它就会输出对应的文本。我们可以用少量的数据进行微调,无论是车载摄像头的数据,还是轨迹或决策的数据。

这些模型就像一个黑箱。我们使用已经在大数据集上训练好的模型,进行微调后,就能轻松得到一个有效的系统。如果让任何一位优秀的计算机科学研究生今天来构建一个神经网络,他们很可能会采用这种方式。

只需开箱即用,你就能得到一个令人惊叹的系统。Transformer模型和视觉模型的能力确实令人震撼。只需稍作努力,你就能得到一个可以在道路上运行的系统。它可以行驶几十英里甚至几百英里,效果会让你感到惊讶。

但这足够了吗?足够让我们取消驾驶员,行驶数百万英里,并拥有一个比人类更安全的驾驶记录吗?显然不够。

这就是真正的挑战所在。随着每一次技术演进和AI的突破,我们确实看到了进步,但要实现完全自动驾驶,仍然是一个极为复杂的问题。


Dylan Field,Figma CEO

接下来,我们与我的好友Dylan Field,即Figma的首席执行官,进行了深入的对话。Dylan分享了他对AI驱动的世界中用户界面(UI)演变趋势的预测。尽管有很多人预测会转向对话式或基于代理的界面,但Dylan认为新的界面范式将会与现有的界面相互补充,共同发展。他还着重强调了视觉AI和智能摄像头作为下一代输入方式的巨大潜力,这确实令人振奋。

Elad Gil:你对AI带来的UI变革有何看法?目前来看,很多应用都在向聊天界面靠拢。许多讨论都聚焦在未来的代理世界,它将极大程度地减少UI的存在,所有事情都将通过程序化方式在后台完成。那么,你认为UI的未来发展方向会是如何?

Dylan Field:我认为这又回到了我之前提到的一个观点。确实,关于代理的创新层出不穷,但就我们如何与这些代理通过UI进行互动而言,我们还处于初级阶段。

我认为界面可能会变得更加复杂。但即便它们没有变得更复杂,我也认为这就像任何新媒体形式的出现一样:当新的媒体形式出现时,旧的媒体形式并不会立即消失。仅仅因为你有了TikTok,并不意味着你会停止观看YouTube。

即使新的交互形式主要是通过聊天界面来实现——尽管我对此持保留意见——UI依然会存在。事实上,我认为UI会变得更加丰富多样,软件的数量也会比以往任何时候都要多。

Elad Gil:你对多模态(multimodality)有何预测?比如,你是否认为语音输入的需求会增加?现在有很多讨论都围绕着何时使用语音、何时使用文本或其他类型的界面展开。

有人认为,随着多模态模型的兴起,语音输入将会变得更加普遍,因为对话中的实时、智能、语境化的语义理解成为可能。这可能会导致语音UI逐渐取代基于文本的UI。你对这种未来趋势有何看法?

Dylan Field:确实,在某些场景下,语音UI至关重要。甚至可能出现语音UI与传统UI相结合的趋势,因为语音UI可以以更通用的方式实现交互。

尽管如此,就我个人而言,我并不希望通过语音来浏览我每天需要互动的信息。我也不想像《少数派报告》中那样,通过手势在Vision Pro上进行操作。或许,搭配键盘、鼠标以及一个出色的Vision Pro显示器设置——或者Oculus设备——那可能会很酷。但《少数派报告》中的那种方式对我来说并不实用。

这很有趣。我们看到了一些新的交互模式,它们确实很吸引人,但很自然地,我们会将这些新模式外推,认为它们对所有事情都适用。然而,我认为这些新模式有它们特定的应用场景。这并不意味着它们会在每次交互中都无处不在。

这种对新技术的热情周期是自然且健康的。探索新的可能性是好事,因为如果我们不探索,就无法发现人机交互(HCI)的全部潜力。我支持尽可能多地探索新技术,以推动HCI的发展,并找出如何充分发挥计算机的潜力。

Sarah Guo:我对智能摄像头领域非常乐观。人们很难用语言准确地描述事物,因此智能摄像头的概念——即使是最基本的应用——也让人感到非常兴奋。

正如你所说,探索这个领域非常重要,因为我坚信它会带来真正的实用价值。每个用户都可以拍照或录制视频,我对智能摄像头作为输入方式或外设的未来发展持非常乐观的态度。


Alexandr Wang,Scale AI CEO

为了总结我们2024年的精彩瞬间,我们特别邀请了Scale AI的首席执行官Alexandr Wang。在这段对话中,他慷慨分享了自己对于通用人工智能(AGI)发展路径的独特洞察。Alex还深入剖析了为何AI的泛化能力远比许多人设想的更为棘手,以及为何聚焦解决细分领域问题并在评估中融入更多数据是推动技术迭代的关键所在。

Sarah Guo:在你看来,关于AI的哪个观点是独树一帜的呢?

Alexandr Wang:我始终坚信,通往AGI的道路更类似于攻克癌症,而非研发疫苗。换言之,构建AGI的过程将涉及攻克一系列独立的小问题,这些问题之间缺乏显著的正向协同效应,即解决一个问题并不会为下一个问题的解决带来显著的助力。

这正如攻克癌症一般——我们需要深入探究每一个病例,逐一攻克。历经数十年的不懈努力,当我们回首时,会发现我们已悄然建立起AGI,正如我们攻克了癌症一般。然而,这条通往目标的道路将是循序渐进、稳扎稳打的,需要逐一解决个体能力的问题,并构建起数据飞轮以支撑这一宏伟使命。

相比之下,业内许多人士将通往AGI的路径描绘得仿佛触手可及、一蹴而就。我认为,这深刻影响着我们对技术发展轨迹的认知以及社会对此的适应能力。而实际上,一个更为乐观的视角是,社会能够从容应对技术的每一次进步,因为技术的进展将是持续且渐进的,为社会提供了充足的适应时间。

Sarah Guo:当你提到逐一解决问题时,如果我们暂时放下这个类比,是否可以理解为多步骤推理中的泛化尤为艰难?或者,蒙特卡罗树搜索(Monte Carlo Tree Search)并非人们所期待的答案?我们是否会遇到扩展的瓶颈?解决这一系列问题的关键维度又是什么?

Alexandr Wang:我认为,主要问题在于这些模型的泛化能力极为有限。以多模态(multimodality)为例,我的理解是,从一种模态到另一种模态的学习并未展现出显著的正向迁移效应。训练大量视频数据对于解决文本问题的助益并不明显,反之亦然。

这意味着,每个细分领域或能力都需要一个独立的数据飞轮来驱动性能的提升。

Sarah Guo:你目前是否仍然认为,视频作为构建世界模型的基础尚缺乏说服力?

Alexandr Wang:我认为,尽管这是一个极具吸引力的观点,但目前尚缺乏有力的科学证据来支撑它。或许未来会有所发现,但就当前而言,一个基本的事实是,模型的泛化能力仍然较弱。我们需要有条不紊地攻克众多小问题,才能最终实现AGI的愿景。

----------

参考资料:No Priors. (2024, December 26). No Priors Ep. 95 | Best of 2024 [Video]. YouTube. https://www.youtube.com/watch?v=gmllIye7BBY


---【本文完】---

近期受欢迎的文章:
  1. AI时代浪潮:SC24大会揭示技术突破与行业变革(29个采访总结)
  2. 大规模生成模型时代的计算:从云原生到AI原生
  3. AI与全球格局重塑:中美竞合、技术突破与未来秩序
  4. HPC-AI市场预测更新报告(2024年11月)
  5. 迈向AI原生时代:2025年关键趋势展望(a16z)



更多交流,可加本人微

(请附中文姓名/公司/关注领域)

继续滑动看下一个
Andy730
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存