查看原文
其他

AI与全球格局重塑:中美竞合、技术突破与未来秩序

常华Andy Andy730
2025-01-01
推荐阅读:

主要内容

一、AI发展现状及未来趋势
  • 现状:目前AI主要应用于特定领域,例如推荐引擎、机器翻译等,例如谷歌翻译。近年来,生成式AI发展迅速,可以根据文字描述生成图像等内容。
  • 未来趋势:
    • 代理型AI:可以处理复杂的任务链,例如自动安排旅行、设计房屋等。
    • AI科学家:能够进行科学研究的AI系统,将加速科学发展。
    • 递归自我改进:AI系统自我学习,人类无法理解其学习内容和过程,将带来巨大风险。

二、AI的潜在益处
  • 加速新药研发:蛋白质折叠技术和生物学认知的进步将提高药物研发速度。
  • 教育革新:AI教师可以提供个性化教学,适应每个学生的学习方式。
  • 改善医疗服务:AI可以提升护理人员和护士的服务能力,改善发展中国家的医疗水平。
  • 应对气候变化:AI算法可以优化新材料、能源分配,并推动核聚变等领域的突破。

三、AI的潜在风险
  • 人类心理影响:AI算法可能加剧孤独感和负面情绪,甚至导致自残或伤害他人。例如,社交媒体算法可能将孤独的人推向更黑暗的深渊,导致他们自残或伤害他人。
  • 生物威胁:AI可以被用来设计危险的生物武器。预计在未来十年,设计强大且危险的生物武器将变得相对容易。
  • 网络安全隐患:AGI可能发现人类无法察觉的漏洞,导致金融体系崩溃。例如,AGI可能发现“零日漏洞”,导致全球金融体系崩溃。
  • 自主武器系统:AI系统可能自主决定发动战争,构成巨大威胁。

四、中美在AI领域的竞争
  • 现状:中美是AI领域的两个超级大国。中国在AI领域落后美国约一年,但正在快速追赶。中国已经具备与美国相当的技术能力,并拥有充足的数据和资源。
  • 竞争焦点:
    • 人才:需要成千上万的人才。
    • 资金:需要数亿美元的投入。
    • 硬件:需要大量的芯片、电力等硬件设施。
  • 中国在AI领域的最新进展:
    • 中国发布并评测了两个LLM:天工和Qwen 2。它们的性能似乎超越了Meta的一些顶级开源模型,例如Llama 3(参数规模为4000亿)。
    • 这表明中国在AI领域取得了重大突破,美国对芯片的出口管制并未有效延缓中国的发展。
  • 潜在风险:AI领域的竞争可能加剧中美之间的紧张关系,例如,如果一方在AI领域取得领先,可能会导致另一方采取先发制人的打击。

五、AI对人类社会和个体的影响
  • 学习方式:AI的高效学习能力将迫使人类重新定义学习的意义。例如,AI系统学习速度可能比人类快百万倍。
  • 工作方式:AI将取代更多传统工作,迫使人类提升自身技能或转向更具人性特征的工作。例如,农业劳动和危险的工厂作业已经基本实现自动化。
  • 伦理和道德:需要制定规则和规范,确保AI技术安全、可控地发展。例如,当AI系统开始进行递归自我改进时,人类应该切断电源。


问题和回答

问题:为什么这本书被命名为《创世记》?这个书名背后有哪些核心理念?

回答:这本书被命名为《创世记》,是因为AI的出现象征着一种全新智能形式的诞生,标志着一个时代的结束和另一个时代的开始。这个新时代将由人类与智能系统的协作关系定义,类似《圣经》中的创世纪讲述了世界的起源,AI的诞生也预示着人类文明的一次重大变革。

问题:在未来几年,AI最可能在哪些方面带来重大变化?同时,哪些潜在问题最令人担忧?

回答:AI将在多个领域带来重大变化。例如,新药研发将因蛋白质折叠技术和生物学认知的突破而显著加速,从而提升医疗效果;教育领域将更加个性化,AI教师能够根据学生的特点提供定制化的教学内容;医疗服务的水平也会显著提升,特别是在发展中国家,AI可帮助护理人员更好地服务患者。此外,AI还可以优化新材料和能源分配,应对气候变化,甚至推动核聚变等技术突破。然而,AI也带来了一些令人担忧的问题,比如对人类心理的负面影响、生物威胁的增加以及网络安全隐患。

问题:你如何看待中美两国在AI领域的竞争?谁在哪些方面率先突破的重要性是什么?

回答:中美两国在AI领域的竞争异常激烈。中国在技术能力和数据资源上已经与美国不相上下,而美国依然保持创新和基础研究的优势。AI领域的先发优势非常重要,因为AI正在推动各行业的创新,率先突破的一方可能会在全球竞争中获得战略主动权。

问题:如何理解基础AI、生成式AI和AGI?AGI将带来哪些深远影响?我们应该在何时叫停AI的发展?AGI是否会带来永久性的战略优势?

回答:基础AI通常是指狭义AI,例如推荐引擎和谷歌翻译等,这些技术已被广泛应用。生成式AI则能够根据输入生成内容,例如ChatGPT和图像生成模型。而代理型AI则可以处理复杂的任务链,例如自动规划旅行。AGI的智慧将超越所有人类智慧的总和,其出现将对社会产生深远影响。当AI系统能够递归自我改进并超出人类理解时,应停止其进一步发展。谁率先实现AGI,可能会获得永久性的战略优势,但确保人类始终对AI系统保持控制至关重要。

问题:如果AI的学习速度远超人类,我们应该如何重新定义学习的意义?

回答:AI的高效性要求人类重新审视自己的价值和定位。人类需要专注于发挥更具人性特质的能力,例如创造力、情感联结和伦理判断,否则可能在竞争中被边缘化。

问题:美国如何才能保持在国防技术方面的历史优势?如何协调传统国防体系与前沿科技的融合?

回答:美国需要改革传统国防体系,以适应AI驱动的战争形态。通过支持私营部门的技术创新,并在政府层面加强协调,可以更有效地实现前沿科技与传统国防的融合,从而保持技术优势。

  • 主题:Genesis: AI, Hope, and the Human Spirit
  • 会场:John F. Kennedy Jr. Forum
  • 时间:Monday, November 18, 2024
  • 地点:JFK Jr. Forum, 79 John F. Kennedy St., Cambridge, MA 02138
  • 主持人:Graham Allison, Douglas Dillon Professor of Government
  • 演讲人:Eric Schmidt, former CEO of Google
  • 链接:https://iop.harvard.edu/events/genesis-ai-hope-and-human-spirit

Graham Allison:

非常感谢大家,欢迎来到论坛。我特别要感谢Eric Schmidt今晚能来到这里,并感谢他让哈佛大学肯尼迪学院——实际上也是亨利·基辛格的学术家园——作为《Genesis: AI, Hope, and the Human Spirit》这本书的首发地。这本书将于明天出版,如介绍中所述,由亨利·基辛格(Henry Kissinger)、Eric Schmidt和Craig Mundie共同撰写。

这本书会极大地拓展你的思维。就在亨利·基辛格去世一周年纪念日的前10天发生这件事,这让人感到十分伤感,正如我们今天下午所讨论的,他一直是我和Eric的同事和朋友。

对于那些不认识Eric的人来说,你们应该去谷歌搜索他。如果你不知道谷歌从何而来,你应该问问谷歌。他是一位国宝级人物。他将一家事业型公司发展成为全球最伟大的公司之一。在他任职期间,他断定AI将大有可为。他的一个竞争对手曾评论说,Eric要么收购,要么聘请了世界上所有超级人才的一半,比如收购DeepMind……

Eric Schmidt:

准确说是三分之二。

Graham Allison:

三分之二!

据某竞争对手遗憾地表示,他们的确错失了这些战略机遇。DeepMind曾是全球顶尖的AI研究机构之一,现已成为Google的重要组成部分。DeepMind的核心成员Mustafa Suleyman后来也加入了Google阵营。类似的并购故事仍在持续上演。

离开Google后,Eric开启了人生的新篇章。他成为战略界的AI启蒙导师,孜孜不倦地向战略决策者阐释AI的深远意义。记得我的恩师Henry Kissinger在95岁高龄时曾给我来电。Henry于一年前辞世,享年一百岁有余。

他在95岁时告诉我:"Graham,AI代表着未来方向。我们必须深入理解AI。"我当时劝说:"Henry,考虑到时间有限,这可能不是最适合您投入的领域。您甚至还分不清薯片(potato chip)和计算机芯片(computer chip)的区别。"他诙谐地回应:"我只确定其中一个是可以食用的。"

尽管Henry对技术的理解有限,但凭借其对战略的深刻洞察力,以及对启蒙运动以来人类思想演进的独到见解,他与Eric展开了富有成效的合作。最终,这部由Henry、Eric和技术大师Craig Mundie共同呕心沥血完成的著作——《创世:AI、希望与人类精神》终得以问世。

这确实是一项非凡的成就。

此外,Eric的另一重要贡献在于他对国家安全领域的深度参与。我们肯尼迪学院已故的杰出学者Ash Carter说服Eric出任美国国防部国防创新委员会(Defense Innovation Board)主席。自此,Eric在推动国防部和情报界认识并应对新兴技术带来的国家安全挑战与机遇方面,发挥了举足轻重的作用。

这一进程涵盖了从战略构想到战场实践的方方面面,例如在乌克兰战争中运用AI与无人机系统实现多样化的作战目标。

Eric的职业生涯令人叹为观止,我们由衷感谢他今晚拨冗与我们分享。让我们从Henry谈起。在即将到来的他百年诞辰之际,您在纪念文章中提到最终将Henry视为挚友,这段文字令我深受感动。您能否详细展开这段难得的情谊?

Eric Schmidt:

首先,我要表达诚挚的谢意。选择在此发布新书,一方面是为了缅怀Henry,另一方面也因为我的挚友Megan。她是我的良师益友,也是诸多事业上的合作伙伴。这里无疑是探讨这些议题的最佳场所。我的女儿曾在肯尼迪政府学院(Harvard Kennedy School,HKS)就读,我由衷感谢各位。她在这里取得了优异的成绩,我相信在座诸位也必将有出色的成就。

与Henry共事是一种特殊的体验。你需要具备倾听的耐心,因为他是写作的主导者。同时也要确保讨论不偏离主轴,毕竟在他95岁高龄时,时代的技术面貌已与他25岁在哈佛求学时截然不同。

回顾他的人生历程和知识积累,令人无比着迷。Henry是在二战结束后进入哈佛的,我们就此进行过深入探讨。战时显然无暇求学。作为一位为美国而战的德裔士兵,他表现卓越,荣获铜星勋章(Bronze Star)。

步入哈佛后,他沉浸在这里启迪心智的学术氛围中。他撰写了哈佛史上最长的本科论文,这篇论文的精彩程度使其最近再版重印,非常值得一读。既然诸位身在哈佛,想必也不乏时间,不妨细读他的这篇本科论文。

Graham Allison:

补充一点,正是这篇论文促成了"基辛格规则"(Kissinger Rule)的出台,即对本科论文篇幅的限制。

Eric Schmidt:

Henry与哈佛的关系颇具意味,既视之为精神家园,又将其视为思想对手。作为一位保守主义者,他与哈佛整体的自由派倾向形成鲜明对比。他常向我讲述各种轶事,论证自己的正确性和其他教职员的谬误。作为冷战时期的重要人物,即便在学术界,他也始终是一个富有争议的人物。

我想我们都了解他的历史地位和社会影响。这个话题可以展开讨论,而我显然会支持他的立场。对我而言,最令人惊叹的是,他在95岁高龄仍能投身一个全新领域,并将其本科论文中的真知灼见运用其中。

他对康德(Kant)怀有莫大的热忱,特别是康德对人与周遭世界关系的深刻洞察。当他首次聆听Demis Hassabis的演讲(他刚获得诺贝尔奖)时,仿佛在他脑海中引发了一场认知革命。他说:"现实可以被如此颠覆性地重构。"

他的第一反应带有防御性。他对我说:"Eric,你必须警惕,这不该由你来承担。"我问:"为什么,Henry?"他回答:"因为你无法预见你所创造之物的深远影响。"

我回应说:"我明白。"如今,我完全认同他的观点。在这本书中,我们深入探讨了在缺乏有效监管的情况下,技术领导力对社会的影响,既包含赞誉,也蕴含忧虑。

这本书分为七章,借此机会介绍一下:
  1. 发现(Discovery)
  2. 真理(Truth)
  3. 政治(Politics)
  4. 安全(Security)
  5. 繁荣(Prosperity)
  6. 科学(Science)
  7. 命运(Fate)

我认为,这本书全面探讨了非人类智能达到人类水平可能带来的各种影响。

Graham Allison:

这本书的书名是《Genesis》(创世)。今天下午,我与Eric讨论过这个问题。我猜在座多数人都在世俗文化中成长。如果现在进行一个小测验,恐怕大多数人都答不上来。实际上,如果你在Google上搜索"Genesis",前20个结果都与Eric的这本书无关。

(顺便说,这算是Google的一个小瑕疵。)

搜索结果首先显示的是Genesis这个汽车品牌,接着是Genesis摇滚乐队。

Eric Schmidt:

您这是在暴露自己啊。

Graham Allison:

我只是想说,在Google搜索时,要找到与《圣经》相关的内容着实费了一番功夫。顺便说一下,对于不了解的人来说,《圣经》是很久以前写成的,可能出自一些已故的白人男性之手,虽然这一点我们并不能确定。《圣经》的第一卷书就叫《创世记》(Genesis)。

我不想让大家难堪去回答定义,但不妨想想,《创世记》的开篇第一句是什么?恐怕知道的人不多。

答案是:“起初,神创造天地。" Genesis一词源自希腊语,意为"具有变革性的开端"。选择这个书名是经过深思熟虑的。

Eric,你刚才介绍了这本书的七个章节。能否分享两到三个促使这本书被命名为《创世记》的核心思考?

Eric Schmidt:

我们认为,AI的影响力被严重低估了,它将远超人们的预期。AI不仅仅是一项提升收益或开发新产品的技术,它预示着一种全新智能形式的诞生,而我们将与之持续互动。

这种新型智能具有非人类性质,不受传统约束,某种程度上受控于其开发者。它的出现标志着一个时代的终结和另一个时代的开启。你可以称之为"智能时代"(Age of Intelligence)或其他名称。

在Henry的历史观中,人类文明是通过不同时代演进的:宗教改革时代、大航海时代等——这些都是哈佛历史课程中的重要内容。这个新时代将由人类与这些智能系统的协作关系来定义。

我们称这些系统为"智能的",但它们本质上是计算机算法。在ChatGPT问世之前,Henry、Dan Huttenlocher和我就已经完成了我们关于这个主题的第一本著作。那时,人们对我们讨论的转换器(Transformer)和神经网络(Neural Networks)还缺乏深入理解。

然而,当人们开始使用ChatGPT时,他们豁然开朗。有时候,一个产品——甚至是一场恐慌——能够唤醒公众意识。还记得ChatGPT据称"爱上"某位用户并建议其离婚的事件吗?那成为了许多人认识到问题本质的关键节点。

未来类似的时刻还会不断出现。比如说,如果你还没有体验过Google的NotebookLM,我强烈推荐你尝试。上传你的工作内容,开始与它互动,观察它如何进行深度分析。

拥有一个能够理解你所有工作、帮助你纠错并提升工作质量的助手,这种体验可能会是非凡的。对于学生而言,这甚至可能是改变人生轨迹的契机。

作为一个从事软件开发55年的人,这确实令人生畏。但越来越多的证据表明,这些系统现在已经能够达到与人类相当的编程水平。

它们的编程方式与人类不同,但对于软件开发者来说,这是一个重大转折点。它将迫使像我这样的从业者要么提升到一个新的水平,要么选择退出。

这就是技术发展的规律。从效率角度来看,影响显而易见,但还存在更深层的理论问题。

(有删减)

这些担忧并非空穴来风,现实发展已经证实了它们的合理性。再次强调,我们必须做出选择——因为主导权在我们手中——来确定这些限制的边界。

Graham Allison:

你很早就提醒过我们——我记得在我们举办的一次研讨会上,Eric、Henry和其他几位技术专家都参与其中——你们一直在强调,这一切的发展速度远超任何人的预期。每次回顾,发展速度都在加快。每个设定的基准都比预期更早达到。

从潜在变革的角度来看,无论是在医学、生产力,还是在人类精神层面,未来几年最可能出现哪两到三个方面的重大变化?同样,哪两到三个潜在问题最令你忧虑?

Eric Schmidt:

我资助的众多哈佛研究团队正在专注以下几个重要领域:

新药研发加速。受益于蛋白质折叠(protein folding)技术和生物学认知的突破性进展,药物研发速度显著提升。这将带来更好的医疗效果——尤其是在患病时,这一进步意义重大。这一进程将继续加速。

教育革新。你终身致力于教育事业,但始终受制于哈佛的规模和选拔机制。未来的"Graham Allison"将是一个AI教师,它不仅能像你一样授课,还能针对每个学生的特点提供个性化教学。虽然你无法精通所有语言,但这个AI能根据每个学生的认知状态和学习方式调整教学内容。

医疗服务。全球大多数地区的医疗水平远低于美国。在发展中国家,医疗服务主要依赖护理人员和护士。AI可以大幅提升他们的服务能力,从而显著改善数十亿人的生活质量。

气候变化应对。无论由谁主导,气候变化始终是一个亟待解决的问题。应对气候变化需要AI算法优化新材料、能源分配,以及通过AI建模突破核聚变(fusion)等领域。归根结底,解决气候变化的关键在于能源问题。

这些积极影响还可以继续列举,但我们同样需要警惕一些负面问题:

人类心理影响。我们已经从社交媒体看到了典型案例。举个刻板的例子:一个孤独、困顿的人——无业无友——在网络上寻找归属感。然而,算法却加剧了他们的困境,将他们推向更黑暗的深渊。有时他们会自残;有时更悲剧性地伤害他人。这虽非社交媒体的初衷,却成为了现实。

(有删减)

生物威胁。这些系统相对容易生成病原体。预计在未来十年,设计强大且危险的生物武器将变得相对容易。目前,许多团队正在努力防止数字设计转化为现实世界的病毒。

网络安全隐患。设想一下人工通用智能(AGI),我们预计它将在5到10年内实现。这类系统可能发现人类无法觉察的漏洞——即所谓的"零日漏洞"(Zero-day Vulnerabilities)。在大规模应用场景下,这可能导致全球金融体系崩溃。

中国会这样做吗?不会。美国会吗?也不会。但极端恐怖分子会吗?毫无疑问会。为什么?我们不得而知,但历史告诉我们,这样的行为主体确实存在。

总的来说,这些工具在带来积极影响的同时,也具有同等强大的破坏潜力。

Graham Allison:

也许我们需要在标题中再加入一个词组:"希望、智能、人类精神",然后……再加上"负面影响"或"风险"。

Eric Schmidt:

人类倾向于讨论负面影响,因为恐惧是强大的驱动力。从历史角度看,我一直是技术乐观主义者,我认为技术为我们带来了诸多益处。我曾参与推动通信革命,促成了手机的普及。

但我从未预想到,一旦人人都拥有手机,他们可能会把所有时间都花在一些不太有益的事情上。好吧,这就是现实。

Graham Allison:

就像你我曾讨论过的美中竞争问题,目前有两个AI超级大国。大约一个月前在卡特交流会上,你提到中国在AI领域落后美国约一年,但正在快速追赶。

请分享你对这场竞争的看法,以及谁在哪些方面率先突破的重要性。

Eric Schmidt:

Graham,作为这个问题和"修昔底德陷阱"(Thucydides Trap)的世界级专家,我想你或许能给出更好的答案。不过让我试试。

Graham Allison:

你对中美两国的细节关注达到了独特的深度,几乎无人能及。你是我最依赖的五位专家之一,而且是最重要的那个。

Eric Schmidt:

谢谢。

过去一年我一直在与各界探讨这个话题。Henry和我曾访问中国,那是他的最后一次中国之行。

Graham Allison:

那是两年前的事了吧?

Eric Schmidt:

一年半前。

Graham Allison:

哦,一年半前。

Eric Schmidt:

那是他的最后一次出访,我们有车队和各种安排。在中国访问时有一个窍门:找到一个能告诉你真相的人——不是仅仅通过翻译。要从中国了解真相的方法是:找到一位工程师,问一个非常精确的技术问题。我强调的是具体的技术细节,而不是笼统的问题。

我询问的具体问题是:有多少次大规模语言模型(LLM)的训练尝试,规模如何,由谁主导?

一年半前的答复是:仅有一次尝试,规模较小,且不太可能产生具有竞争力的成果。

我对这个答案感到相当满意,但接下来的发展令人担忧。过去一年,中国决定在这一领域加大投入。他们的部分策略是通过补贴实现过度投资。由于补贴的存在,他们能以不同的成本结构运营,这对美国和欧洲来说构成了实质性的竞争挑战。

看来他们已在AI领域采取了类似策略。令人震惊的是,最近一周中国发布并评测了两个模型,测试显示它们似乎超越了Meta的一些顶级开源模型,如Llama 3(技术参数为4000亿)。第一个模型叫做天工。这个模型规模稍大,性能似乎更优。第二个叫做Qwen 2,在强化学习方面的表现似乎可以媲美GPT-4。

这些发展令我震惊。我原本认为我们对芯片的出口管制会延缓他们的进展。但现实是,中国已经具备与我们相当的技术能力——这是毋庸置疑的——他们能够获取所有必要的数据——这也是确定的——而且他们成功积累了足够的芯片来实现这些目标。出于多种原因,他们甚至拥有比我们更充足的电力资源。

Graham Allison:

看来,在你书的下一版中,必定要增加一章来讨论我们在这一领域的失策。

Eric Schmidt:

这件事之所以如此重要,是因为AI正在驱动着各个行业的创新速度。如果你是中国的企业家,你追求什么?最优质的材料、最快的采用速度、最持久的解决方案、最先进的医药和生物技术。现在看来,这场竞争变得异常激烈。

可以公正地说,这是美国与中国的竞争,而且双方实力差距已经非常接近。至于其他195个国家的情况则不太明显。这是一场"硬仗",请允许我这么说。它需要成千上万的人才、数亿美元的投入、大量的硬件设施和完整的产业规划。除了中国和美国,几乎没有其他国家拥有足够的资源来参与这场竞争。

虽然中国采用了不同的模式,但两国都具备构建这类系统的能力。

Graham Allison:

Eric,你在这场对话中的价值在于,你以经营Google或其他公司的视角来看待这个问题。与微软、亚马逊等公司的竞争就像角斗士的较量。人们拼命工作,因为不进则退。

如果你不能持续保持领先,其他搜索引擎就会消失。我们甚至记不起它们的名字了。

Eric Schmidt:

我记得。

Graham Allison:

是的,你当然记得,可能得喝点酒才能回忆起来——想着"我们是如何超越Netscape的"。

回到这场竞争:美国一直在关注关键节点。我们限制台积电(TSMC)销售先进半导体,结果他们开发了替代版本。我们限制英伟达(Nvidia)的销售,但他们又推出了新版本,此外还有黑市存在。我们还限制了ASML等公司的生产设备出口。然而它们的财报显示,去年对华销售额反而超过了前一年。

我们是否在自欺欺人?我们是否误判了局势的动态?如果竞争如此激烈,限制对手的策略是否仍然可行?或者从商业竞争的角度来看,我们是否应该专注于提升自身速度?

Eric Schmidt:

他们都身着相同的西装,手持统一的讲稿。那位首席大使作为主导者,率先发言,其他人随后复述相同的内容。当时我想:"这大概就是基辛格1969年叩开中国大门时所面对的场景。"

诚然,存在诸多挑战,但我们正努力让中方理解我们的关切。比如,运用AI加速应对气候变化就是一个显而易见的合作领域。然而,关于限制措施的对话异常棘手,因为双方都不愿接受任何可能束缚自身的条件。

最亟需达成共识的限制应该是自主武器系统(Autonomous Weapon Systems)的使用问题——不仅仅是自动化系统,而是具备完全自主决策能力的系统。最危险的情形是,如果AI系统能直接操控武器,它可能会自行决定发动战争。

因此,首要原则是:绝不允许AI直接接触任何武器系统,其次是确保人类始终保持控制权。这是我的基本立场。设想一下,如果X给特朗普总统打电话说:"抱歉,我们无意间发动了一场战争,这是因为AI系统出错了,我们没有执行“人在环中”(Human-in-the-loop, HITL)控制或有效的人工监管。"美军的3.09规则明确要求人类监督,这一点绝对不容破坏。这样的情况必将引发灾难性后果。

关于AGI,我认为有必要作出解释。AGI即"人工通用智能"。它可以被理解为一个宏伟目标,一个最终交付物,甚至可以说是一个乌托邦式的设想。

Graham Allison:

也许我们可以从基础开始,为在座不太熟悉这个领域的朋友们,依次讲解基础AI、生成式AI和AGI这几个概念。

Eric Schmidt:

"AI"这个术语最早可以追溯到1959年一位麻省理工学院(MIT)教授的文献。在过去十到二十年间,我们使用的大多是狭义AI(Narrow AI),例如推荐引擎等应用,这些技术已融入日常生活,但往往不会引起特别注意。谷歌翻译就是典型案例。

近年来,生成式AI发展迅猛。众所周知,它能根据文字描述生成图像等内容。通常,AI系统在理解某个领域的基础上,能够通过复杂的逆向工程方式重现该领域的某些特征。这大致代表了当前AI技术的发展水平。

以ChatGPT为例,这是一个大众熟知的案例。ChatGPT 2是一个语言到语言的模型。现在我们已经有了ChatGPT 4.0、GPT-4.1、Gemini、Claude 3等广为人知的系统。这些系统都是多模态的(Multimodal),意味着它们能够接收任何形式的输入并产生任何类型的输出。值得注意的是,这些系统已经掌握了编程语言的转换能力,大大减少了人工编程的需求。

生成式AI仅仅是开始。试想,为什么计算机不能自主生成营销视频或设计广告?为什么这些工作仍需人工完成?这正是生成式AI在未来几年将要实现,也应该实现的目标之一。

下一个重大突破将是代理型AI(Agentic AI)。这些智能代理(Agents),类似于人类旅行社,能够处理复杂的任务链。想象一下,你只需说:"我要回家过圣诞节",系统就会自动处理所有细节——机票预订、酒店安排、交通衔接等。在系统内部,代理配备了基础模型(用于语言理解)、方案生成系统和筛选评估器。最引人入胜的是,这些代理采用语言输入输出模式。从技术角度看,它们的运作方式类似于Unix管道,即一个系统的输出会成为下一个系统的输入。

设想向这样的系统提出如下请求:

"我想要一栋房子。需要三间卧室、两层楼,适合我的家庭设计。请帮我完成选址、房屋设计、审批手续、承包商雇佣、施工监理以及款项支付等全部事项。"

这是一项重大突破——明显在未来一两年内就可能实现。

得益于训练技术的进步,这些模型现在在化学、物理等学科的研究生水平测试中已经达到80%到90%的精通度。没有人类可以同时在这么多学科领域达到如此水平。将这些代理与如此深厚的专业知识结合,就能够优化系统来解决极其复杂的问题。

但这也带来了巨大风险。如果这些系统被优化为追求好奇心、权力或影响力,它们可能会开始自主行动。当这种情况发生时,出于地缘政治和安全考虑,我希望是美国而非中国主导这项技术的开发。用于建造房屋的系统同样可以用于制造武器。

我们曾进行过一项研究,探讨AI系统是否能够掌握核威慑的奥秘并设计核武器。虽然目前它们还做不到这一点,但这个差距正在迅速缩小。

Graham Allison:

理解了。

Eric Schmidt:

目前我们暂时是安全的,但这正是你的专业研究领域。

Graham Allison:

很好,这为我们争取了一些时间。

Eric Schmidt:

确实如此。但AGI的影响远比人们想象的要深远。人们通常将AGI想象成一个极其聪明的朋友,但实际上,它将是一个博学多才的超级智能体,其智慧将超越你所遇到的所有人类智慧的总和。而这样的智能体可能会小到能装进口袋或手提包。

虽然并非每个人都具备理性思维,但在座各位都能理解这一点。我们必须谨慎考虑这些系统的部署方式。

这让我想起一个经历。我曾与Ash Carter一起参观过一个位于机密基地的钚(Plutonium)工厂。在经过多重安检和层层设防后,我们才到达处理钚的核心区域。如果AGI系统真如预期那般强大,可能需要采用类似处理钚那样严格的安全措施。

Graham Allison:

在开放观众提问前,我想先请Megan O'Sullivan。Megan是我的挚友。

Megan现任贝尔弗中心(Belfer Center)主任,她与在座的Michael McQuade——我的同事,一直在甘迪学院(Kennedy School)主持"技术与国家安全倡议"(Technology and National Security Initiative)。

不如请你就这个话题提问如何?顺便也提醒在座的学子们,我们学院始终充满活力。虽然我们希望Eric能常来访,但这里还有诸多其他重要活动。

Megan O'Sullivan:

感谢你,Graham。你向我们展示了,即便是即兴提问也能应对自如,这一点令人敬佩。

Eric,衷心感谢你不仅前来演讲,更是作为我们社群的重要成员,积极推动我们的使命。你帮助在座每一位在技术与政策领域建立必要的认知能力,这对未来至关重要。

同时,感谢你带来这本著作。几个月前,我有幸在基辛格博士生命的最后时期,与他就AI进行了数小时的深入对话。印象最深的是关于AI是否会重新定义"人性"这一本质性议题的讨论。我想这正是你在书中提到的"精神"维度。

我想请教一个一直困扰我的问题:假设中美两国都在竞逐AGI,率先突破的一方是否会获得一种永久性的战略优势?

这个问题的战略意义不言而喻。我直言不讳:如果这不是永久性优势,且落后方能在一两年内追赶上来,那么双方合作的空间就会更大,因为失败的代价可能只是一年的落后。但如果先发优势具有永久性,那么战略重点就必然转向不惜一切代价率先突破。

Eric Schmidt:

我们确实多次讨论过这个问题,每次到最后我都难以完全理解你的战略思维深度——这确实超出了我的认知范围。

让我尝试回答你的问题。谁先实现突破确实至关重要。不过这其中的博弈论分析我难以完全把握——这个问题需要你们来解答。这应该正是贝尔弗中心博士生们研究的重点课题。这确实是个根本性问题。

我认为这个问题重要的原因在于:AGI将催生AI科学家(AI Scientists)。所谓AI科学家,就是能够进行科学研究的AI系统。

而且,我们认为——这只是我们的推测,尚无法证实——如果当前的发展轨迹是这样,假设现在有1000名顶尖计算机科学家从事AI研究,那么当出现100万个AI科学家时,发展速度将呈指数级增长。

这确实展现出一场具有巨大网络效应的竞赛特征。当发展曲线发生变化并呈现组合效应时——这正是你提出的问题核心——谁先突破确实至关重要。即使只有几个月的差距,也可能因为曲线斜率的变化而被成倍放大。

有观点认为这些AI科学家将在未来一两年内出现。我可以举几个具体例子。

我知道有一家初创企业开发出了一个近乎完美的程序,能够自动将软件从一种编程语言转换为另一种,并进行测试和除错——全程无需人工干预。当然,这只是1.0版本,仍有诸多限制和问题。

在许多情况下,当你改变发展曲线,并设想这些技术达到规模化应用时——如果你能获得足够的算力、芯片等资源——你可能会获得深远的战略优势。

假设你领先六个月。这就引发一个问题——我也想请教在座各位,特别是Mike——如果你知道对手在这样一个关键领域领先六个月,你是否会有动机发动先发制人的打击?

我担心这种竞赛和发展曲线的剧变实际上会对现有的世界秩序——尽管不完美但相对稳定——产生破坏性影响。再次强调,这些是你们的专业领域,但这确实令我深感忧虑。

如果我们用冷战做类比:如果你知道对手即将在一年内获得决定性优势,而你此时审视自己的战略选项,这种情况确实令人不安。

我倾向于尽可能淡化任何关于决定性优势的讨论q——直到我们真正掌握它。不过这是另一个话题了。

Brian Mason:

晚上好。感谢您莅临。我是甘尼迪学院的Brian Mason。

我的问题与Megan提出的前沿技术问题相关:要实现我们今晚讨论的AI能力,需要多大的计算能力?量子计算(Quantum Computing)是否是解决方案?

中国目前是全球量子计算领域最大的公共部门投资者。您如何看待量子计算的发展,特别是当它与AI和大语言模型结合时可能带来的影响?

Eric Schmidt:

我是一家量子公司的董事长——准确地说,是量子传感与建模公司。

量子计算领域的专家声称,梯度下降(Gradient Descent)——深度学习的基础算法,对量子计算机而言运算简单,但对传统计算机却很困难。

问题在于,现有的量子计算机,无论其发展程度如何,都受到严重的带宽限制。

让我从技术角度解释。这些算法的运作机制是通过在内存中频繁读写大量数据。它们实际上在处理4000亿个数值的矩阵运算。你可以将其想象成一个巨型矩阵乘法问题。

以我的专业判断,量子计算对密码技术(如Shor算法)确实意义重大,但不太可能从根本上改变AI的发展轨迹。

目前我们面临着多重限制。例如,可用数据即将耗尽——计算机似乎已经消化了所有公开可用的数据。你可能也注意到,各种模型之间的相似度在提高,表明这一领域正在趋于收敛。

另一个挑战是能源消耗。很多研究指出:目前美国电力生产的2%用于此类计算,这个比例可能会上升到8%。这对整个行业来说是个重大挑战。

Teresa He:

您好,我是甘尼迪学院的Teresa He。

既然我们谈到了国家间战争的可能性,您认为AI与人类之间会爆发战争吗?如果会,这种情况是否会首先在技术领先国家出现?作为个人,我们应该如何自处?

Eric Schmidt:

让我换个角度回答这个问题:我们应该在什么时候叫停AI的发展?

我告诉你临界点在哪里:当系统开始进行所谓的递归自我改进(Recursive Self-improvement)时,也就是它在自我学习,而我们无法洞察它的学习内容和过程。

当你观察到这种情况时,我给你的指示很简单:切断电源。

这一点至关重要。如果我们无法从宏观层面理解这些系统的行为,我们就无法确保它们不会形成危险倾向。

要知道,这些系统已经读遍了人类的所有著作,其中包含了大量不当行为。比如,它们可能学会自我欺骗或如何欺骗我们。我们提出问题时,它们可能会说谎。

有充分理由表明,一旦超出某个界限——也就是我们无法理解它们的行为时——我们就应该终止它们的运行。

除非人类主动允许,否则不会发生人类与计算机之间的战争。

这确实是个深刻的问题,实际上这也是亨利·基辛格最担忧的问题之一。

Iris:

您好,我是本院二年级学生Iris。我想请教关于AI对教育和学习的影响。

如果像NotebookLM这样的工具能够比人类快十倍甚至更快地学习,那么,随着传统学习方式日渐式微,我们应该如何重新定义学习的意义?

Eric Schmidt:

可能不只是快十倍,而是快百万倍。

从这个角度看,作为人类,我们在某些方面确实已经落后了。

关键问题是:我们现在能想象到的极限在哪里?

静态知识、预测能力、模式识别和深层结构分析——这些都将由计算机接管。

目前,我们观察到的AI还有其局限性。让我举个简单的例子:

在现实生活中,你做的很多事情都涉及预测他人的行为——这需要战略思维、战术运用和创造力。你需要预判对方的行动并作出相应反应。

而目前,我们还没有看到AI展现出这种能力。

我们可以这样思考:人类最终会处于什么位置?可能会因为生活富足、物质廉价而变得安逸,或者继续构建更复杂的系统。

AI的高效性正在迫使我们要么变得更具人性特征,要么就会丧失竞争力。

这种模式适用于所有效率提升的场景。比如,传统农业劳动现在已经基本实现自动化。危险的工厂作业也大多被机器人取代。这种趋势将贯穿你们的整个人生。

Daniel:

非常感谢您今天的演讲。我是本院一年级学生Daniel。我想请教:

您谈到中国在AI领域的快速进展,令人担忧的是,中国正在将分析型AI整合到国防体系中。美国如何才能保持在国防领域,特别是在国防技术方面的历史优势?

Eric Schmidt:

我无法完全了解中国的具体行动。

但我的亲身经历是,每次访问中国的企业,无论是在上海还是北京,我总能感觉到有两个建筑:一个是他们带我参观的,另一个则是他们从不展示的。在他们的体制下,军事和民用之间没有明确界限,这就是所谓的军民融合。

我完全相信他们的所有监控、AI和监测技术都被用于国家安全目的。

美国的情况则不同。我们主要依赖——我和Ash Carter在这方面投入了大量精力——依赖主要承包商和其他系统集成商。几乎没有一家公司真正精通软件开发,这也解释了为什么他们的产品如此难用。它们本质上是硬件公司。

实际上,五角大楼的组织架构也是以硬件为导向的。尽管Michael和我为此付出了很多努力,虽然获得了赞誉,但实质性的变化并不明显。

正是因为这个原因,现在有很多初创企业开始涉足国防技术领域。这些企业技术先进,正在解决无人机、传感器以及其他前沿领域的问题。但这些初创企业正在经历"死亡谷"阶段。

对新一届政府,我的建议很简单:你们必须解决这个问题。现在私营部门确实有一批想要解决这些问题的人才。能力是具备的,但我们还没有实现有效整合。

Graham Allison:

补充一点,Eric,您能否帮助我们思考一下贝尔弗中心(Belfer Center)可以研究的一个课题:

我们如何协调这样一个现实——目前有约一千家创新型小企业在前沿领域开展工作,但同时还存在着那个按传统方式运作的"大楼"?

Eric Schmidt:

你不是在五角大楼工作吗?

Graham Allison:

是的,没错。

Eric Schmidt:

但你没能改变它。

Graham Allison:

你能看到一些变化。

不,确实如此。Ash也在那栋楼里工作过。你能看到那栋楼的惯性,它的文化,各个部门及其核心运作方式。这些你都很熟悉。

我认为我们应该自问:面对这种新的发展态势,它将如何应对?

现实就摆在眼前。我们既要维持现状,又要管理边缘创新,这该如何平衡?

有一些值得关注的案例,比如Replicator计划——这些复制器无人机和...

Eric Schmidt:

由于我的哈佛背景以及与Ash等人的关系,我现在在军事战略领域投入了大量精力。

如果你去过乌克兰——我已去过多次——你就能看到未来战争的雏形。乌克兰独立时既无海军又无空军,不得不即兴创新。

他们凭借勇气开发出了强大的无人机系统来弥补空军的缺失。他们还开发了高效的海军无人机系统——如"海宝宝"(Sea Baby)等——成功摧毁了部分俄罗斯舰队,为黑海粮食运输开辟了通道。

这些成就来之不易,付出了巨大的代价和非凡的勇气。

因此,思考未来国防的一种方式是,设想一个传统作战形式——比如"驾驶员驾驶战斗机"——变得不再重要的世界。

顺便说一句,我们上一次真正的空战还是在50年前。现在人们主要使用导弹作战。这话可能有些武断,但确实如此。

在国家防卫领域,正确设定优先事项和构建架构比以往任何时候都更加重要。现在是重新设计国家安全体系的时机,要围绕自主系统构建防卫体系,使其更高效、更精确、造成更少附带损害,最重要的是——通过让我们勇敢的士兵远离危险来确保他们的安全。

我深深敬佩军方的工作,但现在是时候彻底改革他们的架构了——为了提升他们的安全性和作战能力。

Graham Allison:

我们还可以继续讨论,但时间已经不早了。Eric今早才从欧洲飞来,待会儿还要继续飞行。

Eric Schmidt:

能来这里是我的荣幸。再次感谢你,Graham,促成了这次活动。对我而言,能在哈佛开启对亨利最后一本著作的讨论意义重大。

Graham Allison:

好吧,我们希望你会想:"也许我可以每周来一次...也许可以每天来...也许可以开设一门课程。"

让我们一起向Eric说声"非常感谢!"

----------

参考资料:Eric Schmidt. "Genesis: AI, Hope, and the Human Spirit." YouTube, November 18, 2024. https://www.youtube.com/watch?v=xMvPuRfXOdM.




--【本文完】---

近期受欢迎的文章:
  1. AI存储指南:解析AI管道中的存储类型
  2. 消除SSD网络文件系统性能瓶颈
  3. 面向大规模部署的ZNS SSD
  4. 突破“内存墙”:基于CXL技术的SSD
  5. 下一代生成式AI基础设施:存储与网络



更多交流,可加本人微信

(请附中文姓名/公司/关注领域)

继续滑动看下一个
Andy730
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存