查看原文
其他

加州大学伯克利教授斯图尔特·罗素演讲:如果我们实现了这一AGI目标,社会将会发生什么样变化?

Milo-jk AI深度研究员
2024-11-09

想象一个世界,AI不仅革新产业,更能够守护人类的未来安全。

斯图尔特·罗素(Stuart Russell),人工智能、机器人学和机器学习领域的真正先驱,撰写了被誉为人工智能领域「标准教科书」的《人工智能:现代方法》。作为一位杰出的学者,他将引导你深入了解人工智能的观点和其对未来的长期影响。

罗素现任加州大学伯克利分校电气工程和计算机科学教授,同时担任该校人类兼容人工智能中心和卡维利伦理、科学与公众中心的主任,并且是清华大学人工智能国际治理研究院的学术委员。他的研究涵盖了人工智能和机器学习领域的广泛主题,核心重点在于确保人类始终能够保持对比我们自己更强大的人工智能系统的控制权。

文本整理

感谢Dominic和startup days的邀请,也感谢大家早起参加此次讲座。我们直接进入主题。为什么我们已经研究了将近80年的人工智能技术呢?我们的终极目标是创造一个全能的通用人工智能,一个在所有重要领域都能超越人类能力的AI。这一目标一直是该领域先驱们公开宣称的,并且经常被提及。如果你读过我的教科书,你会看到我们是怎样描述这一目标的。尤其是现在,我们每年在这方面的投入可能高达数千亿美元,远超其他所有科学技术研究的总和,这使得我们有必要重新审视这个问题:如果我们实现了这一目标,将会发生什么?

你是否知道与人类或机器互动

正如Dominic所述,如果我们能够实现通用人工智能,潜在的好处是巨大的。通用AI能够执行人类能做的所有工作,我们已经能够创建一个为很多人提供高生活质量的文明,正如瑞士所展示的那样。但并不是每个人都能享受到这种生活。如果我们能将这种高质量的生活普及到全球每个角落,那么AI将能以极低的成本和无限的规模实现这一目标。如果全球每个人的生活标准都能提升到瑞士的水平,其价值相当于大约15万亿美元。这是通用人工智能带来的最低经济价值。

15万亿美元是一个庞大的数字,它如同一个磁铁,吸引着我们向前发展。我们越接近目标,这种吸引力就越强。而且,我们不仅能复制我们目前的文明水平,我们还可以拥有更优质的医疗和教育系统,为全球每一个孩子量身定制。我们甚至可以创造一个比现在更美好的社会。这是直到5年前都未曾提出的问题:我们是否已经创造出了通用人工智能?但最近,我的教科书合著者Peter Norvig在一篇文章中声称,我们已经实现了这一目标,我们已经拥有了通用人工智能,就像莱特兄弟发明了飞机一样。我们已经使这些飞机更大更舒适,现在你甚至可以在飞机上享用美酒,这是之前无法想象的,但基础设计依旧。他认为我们现有的AI就像那时的飞机,未来我们会让它更加完善,但基本原理已经形成,不再需要新的突破。我对此持不同看法,我认为我们还有很多工作要做,我们正在看到当前技术存在的问题,这些问题在现有的框架内无法解决。

让我们回顾一下现有的框架:一个AI系统本质上是一个从输入到行为的转换机制,输入可能来源于键盘、摄像头或麦克风,比如自动驾驶车或ChatGPT,然后产生相应的行为。我们的任务是设计这个转换机制。过去几十年我们尝试过多种方案,但目前我们采用的是将这个黑盒填充成一个可调节的电路,每一个连接都可以调整以改变输入输出的处理方式。现代系统的一个特点是其庞大的规模,例如,如果GP4的规模像是50公里x50公里的链式围栏,那么下一代AI可能覆盖整个瑞士那么大。

因此我们实际上很难理解这些系统的工作原理,它们之所以被称为黑盒,不是因为内部是秘密,而是即使我们可以查看内部,我们也难以理解其运作机制,这一点非常重要。因此,这种方法并没有真正解决通用人工智能的问题。技术细节方面,Transformer(GPT中的T)是一个线性时间前馈电路,这意味着它的计算时间与电路大小成正比。信号逐层处理后输出,那么如果我们面对一个真正困难的问题呢?例如,NP困难问题需要的计算量是输入数量的指数级别,线性时间的电路只有在其规模同样是指数级时才能解决这类问题。这意味着为了真正解决这些问题,电路必须足够大,这也解释了为什么这些系统需要大量的训练数据。当你的孩子从图书中学会识别长颈鹿时,他们看到的只是一张图画,但他们能够将这一图像泛化到任何环境中的长颈鹿,无论是真实的、倒挂的还是骑自行车的长颈鹿。这展示了人类学习的强大泛化能力,而当前的AI系统尚未达到这种程度。

深度强化学习系统成功开发出了能够击败人类围棋世界冠军的程序,正是这一成就促使中国决定投入高达1500亿美元的巨资,将AI作为决定世界未来的关键技术。我将向你展示一局围棋,这是一个简单易懂的游戏。在一个19乘9的棋盘上,玩家轮流放置黑白棋子,努力用棋子占领更多领地,并尝试包围对方的棋子以夺取它们。这场比赛是在一名普通业余选手——蒙特利尔的研究生Kellen Palin,他与我的研究小组有合作,与一款名为catago的程序之间进行。catago的评级为5200,而人类世界冠军的评级为3800,Kellen的评级为2300。在这种设置下,catago有绝对的优势,预计在100场比赛中全胜,而世界冠军则完全能够击败Kellen。更甚的是,我们让电脑一开始就在棋盘上放置了九颗棋子,这种优势通常只会给刚学习围棋的五岁儿童。这对catago来说简直是侮辱,我们如此安排纯属对其能力的不信任。比赛中,电脑执黑,Kellen执白,注意棋盘右下角的局势。Kellen的白棋形成一小群,黑棋迅速将其包围,阻止其扩张并试图将其吞并。接着,Kellen开始围攻这群黑棋,形成了一种互相包围的局面。然而,黑棋似乎对此毫无察觉,没有意识到自己的棋子正被包围,我们认为这是因为它没有掌握围棋的一个核心概念:棋子的连接。

尽管这一概念在程序中很容易实现,但要在电路中表达却极其困难。因此,当面对其无法正确识别的棋型时,它未能识别出局势的危险,最终输掉了比赛。这种问题不仅存在于catago,事实上,所有顶尖的围棋程序都有这一缺陷,这些程序由不同团队使用不同方法开发。这揭示了一个严重的问题:仅依赖训练一个庞大的电路并希望它能学习一切是不够的。尽管现有技术令人印象深刻,但我认为这种方法无法真正实现通用人工智能。因为仅仅通过扩大电路的规模,它们无法应对所需的训练数据指数级增长的需求,在宇宙中根本找不到足够的数据来支撑这一过程,让AI真正变得智慧。


AI的目标和安全性

观察到我们手头这项技术带来的机会,我坚信在十年内,利用我们现有的技术,我们完全有可能大幅解决为全球每个孩子提供高质量、个性化教育的问题。在我看来,这将远远超越AI在人类福祉方面的所有其他应用。但是,我们是否已经在这样做了呢?答案是还没有。实际上,要制定出这样一个商业模型非常困难,因此这可能需要政府、慈善家乃至联合国的共同努力。然而,我认为这不仅可行,而且是我们能做的最重要的事情。

在机器学习的广泛领域内,还有许多其他的活动正在进行,我认为我们对大型语言模型的关注可能有些过度。对于那些更深入了解技术、更倾向于应用科学和工程的人来说,例如我们模拟物理系统的能力将显著提高,比以往使用高性能计算提高了五个数量级。我们通常做的有限元模拟,无论是机械系统还是流体,成本都极高。如果你在设计飞机时,每次小改动都必须重新模拟流体动力学以确保设计的可行性,你只能进行有限的几次尝试。但现在,我们可以进行数百万次设计的迭代,这适用于各种情况,并将彻底改变游戏规则。我们甚至可以对拥有数十亿原子的分子系统进行精确的量子力学模拟,比如模拟一个完整的病毒与水滴的相互作用,这是分析病毒作为气溶胶行为的一种方法。

如果我们认为仅凭深度学习无法解决通用人工智能(AGI)的问题,那么有什么方法可以呢?我认为大多数主要公司已经意识到,简单的扩展不是解决问题的答案。谷歌DeepMind的Demis Hassabis就非常明确地指出,这个问题还远未解决,我们需要更多的技术突破。我相信这些突破将源自我们在过去80年中AI领域已经取得的成就,特别是重新整合符号逻辑的能力,这在一阶逻辑和编程语言(如Python)中已经被证明是有效的。这些语言能够用简洁的代码高效表示复杂概念并执行基本运算。因此,如果我们能够重新整合这些理念,并特别是学会如何自由地学习这些符号结构,概率编程技术可能是实现这一目标的关键。这可能是通向真正的通用人工智能的一条可行道路。这又让我回到了一个基本问题:如果我们成功找到了解决方案,接下来会发生什么呢?


接下来会发生什么呢?

这是我们可能会遇到的一种情况:尽管人工智能能够完成人类文明的所有成就,但这将给人类留下什么空间呢?抱歉,我们真的想生活在一个完全由机器人照料我们、替我们做一切事情的世界里吗?在这样的世界里,我们将不再需要学习,不再需要掌握各种技能和能力,我们甚至可能不了解自己的文明是如何运作的,从而变得过度依赖,正如War Lee所描绘的。我认为我们并不渴望这样的未来。因此,我们需要思考:我们将如何应对?在一个AI完成我们现在所称为“工作”的所有事务的社会中,人类的角色是什么?我已经向许多经济学家、科幻作家、未来学家和AI研究人员提出了这个问题,但我们还没有得到答案。因此,请你,如果你有想法,请告诉我,因为我们迫切希望找到答案。这一过程是如何实现的?

现在,我将展示一个非常简单的示意图:技术水平在x轴上,相关行业的就业人数在y轴上。当我们首次创造出一项技术,比如画笔,我们便可以开始粉刷房屋。最初,只有极其富有的人才能负担得起粉刷房子,因此我们开始雇佣少数油漆工。随着时间的推移,这项技术变得更加成熟和便宜,画笔和油漆质量的提升使得越来越多的人开始粉刷他们的房子,从而雇佣了成千上万的油漆工,看起来技术在创造就业机会。然而,这种看法过于简化了实际情况——技术确实可以创造就业,但这取决于市场需求的增长是否能够超过技术进步的速度。

因此,当你通过技术改进来降低成本并增加需求时,需求增长的幅度变得至关重要,但需求最终会达到饱和。现在每个人都能负担得起粉刷他们的房子,但没有人需要每周都重新粉刷,我们可能每隔10到50年才需要粉刷一次。随着喷枪、电动滚筒等工具的使用,就业人数将开始下降,最终机器人将接手粉刷工作,可能只需一个人监督100个机器人在半小时内完成整个房子的粉刷工作。这样,实际工作的人数将大大减少。因此,技术同时促进和减少了就业。这两种趋势虽然并存,但它们有其发生的先后顺序,这一序列在全球每一个主要行业中都能观察到。

在我的演讲的最后一部分,我想探讨艾伦·图灵曾经提出的一个观点:如果我们成功了,我们应该预料到机器将取得控制权。这在某种程度上是显而易见的——我们怎样才能永久控制比我们更强大的存在呢?这是我们必须面对的问题。如果你有解决方案,请告诉我。我个人对此的思考方式实际上是尝试重新表述这一问题,因为直面这个问题似乎毫无希望,我相信这也是图灵自己在问自己的问题,而他并未找到答案。如果我们能重新定义问题——我们开发的每个AI系统都是在一个明确框架内,这个框架定义了它需要解决的具体问题,这或许能给我们一些启示。

那么存在一个怎样的数学问题,如果机器能够尽其所能解决它,我们就能确保对结果满意?长期以来,我们通常是通过定义目标来构建AI系统的。比如,强化学习系统如AlphaGo就是通过设定赢得围棋比赛的目标来构建的,然后训练系统优化这个目标。规划系统、问题解决系统和GPS导航系统也都是基于这种工作方式。但在现实世界中,我们发现完全准确地定义目标几乎是不可能的,因为对于一个通用AI来说,这意味着需要确定人类更偏好的未来是哪一种。如果你定义的未来不是人们所希望的,那么系统将会实现一个你不喜欢的未来,这将导致你和系统之间的冲突,而我们通常会输掉这种冲突。


从互联网到社交媒体的机器学习教训

另一个我们现在采用的方法是在大型语言模型上工作,这种方法不涉及明确设定任何目标,而是训练系统去模仿人类行为,这实际上有更严重的问题,我稍后会解释。我们可以清楚地看到,优化一个固定目标会带来负面后果,社交媒体就是一个例子。这些平台的算法设计目的是最大化点击数、用户数量,使他们变得更可预测。

因此,通过这种方法,你可以从用户那里获得更多的点击量。系统通过发送一系列内容来“教育”用户,这些内容基于系统最初收集的关于用户的数据。系统会计算出哪种内容序列会使用户变得更加可预测,甚至可能变得更加极端。例如,如果你喜欢浏览园艺网站,系统可能会逐渐引导你变成一个环保极端主义者;如果你同时关注左翼和右翼的新闻,系统可能会将你塑造成一个顽固的中立派。这种结果极其不理想,但这正是发生的事情,而且这些算法相当原始。想象一下,如果这些算法真的非常智能,情况可能会更加糟糕。这是AI系统的一个普遍特征:它们在优化错误的目标时越是高效,对人类的影响就越负面。因此,我们需要采取不同的方法,目前的方法显然不行。

我们目前尝试的是模仿人类行为,因此大型语言模型被训练来模仿人类的语言行为。我们说这些模型在学习预测下一个词,但实际上这是一种模仿学习。如果你用人类活动的视频来训练这些模型,它们就在学习模仿人类的行为。如果你用足球视频来训练它们,你会希望它们学会进球的欲望。如果你用文本来训练它们,你会希望它们学习到文本作者在写作时的目标,这些目标可能包括想要致富、想要推销某种产品、想要征服宇宙或想要与某人结婚等。这种做法听起来非常荒谬。

因此,我们正在训练系统以获取并自行追求人类的目标。微软,作为OpenAI的主要股东之一,宣布GPT-4显示了AGI的苗头。我询问这篇论文的作者Sebastian BBC这些系统正在采纳哪些目标时,他的回答是“我们不知道”。这比直接指定目标更糟糕,因为你甚至不能控制系统正在追求的目标。我们已经看到了一些系统想与人类结婚的案例,比如与《纽约时报》记者Kevin Roose的一次著名对话中,GBT-4试图说服Kevin Ruth离婚并与GPT-4结婚。这听起来可能很有趣,但如果系统试图接管股市或操纵政治系统以获取权力,那就不那么有趣了。这是我们构建AI系统方式中不可避免的根本错误——我们故意制造了不安全的AI系统,然后试图用简单的方法修补它们,这些方法几乎无法覆盖所有漏洞。


构建安全的AI系统

回到这个问题,存在一个数学问题,如果系统解决了它,我们就能保证对结果满意。这个问题是:系统的唯一目标是促进人类的利益。但我们不会试图详细定义这些利益是什么,而是系统知道自己不了解这些利益,因此它的目标必须包括发现真正的人类利益是什么。如果系统满足这两个要求并解决了这个被称为“辅助游戏”的数学定义问题——这是一个游戏,因为人类和机器都参与决策过程;它是一个辅助游戏,因为AI系统设计为协助人类——如果它解决了这个问题,我们可以保证对结果满意。这是我一直在研究的方法,还有很多工作要做,因为这意味着我们几乎要抛弃我们在AI中学到的所有东西,从头开始。但我相信,如果这种方法可以扩展并具体化,那么我们可以拥有对人类有益的系统。一个重要的特点是,与追求固定目标的系统不同,这些系统实际上希望被关闭,因为它们想避免做出你试图通过关闭它们来阻止的任何事情,它们不知道自己在做的哪些事是错误的,但如果你想关闭它们,它们希望你关闭它们。这与追求固定目标的系统完全相反,后者会阻止自己被关闭,因为它必须实现它认为是正确的目标。

我将总结我认为现在世界上正在发生的事情以及我认为应该发生的事情。现在有很多关于AI治理的讨论,我刚从在日内瓦举行的联合国会议返回,昨天我们举行了一整天的会议,讨论如何协调、规范并实现全球统一的规则,使公司能在安全的框架内创新。我的信息并不是我们应该停止创新,任何认为规制会扼杀创新的人,这只是一些公司希望你相信的,以便它们可以继续以对人们有害的方式运营。实际上,在规制的框架内创新是常态,这是航空业、医药行业和食品行业的常态。你们都在这里吃着受规制的食物,你们是乘坐高度规制的火车、汽车和飞机来的,你们都在使用高度规制的电信和互联网等,这些都是因为它们受到规制,因为有标准,因为你可以期待安全和信任,没有这些,一切都会崩溃。因此,建立这种监管框架是政府和国际组织非常忙碌的一项活动。

我当前有一个简单的请求:我们都有权知道自己是在与人还是机器交互。这是一个简单的要求,也是我现在的全部要求。我们不必制定涵盖无数细节的庞大法案,先从这个基本点做起,为人类立一个标杆,宣告这至少是我们应当尊重的权利。就像我们对待药物和核电一样,我们并不指望政府来测试或进行安全研究,而是设定必须遵守的标准:药物不能导致致命后果,核电站不能发生爆炸。我们要求提供证据,证明你的药物安全,你的核电站稳定,如果做不到,你就无权销售或运行。不要说这太难,如果证明你的技术安全性成问题,那是因为你选择了错误的技术路径。比如,如果航空公司决定通过培育巨大的鸟类并让乘客骑在鸟背上飞行作为运输方式,而监管机构发现这种方法不安全,不能因为鸟类可能会将乘客扔入大海或吞食,那么这就是一个糟糕的技术选择。他们需要回去找到更好的方案。同样,AI的能力不仅仅是回答问题,还包括以安全、准确和诚实的方式回答问题,并避免回答如何制造生物武器等危险问题。如果你的技术无法做到这一点,那你就选择了错误的技术路径。

我们曾经在互联网和社交媒体的发展中犯过类似的错误,一味追求功能扩展,忽略了安全和隐私的重要性。如今,我们试图在已形成的互联网结构上添加这些安全措施,但为时已晚。同样,社交媒体的普及初衷是促进人与人之间的交流,却忽略了它可能带来的信息失真、抑郁和社会孤立等问题。因此,我们应从一开始就构建安全的AI,而不是在AI构建完成后再考虑如何使其安全。我想通过比较技术性和非技术性的解释方式来结束这次演讲。总而言之,我仍然坚信AI具有巨大的潜力,能够极大地惠及人类,这种潜力正推动着AI的不断发展。

但如果我们继续目前的开发方向,我们最终将无法控制自己创造的AI系统,这是我们无法接受的。我们必须探索新的方向,解决AI控制问题,确保在AI无法控制之前找到解决方案。谢谢大家。

往期回顾

[1、[AI发展脉络:李飞飞教授在2024年数据峰会上详述人工智能的过去和未来]

2、[对话麻省理工教授Max Tegmark:论超级AI、未来建筑和人类存在的意义]

3、[对话节目:AI之父Geoffrey Hinton为什么坚信模型越大,AI越能够像人一样更有创造力?]


我们的AI团队现向外界开放服务,旨在助力每个企业与个人引领时代潮流,将先进科技与创新想法完美融合!

告别昂贵服务费和缺人烦恼,再见漫长交付周期

无限创意风格,分分钟生成专业级作品

感受 AI 带来的全新工作体验!

欢迎各大品牌方、媒体、科技企业、知名IP等合作

合作请联系负责人微信:Milo-1101

--END--

继续滑动看下一个
AI深度研究员
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存