几天前,哈萨比斯(Demis Hassabis) 领导的谷歌DeepMind发布了Gemini Pro 1.5,百万token的上下文还未等炸裂,老对手OpenAI几小时后即推出了文生一分钟视频模型Sora,迅速抢去了风头。按谷歌说法,百万token的上下文窗口,可以处理一小时视频。《连线》杂志很快采访了哈萨比斯,讨论了AI未来的发展方向。在谈话中,哈萨比斯点出他所领导的谷歌Deepmind与OpenAI的不同:谷歌DeepMind更注重基础研究,发明了多数机器学习技术,寻求模型扩展之外的方法来解决通用人工特智能面临的问题,注重研究计算本身,而不是在一些短期的“玩具”项目。字里行间,显得OpenAI更注重工程去将研究成果快速做成产品进行展示,更加注意用蛮力去“涌现”出答案。但有一点两家是共同的,都在重点研究智能代理系统。哈萨比斯透露,今后DeepMind将会提前发布新技术进行小范围测试。下面是记者Will Knight采访的部分问答编译:
- Gemini Pro 1.5能够处理的数据量远远超过其前身。得益于一种称为“专家混合”的架构,模型也更加强大。为什么这些特点很重要?
你现在可以处理一个相当大的短视频。我可以想象,如果你在学习某个主题,并且有一个一小时的讲座,你想要找到一个特定的事实,或者他们之前何时都做了些什么,这会非常有用。我认为这将有很多非常酷的用例。我们发明了专家混合——这要归功于[Google DeepMind首席科学家]Jeff Dean——并且我们开发了一个新版本。这个新的Pro版本的Gemini,尽管还没有进行广泛的测试,但其性能大致与上一代架构中最大的模型相当。用这些创新创造一个Ultra大小的模型,对我们来说没有任何限制,显然,这是我们正在努力的方向。- 在过去几年中,增加在训练人工智能模型中使用的计算能力和数据量,推动了惊人进步。据说Sam Altman正寻求筹集高达7万亿美元用于更多的AI芯片。大量增加计算能力,真的能解锁通用人工智能吗?
那是不是被误引了?我听说有人说可能是日元之类的。好吧,你看,确实需要扩展;这就是Nvidia今天的价值所在,这就是为什么Sam试图筹集随他愿意讲的金额。但我认为我们与很多其他组织有些不同,因为我们一直首先是基础研究。在Google研究、Brain和DeepMind,我们过去10年做出了开创性工作,发明了我们今天所有人都在使用的大多数机器学习技术。所以,这一直是我们的DNA的一部分,我们有相当多的高级研究科学家,可能其他组织没有。这些其他的初创公司甚至大公司里,工程相对研究科学占有更大的比重。我认为,要达到通用人工智能(AGI),除了大大规模地扩展,你可能还需要几项更多的创新。我们没有看到任何放缓的迹象,也没有看到正在接近极限之类的东西。仍然有进步的空间。所以我的观点是,你得推动现有技术,看看它们能走多远,但你不会仅仅通过扩展现有技术就获得新的能力,比如规划、工具使用或类似代理的行为。这些不会神奇地发生。你需要探索的另一件事是计算本身。理想情况下,你会希望只需要几天训练时间,在玩具问题上进行实验,但你通常会发现,在玩具上有效的东西,在巨大规模上不一定成立。因此,有一种甜蜜点,你可以在那里或许将规模扩大10倍。- 这是否意味着,从现在开始,AI公司之间的竞争将越来越多地围绕工具使用和代理——AI要做事,而不仅仅是聊天?据报道,OpenAI正在研究这方面。
很可能。我们在这条路上已经走了很长时间;这实际上是我们的主要业务,代理、强化学习和规划,从AlphaGo时代开始就是如此。[2016年,DeepMind开发了一种突破性算法,能够解决复杂问题并玩复杂游戏。]我们正在重新考虑许多想法,想到某种AlphaGo能力的组合建立在这些大型模型之上。内省和规划能力将有助于解决像幻觉这样的问题,我认为。这实际上很有趣,如果你说“更加小心点”或“列出你的推理”,有时模型会做得更好。这里发生的事情是,你在引导它更加逻辑地思考它的步骤。但你更希望这是系统正在做的一种系统性的事情。这绝对是一个巨大的领域。我们正在投入大量时间和精力到这个领域,我们认为这将是这些类型系统能力的一个质的飞跃——当它们开始变得更像代理时。我们正在大力投资这个方向,我想别人也是如此。我一直在安全论坛和会议上说,这是一个重大的变化。一旦我们让类似代理的系统工作起来,AI将与当前的系统感觉非常不同,因为它们会突然变成主动学习者,而当前的系统基本上是被动的问答系统。当然,它们也会更有用,因为它们将能够为你执行任务,实际上完成它们。但我们将不得不更加小心。我一直主张在我们将代理放到网上之前,先在加固的模拟沙盒中测试代理。还有许多其他提议,但我认为行业应该开始真正思考这些系统的到来。也许是几年后,也许更早。但这是不同类别的系统。- 你之前说测试你最强大的模型,Gemini Ultra,花了更长的时间。这仅仅是因为开发速度的原因,还是因为模型实际上更有问题?
实际上两者都有。首先,模型越大,当你微调它的时候,有些事情更复杂,所以需要更长的时间。更大的模型也有更多需要测试的能力。希望你注意到的是,随着Google DeepMind作为一个单一组织的稳定下来,我们会提前发布东西,并且将东西以实验性的方式发布给少数人,看看我们信任的早期测试者会告诉我们什么,然后我们可以在普遍发布之前加以修改。- 说到安全,你们与英国AI安全研究所等政府机构的讨论进展如何?
进展不错。我不确定我能说些什么,因为这一切都有点机密,但他们当然可以访问我们的前沿模型,他们也在测试Ultra,我们继续与他们紧密合作。我认为美国的对应机构现在正在建立。这些都是布莱切利公园AI安全峰会的良好结果。他们可以检查我们没有安全许可去检查的东西——CBRN[化学、生物、放射性和核武器]的东西。就当前这些系统而言,我不认为它们真的足够强大到可以做任何实质性的令人担忧的事情。但现在就在所有方面,如政府方面、行业方面和学术界,建立这种能力是好的。我认为可能代理系统将是下一个重大的变化。我们会看到这一方向的渐进式改进,可能还会有一些很酷的、重大的改进,但那就会感觉不同了。
来源:https://www.wired.com/story/deepmind-ceo-demis-hassabis-interview-artificial-intelligence-scale/