视频+全文翻译:Lex Fridman访谈Sam Altman的记录
这是我与 Sam Altman ( @sama ) 的对话,这是他第二次参加播客。我们谈论董事会传奇、Elon 诉讼、Ilya、Sora、GPT-5、7 万亿美元的计算、开源和 AGI。这是一次真正令人着迷的谈话。
视频如下:
时间戳:
0:00 - 简介
1:05 - OpenAI 董事会传奇
18:31 - 伊利亚·苏茨克韦尔
24:40 - 埃隆·马斯克诉讼
34:32 - 索拉
44:23 - GPT-4
55:32 - 内存和隐私
1:02:36 - 问*
1:06:12 - GPT-5
1:09:27 - 7 万亿美元的计算量
1:17:35 - Google 和 Gemini
1:28:40 - 跳转到 GPT-5
1:32:24 - AGI
1:50:57 - 外星人
原文昨天已经放到知识星球
以下为译文
SOP:网上下载视频,交给通义听悟音频转文字,然后月之暗面翻译:
顺手让kimi输出了要点markdown格式,做了个思维导图
这份文件是一段关于Lex Fridman访谈Sam Altman的记录。Sam Altman是OpenAI的首席执行官,该公司是GPT-4、ChatGPT、Sora等产品的幕后推手,也许有一天还会构建出真正的通用人工智能(AGI)。以下是访谈的主要内容:
发言人1 (Sam Altman):
计算将成为未来的货币,可能是世界上最受欢迎的商品。到这个十年末,我们可能会拥有非常出色的系统。 构建AGI的竞赛将是一场巨大的权力斗争。 OpenAI的董事会事件是我职业生涯中最痛苦的经历,充满了混乱、羞耻和沮丧。 我认为在OpenAI成立和我们创建AGI之间的某个时候,会发生一些疯狂和爆炸性的事件,但可能还会有更多疯狂和爆炸性的事件发生。我认为这帮助我们建立了韧性,为未来的更多挑战做好了准备。
发言人2:
你是否觉得在权力斗争中有所体会? 你是否认为董事会成员是善意的? 你认为董事会是否应该有这么多权力? 你对新董事会的组成有何看法?
Sam Altman:
我认为董事会应该有很大的权力。但在非营利组织的董事会中,除非制定其他规则,否则它们拥有相当大的权力,而且不必向任何人负责。 我们正在考虑如何让OpenAI的董事会更多地向全世界负责。 我们增加了一些新的董事会成员,但还不是最终的董事会。 我们正在寻找具有不同专业知识的董事会成员,不仅仅局限于技术领域。
发言人2:
你对董事会的审议过程有多深入的了解? 你认为董事会是否过于强大? 你对新加入董事会的成员有何看法?
Sam Altman:
我认为董事会成员总体上是善意的。在压力大的情况下,人们会做出次优决策。 我们确实需要一个能够在压力下运作良好的董事会和团队。 我们正在学习如何构建一个有韧性的组织,以及如何建立一个能够承受世界压力的结构。
发言人2:
你是否有考虑过,如果OpenAI达到了AGI或者开发出了一些极具影响力的产品,你将如何与董事会进行对话?
Sam Altman:
我认为我们需要一些技术专家,也需要一些能够思考如何以最有利于世界和人类的方式部署这些技术的人。 我们希望董事会能够代表不同的专业知识,包括非营利组织的经验、公司运营、法律和治理方面的专业知识。
发言人2:
你是否在寻找具有技术敏锐度的个人董事会成员?
Sam Altman:
对于某些董事会成员来说,技术敏锐度是必要的,但并不是每个人都需要。
发言人2:
你是否根据他们的履历来选择董事会成员?
Sam Altman:
履历非常重要。当然,我们会进行很多对话,但在某些角色中,我更关注他们的潜力而非履历。
发言人2:
你是否尝试将多项式或指数函数拟合到履历上?
Sam Altman:
那不是一个可以延伸很远的类比。
发言人2:
你在那个周末的低谷时期有哪些心理体验?你是否考虑过消失在亚马逊丛林中,永远不再出现?
Sam Altman:
那是一段非常艰难的时期,我感到非常沮丧。但总的来说,那个周末充满了爱,而不是愤怒或仇恨。
发言人2:
你提到了Mira Muratti,你能分享一下你对她的看法吗?
Sam Altman:
Mira在那个周末做得很好。但我真正重视的是领导者在日常的无聊周二早上9点46分的表现,以及他们在会议中的表现和决策质量。
发言人2:
你的意思是,大部分工作是在日复一日的会议中完成的,只需要到场并做出伟大的决策。
Sam Altman:
是的,OpenAI真正关注的是过去的七年,而不是那个戏剧性的周末。
发言人2:
人类文明不是关于苏联的入侵,而是关于纳粹德国,但人们仍然关注这些极端情况。
Sam Altman:
这是非常可以理解的。
发言人2:
让我们回到Elia的问题,他是否被关在一个秘密的核设施里?
Sam Altman:
不是。
发言人2:
那是一个普通的的秘密设施吗?
Sam Altman:
也不是。
发言人2:
那是一个非秘密的核设施吗?
Sam Altman:
都不是。
发言人2:
那么,你和Elia的关系现在如何?
Sam Altman:
我非常尊重Elia,我希望我们能在未来继续合作。Elia非常关心AGI和安全问题,我认为他是人类的宝贵财富。
发言人2:
你是否认为Elia已经看到了AGI,并且这让他非常担忧?
Sam Altman:
Elia还没有看到AGI,我们都没有。他非常认真地考虑AGI对社会的影响,并且我们一直在讨论如何确保我们正确地处理这个问题。
发言人2:
你有关于他为什么一直保持沉默的想法吗?
Sam Altman:
我认为Elia总是在进行自我探索,这是一种非常好的方式。
发言人2:
你对他是否即将回归OpenAI有何看法?
Sam Altman:
我不想代表Elia发言,但我希望我们能继续合作。
发言人2:
让我们总结一下整个事件,你对董事会的结构和发展方向感觉如何?
Sam Altman:
我对新的董事会结构感到非常满意。我们从这个过程中学到了关于结构的教训,并且我们希望董事会能够更加强大。
发言人2:
这场斗争是否让你在信任他人方面变得更加犹豫?
Sam Altman:
我一直是一个非常信任他人的人。这次事件确实让我感到震惊,我确实对此感到不满。它确实改变了我对默认信任他人的看法,以及为糟糕情况做计划的方式。
发言人2:
你担心变得太愤世嫉俗吗?
Sam Altman:
我不担心变得太愤世嫉俗。我认为我恰恰相反,但我担心变得不那么默认信任他人。
发言人2:
我实际上不确定哪种模式对于开发AGI的人来说更好,是信任还是不信任。所以这是一个有趣的旅程。但在结构方面,我更感兴趣的是人性层面。你如何围绕自己建立一个团队?他们正在构建很酷的东西,同时也在做出明智的决策,因为随着你开始赚钱,权力的增加,人们的行为会变得越来越奇怪。
Sam Altman:
我认为能够与我每天一起工作的人给予我巨大的信任和尊重。我认为被这样的人包围真的很重要。
发言人2:
我们共同的朋友Elon起诉了OpenAI。关于他批评的本质,他在多大程度上是正确的?在多大程度上他是错误的?
Sam Altman:
我们最初只是想成为一个研究实验室,不知道这项技术会发展成什么样。在语言模型成为大问题之前,在我们对API或销售聊天机器人的访问权限一无所知之前,在我们对产品化一无所知之前。所以我们就像,我们只是试图做研究,我们不知道我们会做什么。
发言人2:
我认为有很多新的、根本性的新事物,你开始在黑暗中摸索,你做出一些假设,其中大部分都是错误的,然后很明显我们需要做不同的事情,也需要更多的资本。所以我们说,好吧,这个结构不适合这个。我们如何修补这个结构,然后一次又一次地修补它?最终你得到了一个看起来相当粗糙的东西,但我们逐步到达这里,我认为每一步都有合理的决定。但如果我们能回到过去,带着一个预言者,我可能会完全不同地做这件事,但你当时没有预言者。无论如何,关于Elon真正的动机,我不知道。
发言人2:
你在多大程度上记得OpenAI在博客文章中对Elon的回应?
Sam Altman:
哦,我们只是说,你知道,Elon说了这一系列事情,这是我们对这种情况的描述,或者这不是我们对这种情况的描述,这是对这种情况的描述。我们试图不做情感化,只是简单地说,这是历史。
发言人2:
我确实认为Elon在这里有一定程度的误解,你刚才提到的一点,即你当时所面临的不确定性程度。
Sam Altman:
就在不久之前?当Elon疯狂地谈论发射火箭时,人们嘲笑这个想法。所以我认为他应该对此有更多的同理心。
发言人2:
我的意思是,我认为这里有一些个人因素,OpenAI和Elon之间有很多了不起的人选择了分道扬镳。所以这里有个人因素。
Sam Altman:
他选择了分道扬镳。
发言人2:
你能描述一下选择分道扬镳的确切情况吗?
Sam Altman:
他认为OpenAI会失败。他想要完全控制权来扭转局面。我们想要继续沿着现在已经成为OpenAI的方向前进。他还多次希望特斯拉能够建立一个AGI项目。我们不想这样做。他决定离开,这没关系。
发言人2:
所以你是说,其中一个问题是,他希望OpenAI基本上被特斯拉收购。是的,就像,或者可能比与微软的合作更激烈。
发言人1:
我的记忆是,提议就是被特斯拉收购,让特斯拉拥有完全的控制权。我很确定那就是提议的内容。
发言人2:
那么,当时“开放”一词对Elon意味着什么?Ilya在电子邮件交流中谈到了这一点。对你来说,当时它意味着什么?现在
它对你意味着什么?
发言人1:
我绝对会选择,回顾过去,我会选择一个不同的名字。 OpenAI正在做的最重要的事情之一是将强大的技术免费提供给人们作为公共利益。我们不会在我们的免费版本上投放广告,也不会以其他方式进行货币化。我们只是说,作为我们使命的一部分,我们希望将越来越强大的工具免费或低成本地交到人们手中,并让他们使用它们。我认为这种开放对于我们实现使命非常重要。
发言人2:
所以,如果我们可以继续将像GPT这样的强大AI工具免费或低成本地推向世界,无论是开源还是不开源,这对于我们实现使命都是非常重要的。是的,我认为我们应该对某些东西进行开源,而对其他东西则不然。这确实成为了一个难以有细微差别的宗教战线。
发言人1:
我认为对于小型模型,特别是人们可以本地运行的模型,开源模型绝对有一席之地。我认为将会有开源模型和闭源模型。这不会像其他生态系统那样不同。
发言人2:
我听了所有关于这场诉讼和所有这些事情的播客,他们更关心的是从非营利组织转变为营利组织的先例。这对其他初创公司来说是一个先例吗?
发言人1:
我会强烈劝阻任何考虑将公司设立为非营利组织并在后来增加营利部门的初创公司。我强烈反对这样做。我认为我们不会在这里设定一个先例。
发言人2:
好的,所以大多数初创公司应该只是...
发言人1:
肯定是营利性的。再次强调,如果我们知道会发生什么,我们也会这样做。
发言人2:
好吧,理论上,如果你在这里做得很漂亮,你可以...有一些税收激励或其他东西。
发言人1:
有税收激励或其他东西,但我认为这不是大多数人考虑这些事情的方式。
发言人2:
这不可能为初创公司节省很多钱,如果你这样做的话。
发言人1:
不,我认为有些法律会使这变得相当困难。
发言人2:
你希望这场紧张局势,这场舞蹈,未来1、2、3年会怎样?你和他的个人关系,像友谊、友好竞争,所有这些东西会怎样?
发言人1:
我非常尊重Elon。 我希望在未来几年里,我们能够有一个友好的关系。
发言人2:
是的,我也希望你们能有一个友好的关系,就像这个月一样,只是竞争,赢得胜利,一起探索这些想法。我认为这对每个人都是美好的。但关于开源的问题,你认为有很多公司在考虑这个想法吗?这很有趣。我会说,Meta出人意料地在这方面领先了一步,至少是迈出了第一步,真正开源了模型,当然,这不是最先进的模型,但是开源了Llama。
发言人1:
是的,我认为对于小型模型,特别是人们可以本地运行的模型,开源模型绝对有一席之地。我认为将会有开源模型和闭源模型。这不会像其他生态系统那样不同。
发言人2:
我听了所有关于这场诉讼和所有这些事情的播客,他们更关心的是从非营利组织转变为营利组织的先例。这对其他初创公司来说是一个先例吗?
发言人1:
我会强烈劝阻任何考虑将公司设立为非营利组织并在后来增加营利部门的初创公司。我强烈反对这样做。我认为我们不会在这里设定一个先例。
发言人2:
好的,所以大多数初创公司应该只是...
发言人1:
肯定是营利性的。再次强调,如果我们知道会发生什么,我们也会这样做。
发言人2:
好吧,理论上,如果你在这里做得很漂亮,你可以...有一些税收激励或其他东西。
发言人1:
有税收激励或其他东西,但我认为这不是大多数人考虑这些事情的方式。
发言人2:
这不可能为初创公司节省很多钱,如果你这样做的话。
发言人1:
不,我认为有些法律会使这变得相当困难。
发言人2:
你希望这场紧张局势,这场舞蹈,未来1、2、3年会怎样?你和他的个人关系,像友谊、友好竞争,所有这些东西会怎样?
发言人1:
我非常尊重Elon。 我希望在未来几年里,我们能够有一个友好的关系。
发言人1:
我希望在未来几年里,我们能够和Elon有一个友好的关系。我尊重Elon,希望我们能有像竞争那样的关系,只是建设性的、友好的竞争,共同推动这些想法的发展。
发言人2:
说到酷炫的事情,Sora真是令人惊叹,无论是在产品层面还是在哲学层面上。让我提出一些技术和哲学的问题,你认为Sora在理解世界方面比GPT-4更多或更少吗?例如,当训练这些补丁与语言标记时,世界模型是怎样的?
发言人1:
我认为所有这些模型在理解世界模型方面都比我们给予它们的信用更多,但同时也有很多事情它们就是不理解或做得不对。它们在某些方面工作得很好,而在其他方面则不行。我记得当我第一次观看Sora视频时,我看到一个人在几秒钟内走进某个东西前面,然后走开,而那个东西仍然在那里。我想,哦,它做得相当不错。或者有一些例子,比如在一系列步骤中,底层物理看起来非常准确地呈现出来了。这就像,这真的很令人印象深刻,但这些模型本质上只是在变得更好,而且这将继续发生。如果你看看从Dolly 1到2到3再到Sora的发展轨迹,有很多人在每个版本上都被击败了,说它做不到这个,做不到那个,看看它现在的样子。
发言人2:
你提到的关于遮挡的事情,基本上是通过二维训练数据方法来模拟三维物理世界的物理,对吗?
发言人1:
看起来这种方法将会走得出乎意料地远。我不想过多地推测它将克服哪些限制,以及哪些限制它将遇到。
发言人2:
但是,你看到了系统的一些有趣的局限性吗?我意思是,你发布过一些有趣的例子。
发言人1:
有很多有趣的事情。你知道,就像猫多长出一条腿,或者视频中随机出现的点,随你挑,但还有很多问题。
发言人2:
你认为这是方法的根本缺陷,还是只是更大的模型或更好的技术细节或更好的数据?更多的数据能够解决猫多长出腿的问题吗?
发言人1:
我认为两者都是。我认为这种方法有些方面感觉与我们思考和学习的方式不同,而且我认为随着技能的提高,它会变得更好。
发言人2:
你提到LMS有文本标记,而Sora有视觉补丁,所以它将所有视觉数据,各种视觉数据,视频和图像转换为补丁进行训练,你能否说这完全是自我监督的,还是有一些人为标记正在进行?人类的参与程度如何?
发言人1:
我的意思是,我们在工作中共用了很多人的数据。
发言人2:
但不是互联网规模的数据。所以很多人,很多人是一个复杂的说法,Sam。
发言人1:
我认为在这个情况下,“很多人”是一个公平的说法。
发言人2:
但基本上有很多自我监督的学习,因为你在技术报告中提到的是互联网规模的数据,这就像是诗歌一样。所以有很多数据不是人为标记的,它是自我监督的。问题是,互联网上有多少数据可以用于这种自我监督的方式,如果我们只知道自我监督的细节,你会考虑为Sora开放更多的细节吗?
发言人1:
你的意思是特别是对于Sora。
发言人2:
特别是对于Sora的趋势,因为它非常有趣,就像LMS的魔力现在开始转向视觉数据?要做到这一点需要做什么?
发言人1:
我的意思是,看起来是的,但我们还有更多的工作要做。
发言人2:
什么是危险?你为什么担心发布系统?有哪些可能的危险?
发言人1:
坦率地说,我们在发布系统之前需要做的一件事,就是让它达到人们想要的规模效率水平。所以我不想轻视这一点。还有很多工作要做。但你可以想象,像深度伪造、虚假信息这样的问题,我们试图成为一个对我们发布到世界上的东西进行深思熟虑的公司。不需要太多思考就能想到这种方式可能会出错的方式。
发言人2:
这里有很多棘手的问题。你处在一个非常棘手的领域。你认为训练AI应该或是不是在版权法下属于合理使用?
发言人1:
我认为背后的问题是,创造有价值数据的人是否应该有一些方式来获得使用他们数据的补偿?我认为答案是肯定的。我不知道答案是什么。人们提出了很多不同的东西,我们尝试了一些不同的模型,但你知道,如果我是一个艺术家,比如,AI可以退出人们以我的风格生成艺术。而且,如果他们确实以我的风格生成艺术,我希望有一种经济模型与之相关联。
发言人2:
是的,这就像从CDS到Napster再到Spotify的转变。我们需要找出一种模式的变化。
发言人1:
但人们必须得到报酬。
发言人2:
嗯,应该有一些激励措施,如果我们将视角拉得更远,人类将继续做出很酷的事情。发言人1: 我担心的是,人类将继续做出很酷的事情,社会将找到一些方式来奖励它。我认为这是非常根深蒂固的。我们想要创造,我们想要有用,我们想要以任何方式获得地位。这不会消失。
发言人2:
我不认为奖励一定是金钱上的,它可能是名誉、庆祝或其他非金钱形式。
发言人1:
也许以其他方式是金钱上的。再次强调,我不认为我们已经看到了经济体系将如何演变的最后进化。
发言人2:
是的,但艺术家和创作者看到Sora时,他们会想,“天哪。”
发言人1:
当摄影出现时,艺术家也非常担心。然后摄影成为一种新的艺术形式,人们通过拍照赚了很多钱。我认为这种情况会继续发生。人们将以新的方式使用新工具。
发言人2:
如果我们只是看看YouTube或类似的东西,你认为在未来五年内,有多少内容将使用Sora,即AI生成的内容?
发言人1:
人们在谈论AI将在未来五年内完成多少工作时,框架是AI将完全取代多少当前的工作。我认为思考AI将完成多少工作,而不是AI将完成多少工作,会更有趣、更有影响力、更重要。所以,如果你考虑经济中的五秒任务、五分钟任务、五小时任务,甚至五天任务,AI可以做多少?我认为这是一个比AI能完成多少工作更有趣、更有影响力、更重要的问题,因为它是一个工具,将在越来越复杂的水平上工作,并在更长的时间范围内完成越来越多的任务,让人们能够在更高的抽象层次上运作。也许人们在他们的工作中更有效率。最终,这不仅仅是一个数量变化,也是一个质的变化,关于你能保持在头脑中的问题类型。
发言人2:
对于YouTube上的视频,我认为会是一样的。也许大多数视频,甚至所有视频都会在制作中使用AI工具,但它们仍然基本上由一个人思考、组合、指导和运行。是的,这很可怕,但很有趣。我倾向于相信人类喜欢观看其他人类。
发言人1:
人类真的很关心其他人类。
发言人2:
是的,如果有一个比人类更酷的东西,人类会关心它大约两天,然后他们会回到人类身上。
发言人1:
这似乎非常根深蒂固。
发言人2:
就像下棋一样。是的,但现在让我们继续下棋,忽略房间里的大象,人类在棋类游戏中真的不如AI系统。
发言人1:
我们仍然举行赛车比赛,汽车比人类快得多。我的意思是,有很多例子。
发言人2:
是的,也许你会找到一种方法,不需要在摄像机前出现,我会很乐意。不幸的是,这需要一段时间,比如生成面孔,这很棘手,当它是特定人物的视频时,生成面孔在视频格式中是困难的。让我问你关于GPT-4的问题。有很多问题。首先,这也是令人惊叹的,回顾过去,这可能是一个历史性的转折点,3、5和4,你有了你的BT。
发言人1:
也许5会是转折点。我不确定,很难说。
发言人2:
我们永远不会知道。这就是未来讨厌的地方,很难预测,但对我来说,回顾GPT,Chad GBT是相当压抑的,就像历史上令人印象深刻的。所以让我问你,GPT-4最令你印象深刻的能力是什么,以及GPT-4 Turbo?
发言人1:
我认为它很棒。
发言人2:
典型的人类也对令人惊叹的事物变得习惯了。
发言人1:
不,我认为这是一件了不起的事情。但是相对于我们需要达到的地方,以及我相信我们将达到的地方,你知道,当时在GPT-3的时候,人们会说,哦,这太了不起了。这就像技术的奇迹。现在我们有了GPT-4,回头看GPT-3,就像难以置信的糟糕。我预计5和4之间的差异会和4和3之间的差异一样。我认为我们的工作是生活在未来的几年里,记住我们现有的工具,就像我们回顾过去的工具一样,这样我们才能确保未来会更好。
发言人2:
你提到了ChatGPT,这是一个转折点,人们开始相信了。有一种感觉,有一个上升的趋势,相信这里,也许有信徒在这里,但当你思考时,ChatGPT是一个转折点,人们开始相信了。
发言人1:
在这个意义上,我确实认为这将是一个时刻,世界上很多人从不相信转变为相信。这更多的是关于ChatGPT界面,而不是模型本身,以及我们如何调整模型以使其对人类更有帮助,如何使用它。然后是产品本身。你知道,从计算的角度来看,我们在基础模型之上做了很多事情,尽管这是大量的工作,但非常重要,更不用说我们围绕它构建的产品了。你知道,我们不得不做两件事。我们不得不发明底层技术,然后我们不得不弄清楚如何将其变成人们会喜欢的产品,这不仅仅是关于实际的产品工作本身,还有如何使其有用和...
发言人2:
你如何使规模工作,让很多人同时使用,所有这些事情。
发言人1:
但你知道,这是一个已知的困难事情。我们知道我们将不得不将其扩大。我们必须做两件以前从未做过的事情。这两项都是非常重大的成就,然后是让其他人以前做过的很多事情,比如扩大规模。
发言人2:
从8K到128K标记的上下文窗口在GPT-4到GPT-4 Turbo中如何比较?
发言人1:
人们大多数时候不需要全部128K。虽然,你知道,如果我们梦想遥远的未来,我们将拥有数十亿的上下文长度。你将输入你所有的信息,你随着时间的推移的所有历史,它将更好地了解你。这将是很棒的。现在,人们使用这些模型的方式,他们不是这样做的。人们有时会发布一篇论文或代码库的显著部分,等等。但大多数模型的使用并不是使用长上下文。
发言人1:
我看到了这个互联网剪辑。我可能会记错数字,但是是比尔·盖茨谈论早期计算机的内存量,也许是64K,也许是640K,之类的。他似乎真诚地无法想象,计算机最终会需要千兆字节的内存或千兆字节的硬盘存储空间。你总是需要像技术进步那样跟随,我们将会找到如何更好地利用更强大的技术的方法。所以我现在真的无法想象上下文链接会扩展到数十亿的那一天会是什么样子。它们可能不会字面上达到那里,但实际上它将会感觉像那样。但我知道我们会使用它,一旦我们拥有了它,我们真的不想回去。
发言人2:
是的,即使是说数十亿,十年后可能会觉得愚蠢,因为它将会是数万亿,数万亿。将会有一种突破,将会有效地感觉像是无限的上下文。但即使是120,我必须承认,我还没有把它推到那种程度。也许把整本书或书的部分,论文放进去。你看到了一些有趣的GPT-4的用例吗?
发言人1:
我发现最有趣的不是我们可以谈论的任何特定用例,而是人们谁把它作为任何知识工作任务的默认起点。它可以做很多事情,做得相当好。你可以使用GPT来帮助你编写代码,你可以使用它来帮助你进行搜索,你可以使用它来编辑论文。对我来说最有趣的是那些只是把它作为工作流起点的人。
发言人2:
我也这样做。我把它作为阅读伙伴来阅读书籍,它帮助我思考,帮助我通过想法,特别是当书籍是经典的,所以它写得很好,它实际上通常比Wikipedia更好,关于覆盖得很好的主题。它不知何故更平衡,更细致,或者也许是我,但它激发我比Wikipedia文章更深入地思考。我不确定那是什么。
发言人1:
你提到了这种协作。我不确定魔法在哪里,是在这里还是在其中,或者是介于两者之间。但当我开始使用GPT时,我通常必须做一些事实检查,比如检查它没有编造出假东西。你如何弄清楚你知道GPT可以编造出听起来非常令人信服的东西。你如何将其与真相联系起来?
发言人1:
这显然是我们非常感兴趣的领域。我认为随着即将到来的版本,它会变得更好,但我们必须继续努力,我们不会在今年解决这个问题。
发言人2:
好的,可怕的事情是,随着它变得更好,你会开始越来越少地进行事实检查,对吗?
发言人1:
我对这个问题有两种看法。我认为人们比我们经常给予他们的信任更会使用技术。人们似乎真的理解GPT,任何这些模型有时都会产生幻觉,如果它是关键任务,你必须检查它。
发言人2:
除了记者似乎不理解这一点。我见过记者半途而废地使用GPT。
发言人1:
这是我想批评记者的长长清单中的一个。这不是我对他们的首要批评。
发言人2:
嗯,我认为更大的批评可能是记者的压力和激励措施是你必须非常快速地工作,这就是一个捷径。我会喜欢我们的社会激励...
发言人2:
像记者那样花费几天、几周甚至几个月的时间去做深入的新闻报道,以及那些以平衡的方式呈现事物的报道,即使批评是获得点击率的事情,也要庆祝人们,同时批评他们。即使批评是获得点击率和头条的事情,编造东西也会获得点击率和头条,我确信你有很多批评,嗯,所有那些戏剧性的事情可能获得了很多的点击率。
发言人1:
点击率可能确实做到了。点击率可能确实做到了。
发言人2:
而且那就是,你知道,那是人类文明的一个更大的问题。我很想看到我们解决了这个问题,那就是我们更多地庆祝一点。你给了ChatGPT记忆的能力,你一直在玩弄这个关于之前对话的记忆,以及关闭记忆的能力。我希望我有时候能够做到这一点,只是想关掉它,取决于情况。我想有时候酒精可以做到这一点,但并不是,并不是最优的,我想。
发言人1:
我们在这里的探索还非常早期,但我认为至少我自己想要的是,随着时间的推移,一个了解我并对我来说变得更有用的模型。这是早期探索的一部分。我认为还有很多其他事情要做,但那是你想要的方向,你知道,你想要使用一个模型,在你的生活中,或者使用一个系统,在你的生活中,它会随着时间的推移变得更好。
发言人2:
是的,这有多难?因为现在它更像是记住一些小事实和偏好等等。你想要GPT记住你经历的所有狗屁事情,比如十一月的所有戏剧性事件,然后你可以因为现在你显然在某种程度上封锁了它。
发言人1:
不仅仅是我想要它记住,我想要它整合那个教训。是的,而且。提醒我将来该怎么做,该注意什么。你知道,我们在一生中都会从经验中学习,不同程度地获得成长。我希望我的AI代理也能从这些经验中学习。所以如果我们,如果我们回去让自己想象,你知道,数万亿的上下文长度,如果我可以把所有的对话,我生活中的每一个人都放进去,如果我可以让所有的电子邮件输入输出,每次我问一个问题,那会很酷,我认为。
发言人2:
是的,我认为那会很酷。人们有时会听到这个,并担心隐私问题。你对这个方面的考虑是什么?AI变得如此有效,真正地整合了所有的经历和发生在你身上所有的数据,并给出建议。
发言人1:
我认为正确的答案只是用户选择,你知道,任何我想要从我的AI代理记录中删除的东西,我都无法像那样删除。如果我不想记住任何东西,我也希望如此。你和我可能对这种隐私效用权衡有不同的看法,这完全没问题。但我认为答案就是像这样的简单用户选择。
发言人2:
但应该有某种高层次的透明度来自公司关于用户选择,因为有时过去公司,你知道,过去有些公司有点阴暗,就像,嗯,我们假设我们在收集你的所有数据,我们正在为广告的好理由使用它,所以没有透明度关于细节。
发言人1:
这完全是真的。你知道,你提到了我之前在11月的事情。我的意思是,那是一个非常痛苦的事情,它确实让我在很长一段时间内无法行动。就像绝对是我做过的最困难的工作。就像,我不得不像,你知道,试图在这里回来并把碎片拼凑在一起,而我只是像在震惊和痛苦中。而且,你知道,没有人真正关心这一点。我的团队给了我通行证,我不正常工作,但我确实在一段时间内很难做到这一点。但我就像,你知道吗,我可以像一个受害者一样感觉到它,或者我可以说我可以做我生命中最重要的工作,我需要回到它。这并不意味着我已经压抑了它,因为有时我像从半夜醒来想着它,但我确实觉得我有义务继续前进。
发言人2:
这说得很好,但可能会有一些残留的东西在里面。像我在我的兼职探索中看到的那样。我一直在深入研究泽连斯基政府,普京政府,以及在战时的高压环境下的动态。会发生什么是,不信任。你开始孤立自己,你开始无法清晰地看待世界。这是一个问题,这是一个人类的问题。你似乎已经接受了它,并且有点学会了好教训,并且让爱激励你,这很好,但仍然可能有一些残留的东西在里面。
发言人2:
有一些我很想问你的问题,关于GPT能否做到一个结。所以它为每个生成的标记分配大约相同的模型计算。是否有空间在这种方法中进行更慢的思考,顺序思考?
发言人1:
我认为将会有一个新的范式用于那种思考。
发言人2:
这会类似于我们现在看到的LMS的结构吗?它是LMS的一层吗?
发言人1:
我可以想象很多实现它的方法。我认为这比你要问的问题的重要性要小,那就是,我们是否需要一种方法来进行更慢的思考,其中答案不必像,你知道,就像,我猜就像精神上,你希望AI能够对一个更难的问题思考得更努力,并且对一个更简单的问题回答得更快。我认为这将是重要的。
发言人2:
这是像人类思考那样,我们应该能够对难题进行更深入的思考,这是不是一个错误的直觉。
发言人1:
我预计这是一个合理的直觉。
发言人2:
有趣的是,所以当GPT变得像GPT 7时,它能否瞬间看到,你知道,这里是RCM的证明。
发言人1:
对我来说,你希望系统能够分配更多的计算资源来处理更难的问题。就像,如果你让系统证明OS最后一个定理,除非它已经知道并记住了证明的答案,假设它必须去找出答案。看起来我们会需要更多的计算资源。
发言人2:
但它可以像基本的自言自语那样做吗?
发言人1:
也许?我的意思是,有很多你可以想象的东西可以工作,最好的或者最好的方式来做那件事是什么我们不知道。
发言人2:
这确实让我想到了Q星的神秘,神秘的Q星项目是什么?它也在同一个核设施里吗?
发言人1:
没有核设施。
发言人2:
那就是一个有核设施的人总是说的。
发言人1:
我很希望有一个秘密的核设施。有人,好吧,也许有一天。
发言人1:
我很想有一个秘密的核设施。如果有的话那就太好了。你知道,或者像被泄露了很多次,如果我们能够有像那样的东西就好了。
发言人2:
总有一天,好的。好吧。 你能谈谈Q Star是什么吗?它非常神秘。
发言人1:
我们还没有准备好谈论那个。
发言人2:
但是,这样的回答意味着有东西可以谈论。它非常神秘。
发言人1:
我的意思是,我们正在进行各种各样的研究。我们已经有一段时间说我们认为让这些系统有更好的推理能力是一个重要的方向,我们想要追求。我们还没有破解密码。我们非常感兴趣。
发言人2:
会不会有像GPT那样的飞跃,你会感到...?
发言人1:
那是个好问题。我觉得这一切都感觉很连续。
发言人2:
对吗?这是你的观点,对我来说,就像跳跃,但对你来说没有。
发言人1:
我想知道我们是否应该有。所以,你知道,我们部署的方式的一部分原因是,我们称之为迭代部署。我们决定不是秘密地建造,直到我们完全到达GPT 5,我们决定谈论GPT 1、2、3和4。部署的一部分原因是,我认为AI和惊喜不搭配。而且,我认为世界,人们,机构,无论你想怎么称呼它,都需要时间来适应并思考这些事情。我认为OpenAI做的最好的事情之一就是这个策略。我们让世界注意到进步,认真对待AGI,思考我们在被迫做出紧急决定之前想要什么样的系统、结构和治理。
发言人2:
这真的很好。但是当人们像你和其他人那样说,你仍然感觉有这些跳跃,这让我想到也许我们应该更迭代地发布,我不知道那意味着什么。我不知道我有没有准备好回答,但我们的目标不是让世界感到震惊的更新。
发言人1:
我们正在尝试做到这一点。那是我们的策略状态,我认为我们以某种方式错过了标记,所以也许我们应该以不同的方式看待GPT 5,或者之类的东西。
发言人2:
是的,4.71,4.72,但人们倾向于喜欢庆祝,人们庆祝生日,我不知道,没有人类,但他们确实有这些里程碑。
发言人1:
我确实注意到一些人类,人们确实喜欢里程碑,我完全理解,我认为我们也喜欢里程碑。这就像宣布在这个上取得胜利,然后开始下一件事。但是,但是,是的,我觉得我有点弄错了。
发言人2:
所以,GPT 5什么时候出来?
发言人1:
那是诚实的答案。
发言人2:
那是诚实的答案,如果今年出来就眨两次眼。
发言人1:
我也会在今年发布一个惊人的模型。我不知道我们会叫它什么。
发言人2:
所以,这引出了一个问题,关于我们如何发布这个东西的方式。
发言人1:
我们将在接下来的几个月里发布许多不同的东西。我认为那会非常酷。我认为在我们谈论像GPT 5这样的模型之前,或者叫或不叫那个,或者比预期的GPT 5稍差或稍好之前,我们知道我们有很多其他重要的东西要发布。
发言人2:
我不知道我对GPT 5有什么期待。你让我既紧张又兴奋。对于最终被称为GPT 5的东西,无论是在计算方面还是在技术方面,最大的挑战和瓶颈是什么?
发言人1:
总是所有这些事情。我是不是,你知道,什么是一个大解锁?是更大的计算机吗?是一种新的秘密吗?是其他什么吗?是所有这些事情一起。就像OpenAI做得非常好的一件事。这实际上是一个原创的Ilio引用,我把它搞砸了,但它有点像我们把200个中等大小的事情乘在一起,变成一个巨大的东西。
发言人2:
所以,就像有这种分布式的持续创新。是的,所以即使是在技术方面也是如此。
发言人1:
尤其是在技术方面。就像,尤其是技术方面。所以,就像有很多不同的团队和很多东西,但很多人试图保持大部分的画面在他们的脑海中。
发言人2:
所有像个人团队,个人贡献者试图在高层次上做到这一点。
发言人1:
是的,你不知道每个部分确切的工作原理,当然,但是我认为有时缩小范围,看看整个地图是有用的。我认为这对于像技术问题一样的事情是正确的。我认为这对于像商业创新这样的事情也是正确的。我,但事情以令人惊讶的方式汇聚在一起,拥有对整个画面的理解,即使大多数时间你都在某个领域的细节中,也会带来令人惊讶的洞察力。
发言人2:
你不再是你过去的自己,Sam。
发言人1:
这是一个非常不同的工作,比我过去做的工作不同。
发言人2:
说到放大,让我们放大到另一个可能深刻的事情,也许你说过,你需要7万亿美元。
发言人1:
我没有发推文说那个。我从来没有说过我们正在筹集7万亿美元,等等。
发言人2:
等等,等等,那是别人的事,是吧。哦,但是你说,也许8,我想。
发言人1:
好吧,我的意思是,一旦有像这样的错误信息在世界上传播开来。
发言人2:
哦,你是指,但是基于某种洞察力的谣言可能有一些基础。
发言人1:
看,我认为计算将成为未来的货币。我认为它可能是世界上最珍贵的商品,我认为我们应该大力投资制造更多的计算能力,计算是。
发言人2:
这是一个不寻常的市场。你知道,人们想到像手机芯片这样的市场。你可以说,世界上有80亿人,也许他们中的70亿有手机。也许他们是60亿。假设他们每两年升级一次。所以每年的市场是30亿个智能手机系统芯片。如果你制造了300亿个,你不会卖出10倍的手机,因为大多数人只有一个手机。但是计算是不同的。
发言人1:
像智力将更像能源或类似的东西,唯一有意义的是谈论在价格X时,世界将使用这么多的计算能力,以及在价格Y时,世界将使用这么多的计算能力?因为如果它真的很便宜,我会整天使用它,比如在阅读我的电子邮件时给我建议,或者试图治愈癌症。如果它真的很贵,也许我们只会用它来尝试治愈癌症。
发言人2:
所以你认为世界将会需要大量的计算能力。这方面有很多部分是很难的。能源是最难的部分。建造数据中心也很难。供应链比制造足够的芯片更难。但在我看来,这是事物的发展方向,就像我们将需要一种目前难以理解的计算能力量。
发言人1:
我认为我们将会需要大量的计算能力。
发言人1:
我认为能源是最大的挑战。建造数据中心也很难。供应链比制造足够的芯片更难。但在我看来,这是事物的发展方向,我们将需要难以想象的大量计算能力。
发言人2:
那么,你如何看待核聚变?你认为那是解决能源问题的关键吗?
发言人1:
我认为核聚变是最好的解决方案,但我也很高兴现在有一场核聚变竞赛。核裂变我认为也非常了不起,我希望作为世界,我们能够重新拥抱它。对我来说,这是一个悲伤的历史,我希望我们能够以有意义的方式回到它。
发言人2:
那么,你认为核裂变,就像我们现在拥有的核反应堆一样,是未来的一部分?
发言人1:
我认为我们应该制造新的反应堆。我认为这是一场耻辱,因为这个行业某种程度上停止了。
发言人2:
你认为公众对核能的恐惧是如何影响这一切的?
发言人1:
我担心这对AI来说也是一样的。我认为AI将会出现问题。我不知道我最终被枪击的几率是多少,但这并不是0。
发言人2:
哦,就像我们想要阻止这一切一样。你如何减少这种戏剧性的风险?你已经开始听到一些关于AI的谣言,因为我确实和两边的政治人物都谈过。他们开始有关于AI的谣言,这让我非常担心。他们可能会利用这种戏剧性的风险。
发言人1:
我认为它将会被卷入左右战争。我不知道那会是什么样子,但我认为那就是任何有重大影响的事情所会发生的事情。不幸的是,我认为戏剧性的风险是,AI将会有非常糟糕的后果,但它们将会是少数。而且将会有一场戏剧性的灾难,我不确定那个百分比是多少,但那是我最担心的。
发言人2:
你认为我们能够避免这种戏剧性的灾难吗?
发言人1:
我认为我们将会看到一些戏剧性的灾难。我认为AI将会有非常积极的影响,但也有消极的影响。而且将会有一场戏剧性的灾难,我不确定那个百分比是多少,但那是我最担心的。
很抱歉,之前的回复出现了重复错误。现在我将继续翻译原文。
发言人1 (Sam Altman):
我相信在AI方面,我们将会看到一些戏剧性的事件。虽然AI将会带来许多积极的影响,但不可避免地也会有负面的后果。我担心的是,尽管正面效果将会远远超过负面效果,但那些负面事件将会是戏剧性的,并且可能会引起广泛的关注和恐慌。
发言人2:
你提到了AI的安全性问题,以及我们如何确保AI系统不会做出疯狂和危险的事情。你能谈谈从GPT-4到GPT-5的飞跃中,你期待的是什么吗?
发言人1:
我对AI变得更加智能感到兴奋。我知道这听起来可能很笼统,但真正特别的是,AI不是在一个领域变得更好,而是在所有方面都变得更好。这意味着AI系统将在多个维度上变得更加强大和有用。
发言人2:
是的,我理解你的意思。我也很期待AI能够更好地理解和回应我们的需求,甚至是在我们尚未完全明确表达出来的时候。
发言人1:
绝对的。我认为,随着AI技术的进步,我们将能够更好地利用它来解决复杂的问题,创造新的知识,甚至可能在某些情况下,发现全新的科学原理。
发言人2:
那么,你认为在未来5到10年内,人类将会做多少编程工作?
发言人1:
我认为人们仍然会做很多编程工作,但形式将会发生很大变化。也许有些人将完全用自然语言进行编程。
发言人2:
完全用自然语言编程?
发言人1:
是的,就像现在没有人再用字节码编程,或者使用打孔卡一样。我相信未来的编程将会有更多的自然语言元素,而且当我们需要做一些特别的事情时,比如编写C语言代码,我们仍然会去做。
发言人2:
你认为OpenAI将来会开发出具有人类机器人大脑的机器人吗?
发言人1:
在某个时候,是的。
发言人2:
那么,对你来说,具有实体的AI有多重要?
发言人1:
我认为如果我们拥有AGI,但唯一让物理世界运作的方法是让人类去做,那将是非常令人沮丧的。所以我真的希望在这个转变的过程中,我们也能开发出能够在物理世界中执行任务的机器人。
发言人2:
听起来既令人振奋又有些威胁。因为一旦我们开始谈论机器人,人们就会立即想到《终结者》。
发言人1:
我们将会回归到机器人的研究中。我们不会把自己变成机器人,当然。是的,这听起来可能有点威胁,但我相信这是我们前进的方向。
发言人2:
你认为我们,你和我们人类,什么时候会构建出AGI?
发言人1:
我过去喜欢对这个问题进行猜测,但我现在意识到这个问题非常模糊,因为人们对AGI的定义各不相同。所以我认为,更有意义的是讨论我们何时能够构建出能够执行特定任务X、Y或Z的系统,而不是模糊地谈论我们何时跨越了某个里程碑。AGI并不是一个终点,它更像是一个开始,但它更像是一个里程碑,而不是开始或结束。但我想说,我预计在这个十年结束时,可能比那更早一些,我们将拥有一些非常出色的系统,我们会看着它们说,哇,那真的非常了不起。
发言人2:
是的,但如果你看ChatGPT,即使是GPT-3,你把它展示给艾伦·图灵或者90年代的其他人,他们会说这绝对是AGI。
发言人1:
是的,我不认为ChatGPT或GPT-3改变了世界。它可能改变了世界对未来的期望,这实际上非常重要。它确实让更多人认真对待这个问题,让我们走上了一个新的轨迹,这真的很重要。所以我不会轻视它。我认为,作为一个成就,我可以退休并对我的职业感到非常满足。但作为一个产品,我不认为我们会回头看它,并说这是一个真正改变世界的门槛。
发言人2:
那么,你期待的是一个真正的重大转变,而不仅仅是一个工具?
发言人1:
对我来说,AGI意味着的部分就是一个重大的转变。
由于之前的回复中出现了重复错误,我将重新开始并继续翻译原文的后续部分。
发言人2:
那么,你认为我们,你和我们人类,什么时候会构建出AGI?
发言人1 (Sam Altman):
我过去喜欢对这个问题进行猜测,但我现在意识到这个问题非常模糊,因为人们对AGI的定义各不相同。所以我认为,更有意义的是讨论我们何时能够构建出能够执行特定任务X、Y或Z的系统,而不是模糊地谈论我们何时跨越了某个里程碑。AGI并不是一个终点,它更像是一个开始,但它更像是一个里程碑,而不是开始或结束。但我想说,我预计在这个十年结束时,可能比那更早一些,我们将拥有一些非常出色的系统,我们会看着它们说,哇,那真的非常了不起。
发言人2:
是的,但如果你看ChatGPT,即使是GPT-3,你把它展示给艾伦·图灵或者90年代的其他人,他们会说这绝对是AGI。
发言人1:
是的,我不认为ChatGPT或GPT-3改变了世界。它可能改变了世界对未来的期望,这实际上非常重要。它确实让更多人认真对待这个问题,让我们走上了一个新的轨迹,这真的很重要。所以我不会轻视它。我认为,作为一个成就,我可以退休并对我的职业感到非常满足。但作为一个产品,我不认为我们会回头看它,并说这是一个真正改变世界的门槛。
发言人2:
那么,你期待的是一个真正的重大转变,而不仅仅是一个工具?
发言人1:
对我来说,AGI意味着的部分就是一个重大的转变。它不仅仅是一个工具或者一个简单的技术进步,而是一个能够改变我们生活方式和工作方式的全新存在。我们现在还无法完全理解它将带来的所有可能性,但我相信我们将在未来几年内看到一些非常激动人心的发展。
发言人2:
那么,如果你有机会与AGI对话,你会问它什么问题?
发言人1:
如果我有机会与AGI对话,我想我会问它关于宇宙的最基本问题,比如是否存在其他文明,以及我们是否能够发现或理解宇宙的终极理论。这些问题对于我们理解自己在宇宙中的位置至关重要。
发言人2:
那么,你认为我们生活在一个由AI系统生成的模拟世界中吗?
发言人1:
我认为我们生活在一个由AI系统生成的模拟世界中的可能性确实存在。虽然这并不是我最强的证据,但随着我们能够创建像Sora这样能够生成逼真虚拟世界的系统,我认为这至少应该让我们对这个想法更加开放。
发言人2:
我同意。我认为AI在某种程度上将成为我们理解现实的新途径,就像一种简单的、类似迷幻药物的门户。
发言人1:
绝对是这样。AI的发展无疑将为我们提供全新的视角和理解世界的方式。这让我对未来充满了希望。
发言人2:
那么,你对人类文明的未来有什么希望?
发言人1:
我对人类文明的未来抱有很大的希望。看看人类在过去所做的一切,尽管存在许多问题和缺陷,但总体上是非常鼓舞人心的。我们作为一个物种所取得的进步和成就让我相信,我们将继续朝着更好的未来前进。
发言人2:
那么,你是否考虑过自己的死亡?
发言人1:
如果我知道明天会被枪击,我会感到悲伤。但我会非常感激我所拥有的生命,以及这个充满好奇的时代。我对能够见证和参与这一切感到非常幸运。
发言人2:
非常感谢你今天的分享,Sam。与你交谈是一种荣誉和愉悦。
发言人1:
感谢你邀请我。和你交谈也很愉快。
以上是Lex Fridman与Sam Altman的访谈内容的总结。这次对话涵盖了从AI的未来、AGI的挑战,到个人对生命和未来的希望等多个深刻的主题。