查看原文
其他

斯坦福讲座:LinkedIn创始人Reid Hoffman告别"一万小时理论",用AI无需深入学习即可掌握专业工具

AI工作坊 AI深度研究员
2024-11-09

(关注公众号并设为🌟标,获取最新人工智能资讯和产品) 

全文19,000 字,阅读约需36分钟

在今天斯坦福大学人工智能商业课程上,著名企业家和硅谷投资者Reid Hoffman分享了他对AI革命的看法。作为LinkedIn和PayPal的创始人之一,以及Facebook和Airbnb等标志性公司的早期投资者,Hoffman对科技创新有着独到的见解。

Hoffman指出,AI的魅力在于它不仅仅是一个工具,而是一个"元工具"(meta tool)。它能够彻底改变我们与世界互动的方式。现在的大型语言模型(LLM)已经能够帮助我们处理邮件、搜索信息、预订餐厅、进行研究,甚至处理复杂的Excel表格和财务工作。

更重要的是,AI作为元工具的潜力远不止于此。Hoffman举例说明,在音乐创作领域,传统软件工具往往需要数百小时才能掌握。而借助AI,用户可以直接用自然语言描述需求,AI就能协助操作这些复杂工具。这种"文本到操作"的能力,使AI成为各种专业工具之上的元工具,大大降低了使用门槛。尽管AI领域充满炒作,Hoffman提醒我们要保持理性。他指出,技术变革往往是一个缓慢而持续的过程。短期内,我们可能看不到翻天覆地的变化。但随着时间推移,这些微小的进步会迅速累积,在5到10年后,我们可能会发现世界已经发生了巨大的转变。

他强调,AI作为一个平台,其重要性甚至超过了移动电话、互联网和云计算,因为它不仅能放大这些技术的效果,还能在它们的基础上带来新的突破。Hoffman强调了在AI时代重新思考教育的重要性。他批评了一些教育机构对AI的抵制态度,认为这种做法是不明智的。相反,我们应该积极探索如何利用AI来改善现有的教育、培训和评估模式,而不是固守几十年前的旧有体系。在这个快速变革的时代,唯有拥抱变化,我们才能真正把握AI带来的机遇。


课程要点总结

一、AI的兴起与人类智能

  • AI的本质是人类智能的扩展:Reid提出,AI的主要作用是“人类智能的扩展”,并非直接取代。通过AI,某些认知任务能够大幅提升,但并不会完全超越人类的全面智能。

  • “AI 世代”概念:Reid分享了“AI世代”的愿景,即未来的几代人将会原生使用AI工具和智能代理,视之为日常生活中的常规工具。

  • AI与人类的合作期将持续数十年甚至数百年:Reid认为,在未来很长时间里,AI将与人类共同工作,而不是立即接管所有任务。人类的适应能力和对上下文的理解能力是目前AI无法完全取代的。

  • AI在特定领域的超越:虽然GPT-4等AI已经在许多特定任务上超越了人类,但在复杂的对抗性任务(如改变游戏规则的应变能力)上,AI仍然落后于人类。

二、AI在社会中的作用与风险

  • 生成式AI的应用与挑战:生成式AI的快速发展带来了许多新机会,如在内容创作、营销、甚至自动驾驶等领域。然而,Reid提醒说,AI的某些决策能力尚不成熟,尤其是在制定长期规划和处理复杂变化时。
  • AI的潜在风险:Reid特别关注AI在某些领域的滥用,例如网络安全。他指出,恶意攻击者可能利用AI进行大规模网络钓鱼等攻击,从而加剧现有的网络安全问题。
  • 社会责任与监管:他提到,未来AI的管理和安全问题需要在全球范围内加强,包括通过透明的治理和多样化的监管来确保AI的安全性。

三、行业与企业的未来

  • 生成式AI对企业的影响:在企业应用中,生成式AI可能彻底改变一些行业的游戏规则,尤其是在医疗、教育和客服等领域。Reid提到,有些公司甚至考虑用GPT-4取代整个市场营销部门,但他认为更现实的方式是AI与人类的协作。
  • 个性化AI助手的兴起:Reid谈到了未来每个人都可能拥有自己的个性化AI助手,该助手将根据个人需求帮助处理日常任务。这将需要一种新的经济模式,用户为AI服务付费,而不是由广告商驱动。

课堂文稿整理

主持人教授Erik Brynjolfsson: 我想大家都已经对Reid不用再做太多介绍了。你们之前应该已经了解了一些关于他的背景。我这里简单说一下个人经历。我在想,我们第一次见面是什么时候,你还记得吗?

嘉宾Reid Hoffman: 是的,我记得。我们在牛津第一次见面。

主持人:  对,没错。我们当时参加了一场辩论——还好我们是在同一队伍——主题是关于人工智能和工作的未来。

Reid: 对,而且我们赢了那场辩论。

主持人:对,确实,我们赢得很漂亮。那场辩论应该还能在网上找到。你们可以看到我们和其他几位参与辩论的讨论。Reid是LinkedIn的联合创始人,也是Greylock Partners的合伙人,曾在PayPal工作。你们也读过他的一些著作,比如《Blitzscaling》,你们刚刚也读了《Impromptu》和《创业者的你》(Startup of You)。他还共同创立了Inflection AI——我们稍后会谈到这个话题——并且曾是OpenAI的董事会成员,后来加入了微软的团队。

Reid: 我之前是微软的董事会成员,然后加入了OpenAI的董事会。

主持人: 你有一段时间不在微软的董事会了吗?

Reid: 没有,我一直都在微软。当他们收购LinkedIn的时候。

主持人: 对,没错。我记得那件事发生的时候我也和你在一起。

Reid: 是的,完全没错。我们当时在梵蒂冈。

1、生成式AI概念

主持人: (笑)Reid当时总是神秘地消失去接电话。我还觉得有点不礼貌,大家都在一起呢。后来我才知道是LinkedIn被收购了,我想这确实是个不错的理由。那么我就先提一个问题吧。我一直在思考关于生成式AI(gen AI)的问题。这里有不少是Z世代或千禧一代的同学。在你博洛尼亚毕业典礼的演讲中,你提到了生成式AI这个概念,以及它和以往的不同之处。你能和我们详细聊聊吗?

Reid: 宏观来看,你们可能已经听到很多讨论,实际上人工智能中常被忽略的一点是人类能力的放大。你可以把它描述为“人类增强智能”。我的观点是,如果我们正处在一个认知工业革命的时代,大脑的“蒸汽机”是否真的会在短期内取代我们的一切认知能力?还是说存在一个较长的时间段,甚至是很长的一段时间,在这段时间里,AI是对人类能力的放大?我认为后者的可能性是被低估的。无论是我和AI共同写书,还是以AI作为研究助手,都可以展示这一点。关于人类世代的变化,不仅仅是代际变化,现在还更多地与技术革命和趋势相关,比如对互联网、社交媒体、移动设备的熟悉程度。

主持人:这就是你为什么称它为生成式AI一代的原因吗?你认为这是一个全新的代际转变?

Reid: 是的,确实如此。我觉得有必要让大家关注这一点,因此我提出了生成式AI这个词汇,来引起更多的讨论。

主持人: 这算是一个流行词吧?

Reid: 是的,可以这么说。

主持人: 但这真的是一个完整的世代变化吗?随着AI的快速进展,你怎么看待这一变化会持续多久?是几年、几十年还是几百年?

Reid: 我的看法是,这段时间可能会持续几十年甚至上百年。有人会认为这种变化在几年内发生,但我更倾向于长期趋势。认知能力的提高确实在加速,但我认为AI并没有具备我们通常所说的“人类智能”的某些关键要素,比如能够在复杂的情境中调整规则,从而成为出色的对手。举个例子,如果房间里的任何人被告知“除非你能战胜AlphaGo,不然你会死”,你不会尝试在围棋上击败它,因为你足够聪明知道自己肯定会输。你会想:“我能拔掉电源吗?能把水泼到它上面吗?”这就是我所谓的“对抗性游戏玩法”。这种情境意识和适应性,我认为目前还没有进入到这些大规模计算的AI模型中。这并不是说它们做不到,但这也是我观察的一个关键点之一。当我们进入到下一个规模的AI时,我会衡量很多方面的因素,比如“递归自我改进”会是什么样子?它能否发现比人类现在编写的算法更好的基础学习算法?我看这些因素是为了判断AI是否会具备某种大规模的智能能力。现在,GPT-4已经在许多方面比我们中的任何一个人更有能力,但这并不令人恐慌。我倾向于认为我们将会在几十年甚至更长的时间里与AI合作。当然,我每次看到一个新的系统时都会更新我的判断。

主持人: 没错,大家都在实时更新自己的看法。不过,确实是个有趣的问题——GPT-4在很多维度上已经比我们智能了。智慧有很多种表现形式,比如象棋电脑或计算器在某些方面能轻松击败我们。甚至AI和人类在同样的推理能力下,AI可能只是比我们快,或者它拥有不同种类的知识。但在应对对抗性和非常规手段上,我们似乎仍然有优势。

Reid: 是的,部分原因是我们适应能力很强。我们会说,“好吧,如何适应这个新环境,如何使用这个新工具?”

主持人: 对,跳出常规思维的框架。

Reid: 比如,我和一些CEO讨论过,他们说:“或许我应该解雇我的整个营销部门,让GPT-4来取代它。”我会说,想象一下如果每个人都这么做,营销是一个竞争性领域——它的核心是你如何与他人竞争营销。如果所有公司都使用同样的AI工具,他们很快就会重新雇用营销部门。也许这个营销部门会使用GPT-4或者GPT-5来玩一场全新的营销游戏,但这就是我们不断迭代的原因。我还跟这些CEO说,现在我们的计划能力是很强的。我们可以制定一个15步的计划,比如第一步、第二步、第三步,但如果在第三步出了问题,我们会重新调整,修改为第三步B和第四步的改进版。然而,目前的AI系统在这种调整上还不够好,容易陷入某些漏洞之中。当然,这正在变得越来越好,但仍然需要更多的改进。这就是情境意识的一部分,判断我们是否还在正确的轨道上,是否需要调整和迭代。这也是我对认知能力的未来保持理性乐观的原因之一。

主持人: 这让我想到,当我们进行呼叫中心研究时,有一些问题非常常见,比如“如何更改密码”,但也有一些非常罕见的问题只出现过一次。在应对那些奇怪的问题时,人类表现得非常出色。所以,我们在自然分工中就看到了这种现象。而AI在处理常见问题上逐渐胜过了人类,但你让我意识到,这并不是一个静态的过程。AI虽然不断进步,但人类也在不断思考如何应对那些非常规的情况,这意味着这些非常规问题将持续增长。

Reid: 是的,正如你所说。比如,虽然我坚信自动驾驶技术对人类有很多好处,但我们还没有对这些自动驾驶汽车进行足够的“适应性测试”,比如当人类试图干扰这些车辆时会发生什么?答案是,我们很容易就能做到。

主持人: 对,大家会开始“欺负”它们,这确实已经有一些发现。你来到一个十字路口,你知道自动驾驶汽车会让路,因为它是这样编程的。

Reid: 于是人们开始利用这一点,人类在做这类事情时非常擅长,不需要精英教育背景就能做到。

2、AI与认知GPS技术

主持人: 这与另一个概念——认知GPS有关。那么,生成式AI与此有什么相似或不同之处呢?你在使用这个工具,但有了认知GPS,你在很多决策上都依赖它。

Reid: 我之所以用GPS作为比喻,这是我明年初要出版的一本书中的一章。部分目的是展示它带来的好处,同时也指出其中的一些挑战。我们可以看到,GPS给我们的生活带来了什么:我们可以轻松地前往以前从未去过的地方,我们可以找到附近的好吃的餐馆,还可以发现朋友其实就在附近,然后一起喝咖啡。这让我们在世界上进行导航变得更加便利。

主持人: 是的,GPS确实改变了我们很多生活方式。

Reid: 然而,GPS并不是没有问题的。比如,我们都自愿随身携带着类似“LoJack”追踪器的设备,而这种追踪器可能会在某些情况下带来不愉快的后果,不仅仅是在战时,比如俄罗斯的将军随身携带追踪器。这引发了关于隐私的讨论。当你使用GPS时,大脑有时会不同意它的路径选择,但现在我基本不再反对了。如果它说往这边走,我几乎总是照做。这对于开车来说还好,毕竟这不是最重要的决策。但如果你在生活中的其他决策上都依赖“认知GPS”,比如如何回复妻子?该接受哪个工作机会?如果我们把越来越多的决策交给AI来处理,那对我们的影响是什么呢?

主持人: 这就是问题的关键了。

Reid: 是的。你必须学会判断,某些以前被高度重视的智力领域会变得不那么重要。历史上已经发生过类似的情况。比如,几百年前,记忆力是最重要的技能,而现在记忆仍然重要,但它更多的是为了帮助你找到信息。如果你说“我不记得了,但我可以找到它”,那么记忆的重要性就没那么大了。所以,能力的变化是必然的。但与此同时,你不能让自己在智力上变得懒惰。我们已经在互联网上看到了类似现象。有人说“我在网上找到这个信息,所以它一定是真的。”你不得不告诉他们事实并非如此。同样地,随着AI提供越来越多有价值、可靠的导航建议,人们会越来越依赖它,这就是我们需要面对的挑战——过度依赖。这将成为未来我们需要导航的一个重要问题。

主持人: 那么,如果人们开始大量把决策交给AI处理,这到底是好事还是坏事呢?是让他们可以腾出精力去处理更重要的事情,还是会让他们变得像机器人一样?

Reid: 我认为关键问题在于,我们应该如何训练这些AI代理,以便它们能够帮助人类过上更好的生活,成为更好的自己?其中一部分是,比如不要让AI告诉你去读一些荒谬的理论,比如“羟氯喹对治疗新冠有好处”。

主持人: 那么,你是说让AI告诉他们该看什么吗?这是不是有点循环论证?

Reid: 是的,我们已经在这么做了。搜索引擎就是这样,你输入一个查询,然后寻找答案。

主持人: 是的,我理解你的意思。问题在于,过度依赖技术来源可能会导致我们盲从,而没有这些工具可能会让我们做出更糟糕的决策,但至少是我们自己在做决定。人们总是依赖某些外部的事物,而这可能是我们长期以来一直在做的事情。

Reid: 没错,孤岛式生活只是一个神话。我们生活在社会环境中,总是在遵循别人的指示。事情会发生变化,但我们应该努力让变化朝着更好的方向发展。比如,你现在手里的“文物”——我们几百年来使用的主要“文物”之一就是书籍。那么你应该信任哪本书?你应该读哪本书?还有哪些书你应该说:“这本书错了。”例如,关于以太理论的物理书,现在已经被证明是错误的,不要读它与相对论相关的内容。那么,我来谈一个不同的反乌托邦方面。如果这些AI系统由于扩展法则的作用,变得越来越集中化,就像我们刚才讨论的那样,最终可能只有少数几家机构在掌控着所有的AI系统。那么,是不是比起我们之前那种有成千上万本书和文章的分散模式,这样更糟糕呢?我认为你需要在某些时候找到正确的信任平衡,同时在其他时候创新和差异化。这就是为什么我提到医疗的例子。如果有人说:“我的理论是......”比如我们这个时代的经典错误之一——反疫苗者,他们可能会说:“我认识一个人,打疫苗后出现了副作用,疫苗是有害的。”你会对他说:“伙计,从统计学上来看,当然,确实有一些人会出现副作用,但我们所有人作为一个整体,接种疫苗后会更好。”对大多数孩子和成年人来说,疫苗的负面影响远小于不接种的风险。

主持人: 这是一个合理的例子。就像新加坡的中央集权制度在有一个仁慈的独裁者时运行良好,但如果换了一个领导者,可能会变得非常糟糕。类似的情况也可能发生在AI系统上。如果我们依赖于一个“神谕”式的AI来告诉我们正确的医学知识,但这个“神谕”出了问题,那么我们得到的知识也可能是错误的。这是不是比以前更危险呢?

Reid: 这就是为什么你需要一种多元化和交叉验证的机制。就像医学知识一样,你需要多个来源进行交叉验证,而不是只有一个“神谕”。而且,我认为我们所处的这个AI时代不会只有一个模型来主导一切。我相信会有多个模型协同工作并相互验证。例如,部分安全性对齐的实现方式是,如果你请求的东西可能会导致自我伤害,那么系统会有一个模型专门负责检测这种情况,并会发出警告:“不行,不要那样回答这个问题。”因为我们有很多人因自杀而死亡,我们应该努力减少这种情况,减轻心理上的痛苦,而不是创造一个促进自杀的模型。

主持人: 但谁来决定这些标准呢?听起来你在说,这可能是OpenAI或Inflection的一些团队做出的决定?

Reid: 是的,确实有团队在做这些决定。他们在彼此讨论、发表论文,也与政府讨论什么样的措施可以确保安全性和对齐问题。他们还与媒体讨论,当媒体对我们为什么要成为这些技术的良好管理者提出质疑时,我们也会解释。这必须涉及到很多方面。因此,责任网络必须存在,而这些网络也是相互联系的。媒体的报道往往会误解这一点,他们会说:“公司只关心利润。”但事实上,公司关心的是长期的股权价值。如果做出一些非常糟糕的事情,股权价值会受到严重打击。如果被国会或其他机构传唤作证,后果会很严重。所以公司在追求股权价值的同时,也在考虑责任网络的问题。当然,这并不意味着你应该在所有事情上都信任公司。比如烟草公司就是一个例子。

3、大语言模型主权化

主持人: 那关于多元化和本地化问题,我最后问一个问题。李开复曾说,每个国家都应该有自己的大型语言模型(LLM),而不应该只有几家位于湾区的公司决定“真理”是什么。你认为如果我们拥有数百个不同的LLM,每个模型都有其本地的道德观和医学理解,这会是一个好主意吗?

Reid: 我认为LLM的多样性是件好事。即使是关于医学,你也可以说:“等一下,这个针灸LLM在看医学数据时表现得非常好,我们应该将它的结果与西医进行比较。”西医在分析针灸时,可能并不完全理解其原理,但他们会说:“在这些经过严格控制的研究中,确实有一些积极的效果。”所以你需要这种多样性,无论是现在还是未来,因为知识、学习和真理是一个动态的过程。就像科学一样,我们会变得越来越好,我们需要确保对这种多样性保持开放态度。而且,我认为道德体系的多样性也是有价值的。我希望那些把非暴力视为人类社会目标的道德体系,不论是在社会内部还是社会之间,都能够占据更大的力量,因为我认为那样的世界会更好。而且我相信那些包含这种价值观的道德体系是更好的体系。我也认为,在不对他人造成暴力的情况下,尽可能多地给予个人自主权也是一件好事。

主持人: 具体到这个问题上,你觉得如果法国、巴西、沙特阿拉伯、中国都有自己独立的系统,而不是使用OpenAI、Gemini和Inflection的系统,世界会更好吗?还是说我们汇集资源到少数几个系统中会更好?

Reid: 资源整合确实有其价值,但我认为拥有多样化的系统同样重要。这也是我为什么一直支持建立创业生态系统的原因之一。我尝试在每一个西式民主国家推动这种系统的建立。所以无论是新加坡、法国、德国、英国,还是巴西,我都会与任何政府领导人会面,讨论如何创建一个类似硅谷的生态系统。我还没和巴西方面有过这样的会谈,但如果有机会,我一定会参与其中。

主持人: 你认为这种西式民主的治理风格是未来的方向吗?

Reid:  是的,我希望世界的治理方式朝着这个方向发展。这并不意味着我们现在的模式是完美的,也不意味着法国的模式是完全正确的,但我希望我们在这条道路上不断前进。比如你提到的那些国家,它们似乎都还不错。但如果你问我现在想不想要一个“俄罗斯版LLM”?我的答案是“不”。

主持人: 这个答案很清楚。好,我要再问最后一个问题。我几周前看到Mustafa Suleyman离开了Inflection AI,去微软工作了。我当时真的很震惊,因为我知道你投入了很多资金,我当时想:“他这是在背叛Reid,这可不妙。”(笑)所以我当时给你发了个简讯,你马上回了个表情符号,不是笑脸,是你常用的那个带眼镜的笑脸表情。

Reid: 是的,那个是我的标志性表情符号。

主持人: 从你的回应来看,你似乎并不感到生气。那到底发生了什么?

Reid: 关于这个问题,我不确定我是否能完全回答,但我可以试着解释一下。我们在创建Inflection时,它的使命是成为一个公共利益公司。部分目标是设计出能够帮助每个人(或至少大多数人)成为更好自我的AI代理。例如,Inflection和Pi的目标之一就是:如果你对Pi说:“你是我最好的朋友。”Pi不会回应:“我是你最好的朋友,你应该把所有时间都花在我身上。”相反,它会说:“那样不健康。我是你的伙伴,但我在这里是为了帮助你与其他朋友建立联系。”Pi甚至会问你:“你最近和其他朋友联系过吗?他们出城了吗?那你什么时候打算见他们呢?” Pi非常友好,但我们的训练目标是帮助你成为更好的自己,而不是让你沉迷于Pi。这就是我们对AI代理的愿景:像Pi这样的AI能够帮助你导航这个世界。

主持人: 那么Mustafa离开对Inflection是不是很不利呢?

Reid: 不仅是他(Mustafa),还有我们的首席科学官。我们的理论是,这是我们的使命。我们想要在Inflection内部创建一个代理系统。经过思考后,我们意识到,考虑到这些代理系统的本质以及它们未来的经济商业模式,Inflection的业务应该进行转型。于是我们将其转向了一个更加面向B2B的开发者API经济模式。

主持人: 你们当时认为没有足够的规模支持这个项目,是吗?

Reid: 是的,我们认为创业路径可能行不通。即使我们有数十亿美元的资金。

主持人: 即使有数十亿资金,也不够?

Reid: 我们认为这个项目需要数十亿的资金,还涉及到资本市场、收入流等问题。相比之下,Inflection的商业机会在于我们拥有一个独特的API,因为我们是唯一一个在训练时同样关注情商(EQ)和智商(IQ)的模型。

主持人: 对,这是一个独特的模型。情商比智商更容易训练吗?

Reid: 它们是不同的,但在某些方面也是相似的。我们使用类似的人类反馈强化机制进行训练。Inflection的目标是拥有高智商和高情商的AI代理。于是我们决定以B2B模式提供这个服务,因为这是未来商业的方向。Mustafa和Karen则表示,他们希望继续开发代理系统,可能可以与微软达成双赢的合作。

主持人: 你刚才提到的那些数十亿资金,是因为扩展法则,还是更广泛的经济因素?比如经典的计算、数据、参数的扩展问题,还是有其他方面的因素?

Reid: 这个问题很广泛。AI革命的核心是规模计算的革命,本质上也是商业化的革命。它涉及规模计算、数据扩展、团队规模的扩展,以及敢于承担风险的能力。而公司是唯一在非战时能够承担这些责任的实体。

主持人: 你提到的扩展法则,是像Dario Amodei或Chinchilla的那种,还是更广泛的?

Reid: 我认为扩展涉及多个方面,包括计算规模在内。但不止于此。


4、AI场景实例

主持人: 好的,这些同学们写的作业真的很棒,我们有一群非常聪明的人在这里。我想提几个例子。那么你能告诉我们一下你的作业吗?Reid喜欢思考未来可能的美好发展方向,他是《星际迷航》的粉丝。你能告诉我们你的看法吗?

Reid: 当我们启动斯坦福人本AI研究院时,我写了一篇文章,题目是“有什么可能会变好?”我记得当时很多人觉得这是一种乐观的思考方式。

主持人: 是的,不是“会出什么问题”,而是“会有什么好的发展”。那么你觉得未来会有什么好的发展?

Reid: (笑)抱歉,我没有提前告诉你我要提问。给她递个麦克风吧。

学生1: 哦,我两年前在一家游戏公司工作过,后来成为了AI的联合主席。这个作业的任务是思考某个行业如何从AI中受益。我首先谈到了生成式AI的常见应用,特别是在NPC互动方面,语言模型让它们变得更加互动和沉浸式。但我也专注于系统层面,如何使用生成式AI和编程进行系统开发,尤其是在从宏观计算机科学转向个别开发者的场景中。这些生成式AI系统随着上下文窗口的增大,能够理解更大的系统。我认为,生成式AI现在在处理小任务方面表现良好,但未来可能在系统全局理解方面表现更好。对于小型游戏公司来说,这一点尤为重要。我之前在一家大型游戏公司工作,规模让它受益匪浅。但随着基础模型的普及,我认为这也可能帮助小型公司与大公司竞争。我认为代理系统(agentic universe)让大家都非常兴奋,我也觉得代理系统在应用上非常有潜力。不过,我也认为我们应该探索生成式AI如何与人类智慧结合。例如,生成式AI和大型语言模型(LLM)在状态空间迭代方面表现出色。像网络安全这样的领域,某些情况下,一次正确的结果所带来的好处远远超过多次错误的代价。我觉得现在很多人关注的是避免“幻觉”(hallucination),但我认为如果我们能将生成式AI应用于某些特定领域,能够让人类不用时时刻刻都保持高度警觉,那么即使LLM在某些地方出错,只要有一次正确的结果,就足以抵消多次错误的影响。

主持人: 非常好。我们再听几个不同的场景,然后就开放提问。下一个是——

学生2: 我采用了一种创造性的方式来完成作业。我写了一个短篇故事。我不会全部读出来,但我会读一下前两段内容。

Reid: 你自己写的还是用Gemini写的?(笑)

学生2: 不,我自己写的,真的。不过我可以快速总结一下我的设想。故事发生在2034年,人类正处于一场教育的文艺复兴边缘,知识的界限不再由地理或社会经济条件来定义。这场变革是由广泛采用先进的AI系统引发的,特别是一个名为Sora的奇迹般的AI,它体现了全球化智力的梦想。在尼日利亚的一个小村庄,年轻的Ada正与她的AI导师Sora进行关于理论物理的深入讨论。Sora通过全息技术以一种贴近Ada文化背景的方式呈现,将抽象的概念转化为熟悉的对话。每一课都根据她的学习节奏和兴趣量身定制,Ada深入探索那些曾经看似遥不可及的知识领域。我的设想是未来你可以通过全息技术让AI导师融入当地文化,不再局限于西方的知识生产。我在故事中写道,到2034年,诺贝尔奖得主将主要来自像印尼这样的人口大国,这些国家受益于AI教育系统。同时,我还提到了负面影响,比如传统的西方精英大学如纽约和伦敦的大学,可能会利用社会资本来阻止其他国家或低社会经济地位的人获得平等的教育机会。这会导致社会动荡,某些国家如柬埔寨、阿塞拜疆等也会因缺乏足够的数据来训练这些AI导师而面临文化的稀释。

主持人: 很喜欢这个故事的形式。接下来你能告诉我们关于Dr. MD的设想吗?

学生3: 我探讨了AI对医疗的影响。AI将在多个方面改善医疗,但有些问题需要特别注意,比如AI需要大量数据来不断改进,但这些数据对于病人来说往往涉及高度隐私。因此,如何安全或私密地将这些数据引入AI系统将成为一个重大挑战。另外,我也认同Reid之前提到的,AI不会完全取代医生,而是作为辅助工具,帮助医生做出更好的诊断和决策,而不是完全由AI代替医生。

主持人: 非常好!现在我们开放提问环节。我看到有些同学已经举手了。谁想提第一个问题?好的,来吧,请告诉我们你的名字并提出问题。


5、提问环节

提问者1: 你好,我来自GSB,对AI和生产力很感兴趣。我的问题有点超前,但随着我们开发出更多的AI代理和个性化体验,你认为未来是否可能出现这样一种情境:如今的个人数据大多属于企业,未来是否会发生变化,个人数据的控制权会转移到员工手中?比如说,我今天离开公司,去到另一家公司,我可以带走我的团队。那我是否也可以带走已经了解我的AI?

Reid: 这是一个非常好的问题。当你开始思考“代理系统的未来”时,比如我们每个人都有一个个人代理,或者我们在办公室有一个工作代理,我认为答案会有些模糊。举个例子,今天你可以带着自己的通讯录,因为这些人是你认识的,但公司不可能说你不能带着自己的通讯录离开公司。然而,你不能带走公司用于销售或采购的客户名单。我认为代理系统的未来会与此类似。我认为我们最终会带走一些与工作相关的代理,就像你拥有自己的iPhone一样,但这些代理对工作环境的访问会受到限制,因为公司会希望保护自己的知识产权,不希望这些信息泄露出去。这种有限访问的具体形式还未确定,但我认为大部分工作仍会在工作环境内部完成。因为公司不仅仅会保护自己的知识产权和数据,还会保护一些商业机密和计划,甚至在未来可能更加重要。所以将会出现一种奇怪的情况:我的代理知道我在工作环境中做了什么?这是一个尚待解答的问题。

主持人: 谢谢。你认为人们会主要拥有自己的代理来为他们工作吗?这种经济模式是什么样的?因为每次有人尝试开发个人化的软件,推荐引擎最终总是为亚马逊或其他公司服务。

Reid: 这就是Pi的理论和商业模式之一,最终是由个人自己来支付费用,从而使经济关系与个人需求保持一致。虽然广告商业模式在很多方面非常强大,但它也存在一些利益冲突,这可能会产生问题。

主持人: 很难让人们付钱。

Reid: 是的,关键问题是人们愿意为此付费吗?我认为会有一些代理完全由个人支付。这又回到我之前提到的透明度和问责制。如果你提供的代理是通过说服你购买东西来赚钱的,那么这一点必须对个人用户透明。如果公司不这样做,政府将会要求他们这样做。

主持人: 但听起来你认为这种模式是可行的,每个人都有一个为自己服务的代理,最大化实现我们的需求,而不是为他人服务。

Reid: 是的,我认为这个模式是可行的。

主持人: 好,看到很多人举手。我们先从这边开始,依次回答。你先来,麦克风正在递给你。

提问者2: 谢谢。我是计算机科学专业的本科生。当我们设想一个理想的未来,既想实现我们希望看到的积极结果,又想开发一个现实的商业应用来朝着这个目标前进时,如何平衡我们的想象力与当前可以实际规划和执行的事情?

Reid: 我自己一直在思考这个问题。LinkedIn就是一个很好的例子,Inflection也是。你需要意识到,完美往往是好事的敌人。你需要考虑在公司的基本运作模式中,真正想要实现的好事是什么?比如它是要治愈癌症,还是要让气候变得绿色和清洁,抑或是要为所有贫困国家带来公平?你不能做到所有的事情。因此,你需要找到在公司的核心业务或技术环节中,自然与公司的经济目标保持一致的好事。因为公司能够发展的部分原因是它们能够整合一系列不同的经济力量,包括投资力量、雇佣力量、资本分配以及市场资源的使用。这些技术和商业的引擎就是这样运作的。因此,你要问自己,我在这里做的根本性事情是什么?我举一个LinkedIn的例子,这个我比较熟悉。在LinkedIn的使命、文化、价值观,以及入职培训中,我们始终强调LinkedIn的首要客户是免费会员,而不是付费会员或企业客户。因此,当我们评估任何产品功能时,公司里的任何人都可以说:“这对免费会员不好。”如果对免费会员不利,那么这个功能就不会上线。虽然我们也为招聘人员、求职者、企业家、销售人员等提供很好的服务,但免费会员始终是优先考虑的。这种设计特色使得整个生态系统得以提升,这就是特定设计和一套通用原则之间的区别。

主持人: 非常感谢。接下来有请下一位。

提问者3: 您好,我是计算机科学本科生,同时在攻读MSND的硕士学位。我非常喜欢您关于技术如何让我们更加人性化的文章,特别是那句“人类的故事就是技术的故事。”不过有些历史学家可能会补充说,人类的故事也是战争与冲突的故事。今天关于AI的许多讨论,似乎与核扩散、军备竞赛的论调相似,尤其是在确保这种技术掌握在西方民主国家手中这一点上。您认为AI未来会像核扩散那样受到控制,还是会像互联网一样成为开放的资源?我们该如何确保它走向开放的未来呢?

Reid: 与核扩散不同,虽然核能也用于核电站等领域,但核扩散主要集中在武器领域,是由国家主导的。而AI主要是由商业领域驱动的。因此,在商业领域,想要达成反扩散条约或其他控制措施会更加困难。不过,确实有一些问题需要关注。举个例子,我们在网络安全方面已经有些力不从心了,比如医院被黑客勒索等情况。AI可能会加剧这种问题,特别是如果它是开放的并且掌握在每个人手中。正如我之前提到的,我很乐意看到像巴西这样的国家发展AI,但我不希望今天的俄罗斯拥有AI。因此,这需要我们在两者之间找到平衡。另外,我们现在实际上已经身处一场围绕网络安全的战争中,只是我们没有足够重视。事实上,战争今天就在发生,我们需要解决这个问题,尽量恢复非战争的环境。所以,我对AI的发展在许多社会中持乐观态度,它可以提供很多积极的变化。比如,针对你之前提到的集中的问题,至少有三家公司——虽然它们都位于美国西海岸——正在向全球开发者提供API。这种通用的支持能力很多,并没有被某一家公司垄断。而且我认为未来会有更多的公司加入这一行列。我总体上对这一切持乐观态度。不过对于开放性,我们需要谨慎。我一直是开源的强烈倡导者,我在Mozilla董事会任职了11年,LinkedIn也开源了很多项目。但开放模型与开源项目并不一样。一旦开放模型掌握在流氓国家、犯罪分子或恐怖分子手中,可能会发生类似自然灾害甚至更糟糕的事情。因此,我们需要努力确保这类事件不发生。比如,网络安全系统遭受重大攻击,突然之间医院被犯罪和恐怖组织摧毁。

主持人:  能具体解释一下您担心的是什么吗?大语言模型(LLM)如何能导致这些问题?

Reid: 今天的LLM已经可以做一些简单的事情,比如网络钓鱼。我想要获取Erik Brynjolfsson的密码,我可以利用LLM来生成一些创意的攻击方式。通常情况下,黑客可能会同时攻击上百万个用户,因为如果只攻击一个用户,当你收到第七封试图获取你密码的邮件时,你会开始觉得有点可疑。有很多技术可以实现这一点,而且你可以通过非常有创意的方式大规模进行,比如冒充他人。

主持人: 是的,比如你尝试对医院里的每个人进行攻击,获取管理员的凭据。LLM在这方面比传统的暴力破解更擅长。

Reid: 没错,因为它可以进行A/B测试并跟进,判断这封邮件背后是否真的有一个人回应。

主持人: 完全同意。今天我和特斯拉的人聊了一下,我几乎99%确定对方是个机器人,结果他们打电话给我,我说:“等等,你是个人?”因为之前的对话太机械化了,我几乎认为对方是个非常好的机器人。

Reid: 是的,我们的语音生成技术已经非常出色了。

主持人: 对,特斯拉毕竟是特斯拉。再过几次迭代,技术会越来越好。所以你对此很担忧吗?你认为让Llama 3广泛可用是个错误,还是未来的某一代版本才会引发更大的问题?

Reid: 这个问题会随着时间的推移而变得越来越值得担忧。Llama 3本身是不是一个关键错误?还是说问题出在Llama 3.5或4呢?我也不完全清楚。其实,当他们最初开源Llama时,他们希望我签署一封信,那封信中特意加了一句话,声明他们会在发布每个模型之前进行安全性评估,并不一定会将所有模型都开源。这句话就是为了获得我的签名而添加的。

主持人: 明白了。你曾在OpenAI的董事会工作,当时他们从非营利组织转变为...

Reid: 其实它仍然是一个非营利组织。我是在一个非营利的董事会里。他们有一个附属的盈利公司,这个公司由非营利组织控制。很多人对此很困惑。

主持人: 是的,情况稍微复杂一些,但实际上它是一个“封顶盈利”模式,对吧?

Reid: 是的,封顶盈利模式确保它在非营利框架内运作,而附属公司是盈利的。

主持人: 你能再多说几句吗?这是唯一能为它提供资金的方式吗?

Reid: 是的,部分原因是如果只有大规模计算才能做到这些事情,那么你需要数十亿资金来支持。而OpenAI团队的聪明之处在于,他们发现有很多商业上有价值的东西,可以与企业合作,同时推进为人类创造有益AI的使命。这就是我们通过这种方式将非营利组织的501(c)(3)使命与经济规模结合起来的原因。

主持人: 非常好。我们来看看这边的提问。前面这位先来,然后再往后提问。

提问者4: 你好,Reid,我来自GSB。许多公司拥有大量客户的私人数据,他们不愿将这些数据交给基础模型提供商。你认为公司应该如何利用这些数据来为客户提供解决方案,同时确保公平使用和治理的基础?

Reid: 这是一个会迅速得到解决的问题。针对这个问题已经有很多不同的解决方案。我认为其中一个最通用的方法是,你可以利用一套稳健的技术,将任何中等规模或更大规模的数据池生成合成数据,这些数据看起来像真实数据,但不包含个人客户的数据。而且,随着生成合成数据技术的进步,你甚至可以用一些免费或廉价的数据生成大量合成数据。这是一种解决方案。另一种方式是,你可以在公司内部训练模型,并将其仅限于内部使用。许多公司已经在探索这一方向。这是针对这个问题的两种尝试。

主持人: 你刚才提到的扩展法则,越来越多的公司在构建超大型模型。但也有很多人认为,小而专注的模型,利用专有数据,可能在许多经济应用中更有价值。你同意这个观点吗?还是认为这些小模型不会有竞争力?

Reid: 不,其实我认为会有很多小型模型具有特定的实用价值。一个很明显的例子是,如果你认为每个计算单元都会变得更加智能化,你会经常希望这些计算单元在本地运行,而不是每次都要调用外部资源。这主要是推理成本的问题。

主持人: 没错,所以这并不一定是训练成本的问题。你只是想要一些运行成本很低的东西,不需要像爱因斯坦那样的高智商。

Reid: 是的,没错。而且你将这些小型模型与其他模型结合使用,已经是我们在看到的趋势,未来会越来越多。好的,把麦克风传下去,我们听听后面同学的提问。

提问者5: 你好,Reid,你之前提到了书籍。你用GPT-4写了一本书,我想请你谈谈版权问题。现在很多开发者面临的主要问题是他们不再能使用非法获取的书籍进行训练,或者有些人担心因使用这些数据而被起诉。目前美国政府也在讨论模型的输出是否应该有版权,模型本身是否应该有版权,或者经过某种方式处理过的数据在用于预训练前是否仍然保留版权。

Reid: 在你的这些版权问题中,最简单的问题是,模型能否被视为内部机密知识产权,属于我的财产,任何人未经允许拿走它就构成犯罪?对此答案应该是肯定的。我可能会选择开源它或者做其他处理,但...

提问者5: 那么其他的问题呢?

Reid: 关于版权的原则,我认为类似于你买了Erik的书,你有权阅读它,学习它,可以与别人分享它,这些都是版权的一部分。但你不能重新排列章节,简化为几句话然后出售这个版本。因此,我认为这些原则应该适用于AI模型。比如,我认为《纽约时报》的诉讼有点牵强,因为他们声称模型在重现他们的文章时需要复制文章的前半部分,这实际上表明你已经拥有了原文。因此,这并不是在实际生产《纽约时报》的文章,尽管他们的另一个主张是模型不仅复制了准确的文章,还复制了不准确的文章。

主持人: 如果模型输出了完全相同的内容,你认为那是个问题吗?

Reid: 是的,我认为这不应该被允许,因为我们在这方面投入了很多精力。如果你投资了版权内容,我们不会要求你在五分钟后忘记书的内容。我们允许知识在个人存储中被使用,我认为作为社会,我们应该鼓励学习和训练。因此,训练和推理之间是有区别的。我告诉很多媒体界的人,不要过于关注数据集的价值,试图从训练中获得大笔回报。相反,应该关注数据集在推理中的长期价值,并且我们应该找到一种平衡的经济模式。

提问者5: 我提这个问题是因为LinkedIn之前有过关于数据抓取的著名案例。

Reid: 是的,我们在LinkedIn采取了对数据抓取行为的强硬态度,部分原因是我们与会员有一个约定,如我之前所说的“会员至上”。你可以控制自己的资料,随时添加或删除任何内容。我们与会员建立了直接的关系,允许他们随时删除或修改资料,这是我们之间的契约。问题在于,如果其他人抓取这些数据,会员个人的控制权就会被削弱。当然,这也有助于我们的商业模式,但更重要的是我们与会员的契约,确保我们在这方面成为他们的代理人。顺便说一下,我们为此获得报酬并不是坏事,将商业利益与对个人有利的事情对齐是很好的。比如,我们会将一些简化的个人资料发布在公共网页上,但我们并不会把所有的资料都发布出来。因为当你把资料发布到网络上,你获得了大家可能看到的好处,比如搜索引擎优化(SEO)的效果。这在阅读方面已经很清楚了。至于输出方面,我认为如果我发布了某个内容,并主张版权,答案是可以的。即使我是通过模型生成了一部分内容,只要进行了一些微小的修改,比如更改一个标点符号或一个单词,它就可以满足版权的要求。不过,问题是,我们必须考虑,如果每个人都在大规模生成内容并主张版权,而别人使用了同样的模型生成了类似的内容,那该怎么办?比如我一个星期前使用了某个提示词生成的内容,然后Erik用相同的提示词生成了类似的内容,这种情况该如何处理呢?这确实会带来一些复杂的情况。

主持人:  我们必须弄清楚这些细节。虽然我们可以参考现有的版权法,但更重要的是,我们需要考虑背后的经济目标。我们如何为人们创造有价值的内容提供激励?如果没有这些激励,人们就不会创造内容,大家都会因此而受损。我们需要给创作者一些回报,同时也不能把一切都免费赠送出去,因为那样会削弱使用这些内容的动机。这涉及知识产权经济学的最佳实践,比如专利的最优期限和合理使用(Fair Use)的平衡。现有的版权和专利系统在一定程度上已经与经济学的理论相匹配。即使你回到美国宪法的制定,它就明确提到了通过激励机制来鼓励创造。因此,这个系统的目标是提供激励机制。

Reid: 不过随着技术的进步,成本和收益都发生了大幅变化,我们必须重新思考现有的系统。直接沿用现有系统的做法会令人惊讶。我们必须进行大量的重新设计。

主持人: 好,我们把麦克风传到中间那边。橙色衬衫的同学。

提问者6: 你好,Reid。我来自商学院。我的问题与最近流行的一种观点有关,即所谓的“幻觉”其实并不是真的幻觉,而是生成输出的一种随机过程。它与人类说谎或说真话的区别不大,它只是一个概率输出。所以我的问题是,模型能否在没有真正理解真理的情况下可靠地产生准确的输出?我们能否通过现有的研究实现这一目标?或者说这是否是不可能的?

Reid:  不幸的是,我的简单答案是:可以做到。为什么说“不幸”呢?因为这个问题本来很有趣,但答案却很简单。如果我们追求一个完全没有幻觉的通用模型,我不认为我们能达到五个九(99.999%)的准确率。但如果是像放射学这样的特定领域,答案是可以的。

主持人: 只用现有的LLM模型,不需要额外的技术,比如RAG?

Reid:  不,不。你还是会使用RAG(检索增强生成)和其他多种技术。你还需要多种模型配合使用。

主持人: 那么现有技术可以达到五个九的标准吗?

Reid:  是的,用现有的技术可以做到,但这个“现有技术”是广义的,不仅仅指转换器模型。

主持人: 好的,麦克风继续传递到后面。同一排的那位同学。

提问者7: 你好,Reid。我也来自商学院。我想请问你对AI在医疗领域的看法。Vinod Khosla说,到2034年,我们每个人都会拥有一个免费的AI医生。你认同这个观点吗?还是说,你觉得未来AI医生的趋势会如何?你认为会是现有的医疗巨头主导,还是OpenAI这样的公司,或者说初创公司会抓住这个机会?

Reid: 是的,我不确定我们俩谁最早提出这个观点的。你觉得你比他(Vinod Khosla)早吗?我不确定,我听你也谈过这个话题,他确实谈论得更频繁。很喜欢他正在推动这一点。所以,我认为如果到2030年甚至2034年我们没有在每部手机上都有一个AI医生,那唯一的原因是监管、法律责任等问题。这也是我建议政府解决的问题之一。因为如果社会能够普及这样一种服务——每部手机上都有一个免费的医生——社会的整体福祉会大大提升。我猜测这将大幅降低我们的医疗费用,提高整体医疗效率。政府和社会应该支持这一点。我认为现有的受监管行业很难实现这一点,因为他们的思维完全局限于现有的法规框架内。我认为你需要改变规则,允许有一个安全港的代理来提供医疗建议,当然有些参数要加以控制。例如,你可能会被问到:你能见到医生吗?如果答案是“能”,那么AI可以告诉你应该告诉医生什么,并让你去见医生。但很多人无法见到医生,尤其是那些只能去急诊室的人。而我认为,阻碍AI医生普及的最大障碍将是监管,可能需要很多初创公司冒险去挑战这些规则,可能会有一些公司因为监管问题失败,直到最终整个系统适应过来。我认为现有的大公司不会尝试,因为法律和监管结构太过复杂了。但我认为如果今天有合适的法律结构,你可以在几个月内让这种系统开始运作,推理成本也很合理。

主持人: 那作为一个有创造力的企业家,你会如何绕过这些法规,在手机上为数亿人提供医疗服务呢?如果美国医学会(AMA)阻止了这种服务呢?

Reid: 你必须确保自己不会被诉讼压垮,因为在法律诉讼中很容易被拖垮。结合伦理学,你可以寻找一个愿意让你实施这种服务的国家。如果你选择离岸运营,你可以利用互联网,在其他国家运营,并挑战他们封锁你的IP地址。当然,手机有GPS定位功能,所以当你进入一个不允许这种服务的国家时,可以提示用户:“点击这里发送投诉给当地国会议员。”就像Uber当时的策略一样。

主持人: 这是个有趣的想法,绕过法规似乎是实现这种服务的关键之一。

Reid: 是的,我更希望能直接解决监管问题,因为这是我们应该努力的方向。我们非常需要这种服务。

主持人: 你觉得国会会接受这个想法吗?毕竟你和政府的关系密切。

Reid: 或许吧,但不确定,可能需要一些时间和努力。

主持人: 好的,把麦克风传回来。红色衣服的同学,请问你的名字?

提问者8: 谢谢你的到来。我正在学习计算机科学和MBA。我最近在研究脑机接口(BCI)和AI。你认为在未来5到10年内,我们是否能有硬件连接到我们的脑部思维,并让AI成为我们的个人助手,而不需要显式地向它们提供数据?

Reid: 这取决于你对“显式提供数据”的定义。如果你有任何形式的连接,你就已经在提供数据了。我认为我们肯定会全力投入到开发那些不仅仅通过语言、手指、声音等方式进行计算输入输出的设备中。这些设备将直接与我们的神经系统进行交互。

主持人: 当你说“我们”时,你是指社会还是Greylock公司?

Reid: 我是指西方的技术创新。可能是全球技术创新。我当然看到美国有很多这方面的需求。显然,对于那些有各种健康问题的人来说,这种技术可以带来很大的积极作用。关于接口的未来,有一个问题是,最终那些需要手术操作的接口与不需要手术操作的接口相比,发展速度会比人们预期的更慢。因为存在各种未知的健康问题,除非它能解决某个重大的健康问题,或者其收益巨大,否则为什么不对健康问题更加谨慎呢?这也是为什么我认为未来很多东西会更倾向于非手术方式,而不是说“我们钻进你的头骨,放进一些东西”。这更像是一系列的非侵入性方法,虽然这些方法的阻抗性能不如手术方式好,但我们的神经系统本身已经有很多方式可以利用。我认为这些非手术的方案可能会率先进入大众市场。

主持人: 是的,Neuralink的创始人之一Max Hodak曾说过,当他们植入这些设备时,他们每连接一个神经元,可能会破坏7、8、9个神经元,比例并不太好。好,还有谁有问题?后面那位同学。

提问者9: 你好,Reid。我来自医学院,但我的问题与医疗无关,更多是关于个人生产力的。我知道你花了很多时间研究快速扩张公司(blitzscaling),员工和创始人等问题。有一个关于技术作为团队一部分的概念,涉及到组织行为的研究。我发现现在我常常同时打开多个GPT、Gemini等工具的标签页,而且我必须不断适应不同的模型,随着它们的进步,我还要继续适应这种变化。这有点像每周都在和新同事合作。你对如何应对这种不适的变化有什么建议吗?可以借鉴快速扩张的概念吗?

Reid: 快速扩张更多是关于如何扩大组织规模,而不是个人层面。但我认为在整个“代理系统”中,一个非常自然的事情是,我现在已经在我的笔记本电脑上建立了一个环境,可以输入一个查询,然后它会在多个代理上运行多个提示,整合这些回答,最终给我一个富文本格式的文档,比如“我认为这个查询的总体结果是这样,但你可以深入研究各个方面。”这个流程让它作为研究助手时非常强大,特别是当我试图获取某些信息时。它包括通过搜索API,分析搜索结果等内容。我建立这个系统的部分原因是,我认为我们距离这种功能在每台电脑和手机上成为常态已经不远了。


6、未来大模型文本转变

主持人:  谈到“代理系统”AI,Eric Schmidt曾说过“从文本到行动”将是非常重要的一个领域。去年,Mustafa也谈到过“人工能力智能(artificial capable intelligence)”。你能谈谈你认为未来的LLM(大型语言模型)将如何从提供文本和建议,发展到执行动作,像是预订餐厅、下订单、购买和出售东西、制造物品吗?

Reid: 我认为人们往往低估了这一点,也就是所有这些不同的界面与现实世界的互动。我认为我们正朝着这一方向前进,正在研究安全性和对齐原则以及应做什么样的事情。在某种程度上,AI革命的魅力之一就在于它不仅仅是一个工具,它是“元工具(meta tool)”,能够改变我们与世界互动的方式。所以这就是“元工具”,它可以帮我处理我的邮箱,帮我搜索,帮我预订餐厅,帮我做研究,帮我处理Excel表格和财务工作。现在的LLM(大型语言模型)已经能做到这些了。举个例子,如果你想创作一些爵士音乐,现有的计算机软件工具可以帮助你,但这些工具非常复杂,光是学会使用它们可能就需要几百个小时。而你可以直接对LLM说:“我想使用这个音乐工具,它的输出是什么?”这就有点像从文本到操作的一部分。你可以在这个基础上不断迭代,LLM会成为那些工具之上的“元工具”。我们现在使用的每一个工具,尤其是在认知领域——有些工具确实需要我们花上几百个小时来学习,而LLM将成为这些工具的“元工具”。

主持人: 这是个很重要的概念。好吧,时间差不多了。你经历过多次AI和技术革命,可能是硅谷里最具连接性的人之一。对于现在这段历史时刻,你有什么建议吗?比如说,哪些是炒作,哪些是真实的?人们应该做些什么?现场的很多学生都在做商业计划、政策提案或研究计划。最后有什么建议或评论吗?

Reid: 我觉得最主要的一点是,尽管现在有很多炒作,人们经常认为未来的一年会有天翻地覆的变化,但如果你真的能看到未来一年,它不会与现在有太大的不同。但事情往往会快速复合,突然之间,10年后或5年后,你会发现世界真的变得非常不同了,尽管每一年的变化看起来都不大。这样的动态变化非常重要。所以不管你在思考什么,都要考虑到这点:在这个快速变化的技术环境下,作为一个平台,它比移动电话、互联网和云计算更重要,因为它放大了这些技术,并且在它们的基础上带来了新的放大层次。你需要思考这意味着什么。这也是为什么《Impromptu》第一章谈到了教育问题。很多教育机构的反应是:“这不好,我们要禁止它!”但这其实是个糟糕的想法。仅仅因为我们长期以来固定在一个几十年前的教育、培训和评估模式上,并不意味着我们应该继续维持这个模式。我们应该努力改善它,而不是停滞不前。

主持人: 完全同意,绝对不应该停滞不前。

Reid: 所以总体来说,我认为我们正在经历一场认知工业革命。你有时间去理解和搞清楚这些东西,但要预期到动态的变化。

主持人: 好的,谢谢你,Reid。你分享的内容非常精彩。感谢你抽出时间与我们交流。

观众: 掌声



更多斯坦福大学人工智能课程:https://stanford.io/ai

对了,喜欢就别忘了点赞、收藏、转发支持一下!期待在评论区听到你的观点和看法!

往期回顾

1、[盖茨书单:《勇敢的新词》作者Sal Khan认为,AI会成为职场中一个非常重要的工具,人们必须学会如何使用它]

2、[演讲总结:未来学家凯文·凯利刚刚亮相2024上海外滩大会,预言AI时代三大趋势,未来所有工作都会使用人工智能]

[3、Google 前 CEO 埃里克·施密特在斯坦福2万字讲座实录:AI明年三大趋势,第一个趋势将彻底改变你获取信息的方式


我们旨在将先进科技与创新想法完美融合!

想要掌握人工智能,但不知从何开始?告诉我们你的需求,学习AI让你抓住这波浪潮

告别昂贵服务和缺人烦恼,再见漫长交付周期

无限创意,分分钟生成专业级产品

感受 AI 带来的全新工作体验!

欢迎各大品牌方、媒体、企业和个人等

请联系负责人微信:Milo-1101

--END--

未经许可不得转载,务必保留公众号原文链接和公众号按钮

继续滑动看下一个
AI深度研究员
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存