达特茅斯大学对话OpenAI CTO Mira Murati:她坦言职场会发生重大变化,一些岗位注定消失
昨天,在达特茅斯大学工程学院举办了一场独特而富有洞察力的对话活动,邀请到了OpenAI的首席技术官、达特茅斯2012届工程学院校友Mira Murati。
这场对话的主题是"人工智能无处不在:改变我们的世界,赋予人类权力
(AI Everywhere: Transforming Our World, Empowering Humanity)"。作为ChatGPT和DALL•E等革命性AI技术的研发者之一,Murati的视角无疑具有重要价值。她不仅深入探讨了这些技术背后的人工智能原理,还就AI发展过程中持续存在的安全和伦理问题,以及AI对未来可能产生的深远影响,提出了自己的见解。
这场对话由Jeffrey Blackburn主持。作为达特茅斯大学的杰出校友和现任董事会成员,Blackburn在全球数字媒体和技术领域拥有丰富经验,曾在亚马逊担任要职。他的参与为这场对话增添了更多跨界思考的维度。
在人工智能日益渗透到我们生活的方方面面之际,这样一场汇聚了业界领袖、学术精英和未来人才的对话,无疑将为我们理解和应对AI带来的机遇与挑战提供宝贵的启示。接下来,让我们一起走进这场精彩的对话,聆听Mira Murati关于AI现状和未来的深刻洞见。
视频文稿整理
我是Alexis Abramson,达特茅斯大学Thayer工程学院院长。我很荣幸欢迎大家参加这个非常特别的活动——与Mira Murati的对话。她是我们人工智能领域最杰出的领导者之一,也是达特茅斯工程学院的校友。
在我们开始之前,我想特别欢迎一位特殊的嘉宾,Joy Buolamwini。她在人工智能、人工智能伦理和算法正义方面的工作也享有盛名。她明天将获得达特茅斯大学的荣誉学位。同时,也热烈欢迎Mira和所有现在是她家人或她在达特茅斯时的家人,包括她的兄弟Ernel Murati,他也是2016届学院的校友。
感谢我们在Neukom计算科学研究所和计算机科学系的合作伙伴。从1956年达特茅斯举办的第一次开创性人工智能会议,到我们目前在大型语言模型和精准健康方面的多学科研究,达特茅斯一直处于人工智能创新的前沿。因此,我们特别高兴今天能邀请到Mira,她是OpenAI的首席技术官,也是我们工程学院2012届的毕业生。她因在一些当今最受关注的人工智能技术上的开创性工作而闻名。在OpenAI,她带头开发了像ChatGPT和Dall-E这样的变革性模型,为未来的生成式人工智能技术奠定了新的基础。
在Thayer学院学习期间,她将自己的工程技能应用于达特茅斯方程式赛车队,设计并制造混合动力赛车。明天的毕业典礼上,她将获得达特茅斯大学授予的荣誉理学博士学位。
最后,今天主持我们对话的是Jeff Blackburn,他是达特茅斯1991届毕业生,现任达特茅斯大学董事会成员。Jeff的职业生涯一直专注于全球数字媒体和技术的发展。他曾在2023年前担任亚马逊全球媒体和娱乐高级副总裁,并在公司担任过多个领导职务。他对技术、媒体和娱乐交叉领域的洞察必将确保我们今天有一场引人入胜的对话。那么,不再多说,我现在把对话交给他们。请大家和我一起欢迎Mira Murati和Jeff Blackburn。
Jeffrey: 谢谢你,Alexis。这栋漂亮的建筑真是太美了。
Mira: 很高兴来到这里。
Jeffrey: Mira,非常感谢你来到这里并抽出时间。我能想象你现在的日子有多忙。
Mira: 很高兴来到这里。
Jeffrey: 你为大家抽出时间真是太好了。
Mira: 我真的很高兴能在这里。
短暂在Tesla工作和加入OpenAI原因
Jeffrey: 我想直接切入正题,因为我知道大家都想听听你的生活和你正在构建的东西,这真是太迷人了。也许我们应该从你开始说起,你离开Thayer,去了Tesla一段时间,然后加入了OpenAI。如果你能描述一下那段时期以及你早期加入OpenAI的情况就好了。
Mira: 是的,所以我... 在Thayer毕业之后,我实际上在航空航天领域短暂工作了一段时间,然后我意识到航空航天领域进展比较慢,而我对Tesla的使命非常感兴趣,当然还有在构建一个可持续未来的交通工具方面的创新挑战,我决定加入他们。在Model S和Model X的开发过程中,我意识到我不太想成为一个汽车领域的人,我更想在推进社会进步的同时,迎接一些艰巨的工程挑战。在Tesla期间,我对自动驾驶汽车和这些技术的交叉点非常感兴趣,比如计算机视觉和人工智能,将它们应用于自动驾驶汽车。我想,好吧,我想了解更多关于人工智能的知识,但在不同的领域。所以我加入了一家初创公司,领导工程和产品团队,将人工智能和计算机视觉应用于空间计算领域,思考下一代计算界面。当时我认为这将是虚拟现实和增强现实。现在我认为有点不同了,但我当时想,如果你可以用手与非常复杂的信息互动,无论是公式、分子还是拓扑学的概念,你可以以一种更直观的方式学习这些东西,这会扩展你的学习能力。结果虚拟现实当时有点太早了。但这让我在不同的领域学习了人工智能,并且我的职业生涯一直处于技术和各种应用的交汇点,这给了我一个不同的视角,看到了人工智能的发展进程以及它可以应用的领域。
Jeffrey: 所以在Tesla的自动驾驶领域,你看到了机器学习、深度学习。你能看到它的发展方向。
Mira: 是的,视觉方面。
Jeffrey: 你和Elon合作过吗?
Mira: 是的,尤其是最后一年。但当时还不太清楚它的方向。那时候,人工智能仍然是应用于非常狭窄的特定问题,而不是一般性的应用。它在虚拟现实和增强现实中的情况也是如此。从那时起,我想我不想仅仅将其应用于特定问题。我想了解研究,真正理解正在发生的事情,然后再将其应用于其他领域。所以这时我加入了OpenAI,OpenAI的使命对我非常有吸引力。那时它是一个非营利组织,使命没有改变,结构改变了,但我六年前加入时,它是一个旨在构建安全的通用人工智能的非营利组织,除了DeepMind之外,这是唯一一家这样做的公司。现在当然有很多公司在构建某种版本的通用人工智能。
Jeffrey: 是的,一些公司。
Mira: 是的,这就是我加入OpenAI的开始。
ChatGPT和Dall-E工作原理
Jeffrey: 明白了。自从你在那儿,你们已经构建了很多东西。也许我们可以为大家简单介绍一下机器学习、深度学习和现在的人工智能基础知识。这些都是相关的,但有所不同。那么,这其中发生了什么,它是如何在ChatGPT、Dall-E或你们的视频产品中体现出来的?它是如何工作的?
Mira: 这不是一个根本性的创新。某种意义上,我们是在几十年的人类努力基础上构建的。实际上,它的起源就在这里。在过去十年中发生的事情是这三者的结合:神经网络、大量数据和大量计算资源。这三者结合在一起,你会得到这些真正变革性的人工智能系统或模型,结果它们能够做这些惊人的事情,比如完成一般任务,但具体如何运作并不完全清楚。深度学习就是有效。当然,我们试图理解并应用工具和研究来理解这些系统的实际工作原理,但我们知道它们是有效的,因为过去几年我们已经这样做了。我们还看到了进步的轨迹以及系统如何随着时间的推移变得更好。当你看像GPT-3这样的系统时,我们大约三年半前部署了大型语言模型。GPT-3的目标只是预测下一个标记。
Jeffrey: 它实际上是下一个词的预测。
Mira: 是的,基本上是这样。
Jeffrey: 嗯。然后我们发现,如果你给这个模型一个目标,让它预测下一个标记,并且你用大量数据训练它,同时使用大量计算资源,你得到的其实是一个能够理解语言的模型,程度与我们相似。
Mira: 因为它读了很多书,它读了所有的书。它似乎知道什么是最重要的
Jeffrey: 基本上是所有互联网上的内容。
Mira: 它知道下一个词应该是什么。但它并不是在记忆下一个词是什么,它实际上是在生成它自己对已见数据模式的理解。然后我们发现,不仅仅是语言,实际上,如果你把不同类型的数据放进去,比如代码,它也能编写代码。所以实际上,它不在乎你放进去的是什么类型的数据。它可以是图像,可以是视频,可以是声音,它都能做同样的事情。
Jeffrey: 哦,我们会谈到图像的。是的,(Jeff笑)但确实,文本提示可以生成图像或视频,现在你甚至可以看到相反的情况。
Mira: 是的,正是如此。所以我们发现这个公式实际上效果很好,数据、计算资源和深度学习,然后你可以放入不同类型的数据,增加计算资源,AI系统的性能就会越来越好。这就是我们所说的扩展定律。它们并不是实际的法律,基本上是对模型能力随着你投入更多数据和计算资源而提高的统计预测。这就是推动今天人工智能进步的动力。
为什么做文本生成AI
Jeffrey: 你们为什么从聊天机器人开始?
Mira: 是的,在产品方面,实际上我们是从API开始的。我们并不真的知道如何将GPT-3商业化。将AI技术商业化实际上非常非常困难。最初,我们对此掉以轻心,非常专注于构建技术和进行研究。我们认为,这是一个了不起的模型,商业合作伙伴可以拿去构建出色的产品。然后我们发现,这实际上非常难。所以这就是为什么我们开始自己动手做。
Mira: 我们验证一下我们自己的想法
Jeffrey: 那让你们构建了一个聊天机器人,因为你们只是想验证自己想法
Mira: 是的,因为我们试图弄清楚,为什么这些真正成功的公司实际上很难将这项技术转化为有用的产品。
Jeffrey: 我明白了。
Mira: 因为这是一种非常奇怪的产品构建方式。你从能力开始,你从技术开始,而不是从我要解决的世界问题开始。它是一种非常通用的能力。
Jeffrey: 这很快就引出了你刚才描述的内容,也就是更多的数据、更多的计算资源和更多的智能。这个智能会变得多聪明?听起来你的描述是这个扩展过程相当线性,你添加更多的元素,它就变得更聪明。在过去几年里,ChatGPT变得更聪明了吗,它离人类水平的智能还有多远?
Mira: 是的,这些系统在特定任务上已经达到了人类水平,当然在很多任务上还没有。如果你看一下改进的轨迹,像GPT-3这样的系统,我们也许可以说它有着幼儿级别的智能。而GPT-4这样的系统更像是聪明的高中生智能。在接下来的几年里,我们期待在特定任务上达到博士水平的智能。
Jeffrey: 比如?
Mira: 所以事情在迅速变化和改进。
Jeffrey: 意思是大约一年后?
Mira: 是的,大约一年半。
Jeffrey: 你和ChatGPT对话时,它看起来比你更聪明。
Mira: 在某些方面,是的。在很多方面,是的。
Jeffrey: 也许离那不远了。
Mira: 是的,可能吧。
Jeffrey: 很接近。
OpeanAI安全方面的工作
Jeffrey: 大致如此。嗯,这确实引出了其他问题,我知道你对这些问题非常直言不讳,我很高兴并为你感到骄傲,你在安全方面做了很多工作,但人们确实想听听你的看法。那么,三年后,当它变得难以置信的智能时怎么办?它能通过所有的律师资格考试和我们做过的每一项测试。然后它决定自己连接到互联网并开始做事。这是真的吗,这是...还是你作为CTO和产品方向负责人在考虑的事情?
Mira: 是的,我们对此考虑很多。这绝对是现实,你会有具备代理能力的AI系统,连接到互联网,互相交流,代理彼此连接并一起执行任务,或者代理与人类合作并无缝协作。所以与AI的合作就像我们今天彼此合作一样。在安全、安保和社会影响方面,我认为这些问题不是事后考虑的。你不能只是开发技术,然后再想办法处理这些问题。你必须在技术开发过程中嵌入这些问题,并以一种深度嵌入的方式来做到这一点。对于能力和安全,它们实际上不是分开的领域。它们是相辅相成的。指导一个更智能的系统要容易得多,只需告诉它,不要做这些事情,而不是指导一个不太智能的系统。这有点像训练一只更聪明的狗和一只不太聪明的狗一样,智能和安全是相辅相成的。
Jeffrey: 因为它更聪明,所以它更理解护栏。
Mira: 是的,正是如此。所以现在有一个关于更多安全研究还是更多能力研究的辩论。我认为这是有点误导的,因为你当然需要考虑产品部署的安全性及其护栏。但在研究和开发方面,它们实际上是相辅相成的。从我们的角度来看,我们的方法是非常科学的。让我们试着预测这些模型在训练完成之前的能力。然后在此过程中,准备好如何处理它们的护栏。这在行业中还没有真正做到。我们训练这些模型,然后会出现我们称之为的“突现能力”,因为它们是突现的。我们不知道它们会出现。我们可以看到某种统计性能,但我们不知道这种统计性能是否意味着模型在翻译、生物化学、编程或其他方面表现更好。开发这种新的能力预测科学有助于我们为未来做好准备。
Jeffrey: 你说所有这些安全工作,实际上与开发过程一致。
Mira: 是的,没错。
Jeffrey: 这是类似的路径。
Mira: 是,所以你必须同时进行。
Jeffrey: 但是,像Volodymyr Zelensky说“我们投降”的视频,Tom Hanks的视频,或者一个牙医广告,这些问题呢?我不记得具体是什么。这些类型的使用场景如何处理?这是在你的职责范围内,还是需要相应的法规?你怎么看待这个问题的解决?
Mira: 是的,所以我的看法是,这是我们的技术。所以我们有责任确保其使用,但这也是与社会、民间社会、政府、内容创作者、媒体等共享的责任,以弄清楚如何使用它。但为了使其成为共同的责任,你需要让人们参与进来,给他们提供工具,让他们理解并提供护栏。
Jeffrey: 这些东西很难阻止,对吧?
将AI风险降到最低
Mira: 我认为不可能做到零风险,但关键是如何将风险降到最低,并为人们提供工具来实现这一点。以政府为例,非常重要的是让他们参与进来,给他们提供早期访问,教育他们了解正在发生的事情。
Jeffrey: 政府。
Mira: 当然,还有监管机构。我认为ChatGPT最重要的贡献之一是将AI引入公众意识,让人们对技术的能力和风险有一个直观的理解。读到这些与亲身体验是不同的,当你在自己的业务中尝试它时,你会看到它不能做这些事情,但它能做其他惊人的事情,这实际上对劳动力或我的业务意味着什么。这让人们做好准备。
Jeffrey: 是的,这是一个很好的观点。你们创建的这些界面,像ChatGPT,让人们了解即将到来的变化。你可以使用它,现在可以看到其背后的内容。关于政府的观点,我想再问一下。就拿美国来说,你希望现在就实施某些法规吗?在一两年后,它会变得非常智能,有点吓人。那么现在应该做些什么呢?
Mira: 我们一直在倡导对前沿模型进行更多监管,这些模型有惊人的能力,也因为误用而有潜在的负面影响。我们一直与政策制定者公开讨论,并与监管机构合作。在更短期和较小的模型方面,我认为允许生态系统中的广泛性和丰富性是好的,不要让那些没有太多计算资源或数据的人无法创新。因此,我们一直在倡导对前沿系统进行更多监管,因为这些系统的风险更高。而且你可以在变化发生之前预先准备,而不是试图跟上已经迅速发生的变化。
Jeffrey: 但你可能不希望华盛顿特区来监管你发布GPT-5的时间,比如你能否这样做。
Mira: 这实际上取决于具体的监管。所以我们已经做了很多工作,这些工作现在已经在白宫的承诺中得到体现。
Jeffrey: 所以已经在进行了。
Mira: 工作已经在进行了。它实际上也影响了白宫的承诺以及联合国委员会在AI部署原则方面的工作。通常,我认为正确的做法是先进行工作,理解其实际意义,然后基于此创建法规。这是目前的做法。要提前应对前沿系统,需要做更多的预测和能力预测科学,以便制定正确的监管措施。
Jeffrey: 我希望政府有能够理解你们在做什么的人。
Mira: 看起来越来越多的人加入政府,他们对AI有更好的理解,但还不够。
AI如何具体影响各个行业
Jeffrey: 在行业方面,你可能是世界上最能看到AI如何影响各个行业的人。它已经在金融、内容、媒体和医疗保健中产生了影响。但展望未来,你认为哪些行业会受到AI和OpenAI工作的最大影响?
Mira: 这有点类似于我们开始基于GPT-3构建产品时,企业家们问我的问题,“我可以用它做什么?它擅长什么?”我的回答是,一切。所以去尝试吧。我认为这有点类似,我认为它会影响所有领域,没有哪个领域不会受到影响,无论是认知工作还是认知劳动。也许进入物理世界会花更长时间,但我认为所有领域都会受到影响。我们已经看到...我认为在高风险领域,如医疗保健或法律领域,有一定的滞后。这是有道理的。首先,你要在低风险和中等风险的用例中引入它,确保这些领域的使用得到了充分的处理,然后再应用于高风险的事情。最初,需要更多的人类监督,然后可以逐渐改变授权,逐步进行更为协作的应用。
Jeffrey: 有没有你个人喜欢的、看到的或者即将看到的用例?
Mira: 是的,我认为基本上你尝试做的任何事情的第一部分,无论是创建新设计、编写代码、写文章、写电子邮件或基本上任何事情,第一部分变得非常容易。这是我最喜欢的用法。目前我真的用它来写各种类型文稿
Jeffrey: 所有事情的初稿。
Mira: 是的,所有事情的初稿。它快得多。它降低了做某事的门槛,你可以专注于更具创意和更困难的部分,尤其是在编程方面。你可以将很多繁琐的工作外包出去。
Jeffrey: 文档和类似的东西。
Mira: 是的,文档和其他类似文件 但在工业界,我们看到了很多应用。客户服务绝对是一个重要的应用,使用聊天机器人,写作和分析也是,因为现在我们已经将很多工具连接到核心模型上,这使得这些模型更加可用和高效。所以你有像代码分析这样的工具。它实际上可以分析大量数据。你可以将各种数据放进去,它可以帮助你分析和过滤数据,或者你可以使用图像和浏览工具。所以如果你在准备一篇论文,研究工作可以更快且更严格地完成。所以我认为这是生产力的下一层,将这些工具添加到核心模型中,并使其非常无缝。模型决定何时使用分析工具、搜索或其他东西。
Jeffrey: 编写程序。是的,是的。有趣。它看过每部电视剧和电影吗,它会开始编写剧本和制作电影吗?
Mira: 它是一个工具。因此,它当然可以作为工具做到这一点,我预计我们实际上会与它合作,这将扩展我们的创造力。如果你现在考虑人类如何看待创造力,我们认为这是一个只有少数有才华的人才能接触到的非常特殊的东西。而这些工具实际上降低了任何人认为自己有创造力并扩展他们创造力的门槛。所以从这个意义上说,我认为它实际上会非常不可思议。
Jeffrey: 是的,可以很容易地给我200种不同的悬念,作为第一集的结尾。
Mira: 是的。你可以延续这个故事,故事永远不会结束。你可以继续。我写完了,但可以继续。
Jeffrey: 这很有趣。
Mira: 但我认为它真的会成为一个协作工具,尤其是在创意领域。
Jeffrey: 我也是这样认为的。
Mira: 是的,更多的人会变得更有创造力。
Jeffrey: 现在有些恐惧。
Mira: 是的,当然。
Jeffrey: 但你说这会改变,人类会发现如何使工作的创意部分变得更好?
Mira: 我认为是的,有些创意工作可能会消失,但如果产生的内容质量不高,也许它们本不应该存在。但我真的相信,将其用作教育和创造力的工具,将扩展我们的智力、创造力和想象力。
Jeffrey: 当时人们认为CGI等会破坏电影业。他们非常害怕。我认为这是更大的一件事,但任何类似的新事物,立即的反应都会是“哦天哪,这是...”,但我希望你在电影和电视方面是对的。好的,你提到了工作方面的问题,暂且不提好莱坞的事,有很多人担心他们的工作处于风险中。你对AI对工作的影响有什么看法,不仅仅是你在OpenAI所做的工作,而是整体上。人们应该真的担心这个吗,哪些工作会受到影响,你怎么看待这一切?
Mira: 是的,事实是我们还不完全理解AI对工作的影响。第一步是帮助人们了解这些系统的能力,了解它们能做什么,将它们整合到他们的工作流程中,然后开始预测和预测影响。我认为人们没有意识到这些工具已经在使用了,而且完全没有进行研究。所以我们应该研究现在工作的性质、教育的性质,这将帮助我们为这些增强的能力做准备。在具体的工作方面,我不是经济学家,但我确实预见到很多工作会发生变化,一些工作会消失,一些工作会出现。我们不确切知道它会是什么样子,但你可以想象很多重复性的工作,那些仅仅是严格重复性的工作,人们没有进一步发展的,那些工作将会被取代。
新的就业机会
Jeffrey: 你认为其他地方会创造足够的就业机会来弥补这一点吗?
Mira: 我认为会创造很多工作,但到底会创造多少、改变多少、失去多少工作,我不知道。我认为没人真的知道,因为这还没有被严格研究,但确实应该被研究。我认为经济会转型,这些工具会创造很多价值。所以问题是,我们如何利用这些价值?如果工作的性质真的改变了,那么我们如何将这种经济价值分配到社会中?是通过公共福利?是通过基本收入?还是通过其他新的系统?有很多问题需要探索和解决。
Jeffrey: 高等教育在你描述的工作中有很大的作用。这还没有完全实现。
Mira: 是的。
Jeffrey: 高等教育和AI的未来还有什么?你认为高等教育在你所看到的发展中的角色是什么?
Mira: 我认为真正需要弄清楚的是如何使用这些工具和AI来推进教育。因为我认为AI最强大的应用之一将会在教育方面,推进我们的创造力和知识。我们有机会建立超级高质量且非常容易获得的教育,理想情况下是免费提供给世界上任何人,无论是任何语言或文化细微差别。你真的可以为世界上任何人提供定制的理解和教育。当然,在像达特茅斯这样的机构,课堂较小,你会有很多关注,但即便如此,你仍然可以想象有一对一的辅导,不仅在这里,更不用说在世界其他地方了。
Jeffrey: 补充。
Mira: 是的。因为我们没有花足够的时间学习如何学习。这种事情发生得很晚,可能在大学。这是一个基本的事情,如何学习,否则你会浪费很多时间。课程、教材、问题集,一切都可以根据你的实际学习方式进行定制。
Jeffrey: 你认为在像达特茅斯这样的地方,它可以补充一些正在发生的学习吗?
Mira: 哦,绝对是的。
Jeffrey: 只要有AI作为导师等等。我们可以开放提问吗?你愿意接受观众提问吗?可以吗?
Mira: 很高兴。
Jeffrey: 好的。我们为什么不这样做呢。Dave,你想开始吗?
Dave: 当然,如果你不介意的话。达特茅斯的第一位计算机科学家之一John Kemeny曾经讲过一个关于每个由人类构建的计算机程序都嵌入了人类价值观的讲座,无论是有意还是无意的。我想知道的是,你认为GPT产品中嵌入了哪些人类价值观,或者换句话说,我们应该如何将尊重、公平、公正、诚实、正直等价值观嵌入到这些工具中?
Mira: 这是一个很好的问题,也很难,这是我们多年来一直在思考的事情。所以现在,如果你看看这些系统,很多价值观是通过数据输入的,而这些数据来自互联网、许可数据、以及由人类合同工标记的某些问题或问题。每一个输入都有特定的价值观,这些是他们价值观的集合,这很重要。当你实际将这些产品投入使用时,我认为你有机会通过让更多的人使用它来获得更广泛的价值观集合。所以现在,ChatGPT有一个免费的版本,最强大的系统,由全球超过1亿人使用。这些人中的每一个都可以为ChatGPT提供反馈。如果他们允许我们使用这些数据,我们将用它来创建一个价值观的集合,使系统更好,更符合人们的期望。但这只是默认系统。你还需要在其上面建立一个自定义层,每个社区都可以有自己的价值观,比如学校、教堂、国家,甚至是州。他们可以在这个具有基本人类价值观的默认系统之上,提供更具体和精确的价值观。我们也在研究如何实现这一点。但这显然是一个非常困难的问题,因为人类之间有分歧,还有技术问题。在技术问题上,我认为我们已经取得了很多进展。我们有像强化学习与人类反馈这样的方法,给人们提供机会将他们的价值观输入系统。
我们刚刚开发了一个称为Spec的东西,它提供了系统价值观的透明度。我们正在建立一种反馈机制,收集如何改进Spec的输入和数据。你可以把它看作是AI系统的宪法,但它是一个不断发展的宪法。它随着时间的推移变得更加精确,因为我们的价值观也在不断发展。这是我们在大量工作的事情。我认为现在我们关注的是基本价值观。但随着系统变得越来越复杂,我们将不得不考虑更精细的价值观。
AI生气了,怎么办?
Jeffrey: 你能防止AI生气吗?
Mira: 生气?
Jeffrey: 是的。这是其中一个价值观吗?
Mira: 这应该由你来决定。如果你作为用户,完全可以控制AI的情绪变化。
Jeffrey: 哦,如果你想要一个生气的聊天机器人,你可以拥有它。
Mira: 是的,如果你想要一个生气的聊天机器人,你应该可以拥有一个生气的聊天机器人。
Jeffrey: 好的,就在这里。
Dr. Joy: 你好,谢谢。这里是Dr. Joy。恭喜你获得荣誉学位,并祝贺你在OpenAI所做的一切。我非常好奇你对创作权和生物特征权的看法。你之前提到可能有些创意工作不应该存在,许多创意人士正在思考关于同意、赔偿的问题,无论是专有模型还是开源模型,其数据都是从互联网上获取的。所以我非常好奇你对同意和赔偿涉及创作权的看法。既然我们在大学里,你知道多部分问题的回答吗?另一个问题是关于生物特征权的,所以当涉及到声音、面孔等问题时。最近关于Sky的声音的争议,以及你也可以有相似声音和相似面孔的人,以及在如此重要的选举年出现的所有虚假信息威胁,我也非常好奇你对生物特征权方面的看法。
Mira: 好的,我从最后一部分开始... 我们在语音技术方面做了大量研究,直到最近才发布它们,正是因为它们带来了很多风险和问题。但重要的是要让社会参与进来,以一种可以有护栏和控制风险的方式提供访问,并让其他人研究和在这些问题上取得进展。例如,我们正在与机构合作,帮助我们思考在有声音和视频的情况下,人类与AI的互动,因为这些是非常情感激发的模态。我们需要开始理解这些事情会如何发展以及如何准备。在那种特定情况下,Sky的声音不是Scarlett Johansson的,也不打算是,它是一个完全平行的过程。我负责选择声音,而我们的CEO正在与Scarlett Johansson对话... 出于对她的尊重,我们将其撤下。有些人看到一些相似之处,这些是主观的,我认为你可以... 是的,你可以制定一些红队测试流程,例如,如果声音被认为非常非常接近一个非常知名的公众声音,那么也许你不会选择那个特定的声音。
在我们的红队测试中,这没有出现,但这就是为什么重要的是也要有更广泛的红队测试,以便在需要时及早捕捉这些问题。但更广泛地说,关于生物特征的问题,我认为我们的策略是最初给一些人,通常是专家或红队成员,提供访问,帮助我们很好地理解风险和能力。然后我们建立缓解措施,当我们对这些缓解措施更有信心时,逐步向更多人开放访问。所以我们不允许人们使用这项技术制作自己的声音,因为我们还在研究风险,我们不认为我们能处理该领域的误用。但我们对处理在一个小范围内的非常具体的声音的误用感觉良好,这本质上是扩展的红队测试。当我们将其扩展到一千用户时,我们的Alpha发布,我们将与用户密切合作,收集反馈并理解边缘情况,以便我们在扩展使用到十万人时为这些边缘情况做好准备。然后是百万,然后是亿,等等。但这是在大量控制下进行的,这就是我们所谓的迭代部署。如果我们不能对这些用例感到满意,那么我们将不会在特定用例或扩展用户中发布它们,我们可能会尝试在某种程度上削弱产品,因为能力和风险是相辅相成的。但我们也在进行大量研究,帮助我们处理内容来源和内容真实性的问题,以便人们有工具来理解某些东西是否是深度伪造或传播虚假信息。
自从OpenAI成立以来,我们一直在研究虚假信息,并建立了很多工具,如水印、内容政策,允许我们管理虚假信息的可能性,特别是在今年是全球选举年。我们在这方面的工作更加密集。但这是一个极具挑战的领域,作为技术和产品的制造者,我们需要做大量工作,同时与民间社会、媒体和内容创作者合作,以解决这些问题。当我们开发像音频或Sora这样的技术时,我们在红队成员之后首先与内容创作者合作,以实际了解技术如何帮助他们以及如何构建既安全、有用且对社会有益的产品。这就是我们在Dall-E上所做的,也是我们在SORA视频生成模型上所做的。
怎么界定AI创作权?
Mira: 你的第一个问题。
Dr. Joy: 创作权。
Mira: 创作权。
Dr. Joy: 关于补偿、同意、控制和信用。
Mira: 是的,这也非常重要且具有挑战性。目前我们与媒体公司进行了很多合作,也给予人们很多控制他们数据如何在产品中使用的权利。如果他们不希望他们的数据被用于改进模型或用于任何研究或训练,这完全可以,我们不会使用这些数据。对于创作者社区,我们早期就提供这些工具的访问权限,这样我们可以首先听取他们的意见,了解他们希望如何使用这些工具,并构建最有用的产品。而且这些都是研究产物,我们不必不惜一切代价去构建产品。只有当我们找到一种真正有助于推动人类进步的方式时,我们才会去做。我们还在实验一些方法,基本上创建我们的工具,允许人们因为数据贡献而获得补偿。这在技术方面和构建这样的产品方面都非常棘手,因为你必须弄清楚特定数量的数据在之后训练的模型中创造了多少价值。也许单个数据的价值很难衡量,但如果你能创建一个数据聚合和池的联盟,可能会更好。在过去的两年里,我们一直在实验各种版本的这个概念。我们还没有部署任何东西,但我们一直在技术方面进行实验,试图真正理解技术问题。我们已经取得了一些进展,但这确实是一个非常困难的问题。
Dr. Joy: 我敢打赌会有很多新公司试图为此构建解决方案。
Mira: 是的,还有其他公司。
Dr. Joy: 这太难了。
Mira: 是的。
主持人: 非常感谢你抽出时间来和我们谈话。我的问题很简单。如果你今天重返学校,重新来到Thayer或Dartmouth,你会做什么,会不做什么?你会选择什么专业,或者你会参与更多的事情吗?类似这样的事情。
Mira: 我想我会学同样的东西,但可能会少一些压力。(全场笑)是的,我认为我仍然会学习数学和其他... 也许我会多选一些计算机科学课程。但我会减少压力,因为这样你会以更多的好奇心和快乐去学习,这会更高效。但我记得,作为学生,我总是有点担心未来会怎样。如果我现在知道这些,对年轻的自己,我会说,其实每个人都会告诉我,“不要有压力”,但不知为何这并没有用。当我与年长的校友交谈时,他们总是说:“尽量享受它,完全沉浸其中,少些压力。”我认为,特别是在具体课程上,现在有广泛的科目范围并对每件事都有一点理解是好的。我发现这在学校和以后都非常有帮助,因为即使现在我在一个研究机构工作,我也在不断学习。你永远不会停止。这对理解每件事都有一点帮助非常有用。
Jeffrey: (观众鼓掌)非常感谢!
Mira: 谢谢你们今天的到来,也感谢你们为社会所做的极其重要的工作,说实话。这真的很重要,我很高兴你在这个位置上
Jeffrey: 我们所有人,包括Thayer和Dartmouth的所有人都感谢你。所以我认为这是一个结束的好地方,对我们的学生来说也是一个很好的建议。这是一个非常有趣的对话,再次感谢大家的到来。享受毕业周末的剩余时间吧。
往期回顾
1、[OpenAI的CTO:Mira Murati讲述ChatGPT的背后故事]
2、[时代杂志2023年度CEO Sam Altman:OpenAI的领军人物万字长篇深度报道]
3、[李飞飞领衔Stanford HAI发布全新500页2024人工智能报告,显示超过30%的工作岗位或被AI取代]
我们的AI团队现向外界开放服务,旨在助力每个企业与个人引领时代潮流,将先进科技与创新想法完美融合!
告别昂贵服务费和缺人烦恼,再见漫长交付周期
无限创意风格,分分钟生成专业级作品
感受 AI 带来的全新工作体验!
欢迎各大品牌方、媒体、科技企业、知名IP等合作
合作请联系负责人微信:Milo-1101
--END--