其他
ChatGPT 之父承认 GPT-5 并不存在,为什么 OpenAI 总是这么实诚?|万字详述
译/f.chen@真格基金
Eckersley 说:「这个领域感觉像是一潭死水。」OpenAI 是该组织的成员之一。
- 曾在 AI 先驱 Geoffrey Hinton 手下学习的 Ilya Sutskever 将担任研究主任;
- 七名从顶尖大学毕业或从其他公司挑选而来的研究员,组成了核心技术团队;
- 2018 年 2 月,Musk 宣布因对 OpenAI 的方向存在分歧而离开了该公司,一个月后,Altman 辞去了创业加速器 Y Combinator 的总裁职务,成为 OpenAI 的 CEO。
但最重要的是,OpenAI 的非营利性质相当于一个声明:「有一个领先的研究机构,可以将全局利益放在个人自身利益之上,这非常重要。我们非常鼓励研究人员将被鼓励对外发布他们的工作,无论是论文、博客文章还是代码,而我们的专利(如果有)将与世界分享。」虽然没有指明,但也暗示得非常清楚:像 DeepMind 这样的实验室无法为人类服务,因为它们受到商业利益的限制,它们是封闭的,但 OpenAI 是开放的。在研究环境越来越私有化、专注于短期金融收益的趋势下,OpenAI 为解决最大的问题提供了一种新的融资方式。紧密关注该实验室发展的机器学习专家 Chip Huyen 说:「它是一束希望之光。」在旧金山的 18th Street 和 Folsom Street 的交叉口处,OpenAI 的办公室看起来像个神秘仓库。这座历史悠久的建筑物由沉闷的灰色板条搭建而成,有着有色玻璃窗户,大部分百叶窗都被拉了下来,染着褪色红漆的「先驱建筑(PIONEER BUILDING)」这几个字毫不起眼地藏在拐角处,这是它曾经的主人先锋卡车厂存在的痕迹。但其内部空间明亮且通风良好。一楼有几个公共空间和两个会议室,其中一个适合举行大型会议,被称为《2001 太空漫游》(A Space Odyssey);另一个则更像是一个闪烁着荣耀之光的电话亭,被称为《无尽的玩笑》(Infinite Jest) —— 这是我访问期间被限制进入的空间。我也被禁止参观二楼和三楼,所有人的办公桌、机器人和几乎所有有趣的东西都在那里,访谈时间到了,他们就下来见我,会议间隙,会有一名员工小心地监督我。拜访 Brockman 那天,天空湛蓝,但他看起来有些紧张和谨慎。他带着试探性的微笑说:「我们从未给过别人如此多的权限。」他留着毫无修饰的简洁发型,像 OpenAI 的许多其他人一样,穿着休闲服装。31 岁的 Brockman 在北达科他州的农村长大,度过了他所描述的「专注、安静的童年」:挤牛奶、收鸡蛋,自学爱上了数学。2008 年,他进入哈佛大学,本打算双修数学和计算机科学,但很快就不耐烦了,因为他渴望进入现实世界;一年后,他退学转而进入麻省理工学院,但几个月后,他又退学了 —— 这是他的最终决定,他搬到了旧金山,再也没有回头。
- 你将如何组织自己来向人类平均分配 AGI?「我认为公共事业是我们的愿景的最佳类比。但是再一次强调,它完全受章程的约束。」
- 你将如何竞争率先实现 AGI 而不损害安全性?「我认为绝对存在这种重要的平衡,我们最好的方法就是依照章程。」
对 Brockman 来说,严格遵守这份文件是 OpenAI 的组织结构保持有效性的关键。内部一致性至关重要:除了极少数例外,所有全职员工都必须在同一个办公室工作 —— 对于政策团队,尤其是主管 Jack Clark 来说,这个规定让他的生活需要在旧金山和华盛顿特区之间高频流转,但他不介意,事实上,他认同这种做法。他说,正是那些一起度过的空闲时间,比如和同事一起吃午饭,帮助所有人保持共识。在许多方面,这种方法显然取得了成功:公司拥有令人印象深刻的一致性文化。员工工作时间长,用餐和社交时间不断地谈论工作;许多人参加同一个派对,订阅理性哲学杂志「有效利他主义」;他们用机器学习术语开玩笑来描述自己的生活:「你的生命是函数的一部分吗?」「你优化什么?」「一切基本上都是一个最小最大函数。」公平地说,其他 AI 研究者也喜欢这样做,但熟悉 OpenAI 的人们都同意:与该领域的其他人相比,它的员工更多地将 AI 研究视为身份而非工作(2019 年 11 月,Brockman 在 OpenAI 的标志性的花朵背景下在办公室里迎娶了他交往一年的女友 Anna,Sutskever 担任主持人,戒指传递者是一个机械手)。但在 2019 年年中,章程不再仅是午餐时间的谈资。在转为有限利润后不久,管理层推出了一种新工资结构,部分基于每个员工对使命的理解程度。在一个名为「统一技术阶梯(Unified Technical Ladder)」的电子表格中,除了「工程专业知识」和「研究方向」等板块外,最后一个板块概述了每个级别的文化相关期望:- 第三级:「你理解并内化了 OpenAI 的章程。」
- 第五级:「你确保你和你的团队成员所参与的所有项目与章程一致。」
- 第七级:「你负责维护和改进章程,并要求组织中的其他人也做到。」
大多数人第一次听说 OpenAI 是在 2019 年 2 月 14 日。当天,实验室宣布了令人印象深刻的新研究成果:一种可以轻松生成令人信服的文章和报道的模型 —— 只需输入《指环王》中的一句话或者一条关于 Miley Cyrus 扒窃的(虚假)新闻报道的开头,它就会输出大量相同风格的段落。但也有一个问题:研究人员表示,这种名为 GPT-2 的模型因过于危险而无法发布。如果这么强大的技术落入了坏人手中,就很容易被武器化,用于大规模生产虚假信息。科学家们的反对声音立即出现了。一些人说,OpenAI 只是在做公关噱头,GPT-2 根本不足以构成威胁,如果是威胁,为什么要公布其存在却不向公众开放以逃避公众审查?「OpenAI 似乎是在利用人们对 AI 的恐慌进行营销。」研究 AI 生成的虚假信息的罗格斯大学助理教授 Britt Paris 说。
-「战略」部分写道:「获得研究界的广泛支持不仅是获得这样的声誉所必需的,而且会放大我们的信息传递。」 「明确地将机器学习社区视为沟通利益相关者,改变我们的口吻和外部信息,只有在有意选择的前提下才与他们对抗。」
GPT-2 引发如此激烈的反对还有另一个原因。人们觉得 OpenAI 放弃了其早期的开放和透明的承诺。随着一个月后的转型的消息,这些被隐瞒的研究让人们更加怀疑。难道技术一直被保密,是为了便利未来的许可证发放吗?
呼吁暂停 GTP-4 研究后,马斯克购买 1 万个 GPU 加入 AI 大战,是在打脸吗?
ChatGPT 们难以复制的原因,除了耗显卡,还有水电费太贵?