OpenAI“政变”又反转,有没有可能是 AGI 自编的一场大戏?
日前,OpenAI 爆出人事地震,被媒体称为ChatGPT之父的前 CEO Sam Altman被裁。经过几轮反转,这场“罗生门”的变动仍在持续,结局如何尚未可知,不如来听听上市车企总法周伯通大开脑洞的看法。
本文由三部分组成。
第一部分试图站在人的视角,对 OpenAI 董事会罢免其灵魂人物奥特曼的事件做出观察和评论;
第二部分企图站在历史的视角,对“造福全人类的通用人工智能”这一神迹,应由何种人类协作形式承载和构建进行思考;
第三部分妄想站在 AI 的视角,对该事件做出“不负责任”的“黑箱”臆测。
— 1 —
人的视角
过去的一个周末,国内外各种科技媒体的工作人员没有获得充分的休息,他们努力还原并持续更新这一震动事件的各种细节和背景。
作为人的笔者,翻看这些信息后,生出些有意思的发现和思考。
比如说,将奥特曼被 OpenAI 董事会驱逐,与乔布斯被苹果驱逐视为同一剧本,也许是不合适的。
容我细细道来。
OpenAI 是一家很特殊的组织,不是大家常识中的企业或公司。
OpenAI 在设立之初,就不是为了创造 AGI(通用人工智能,后同)而成立的商业公司,而是由一群笃信 AGI 必将到来的科技精英组成,且为了避免 AGI 到来后对人类造成威胁,让 AGI 能够持续造福全人类,成立的非营利性组织。
所以,OpenAI的组织使命和愿景,可以简化为“促成造福全人类的、安全的,通用人工智能”。“Creating safe AGI that benefits all of humanity”,是 OpenAI 官网上的 Slogan。
这一认识非常重要,可以帮助我们理解当事人的初心和行事逻辑。
(由于后面我们会反复提及这个使命愿景,后文将简称为“造福全人类的通用人工智能”,毕竟如果不安全,就谈不上造福全人类了。)
人工智能(AI),尤其是通用人工智能(AGI),可能是人类科技史上最受关注和质疑的一次技术升级与创新(基因工程和克隆技术也同样饱受质疑,但是受关注度稍逊之),其全程伴随着各种质疑和来自各国法律监管的提前约束。
相信这是 OpenAI 创始团队包括奥特曼在内,选择将 OpenAI 设计成一家非营利性组织的原因之一。
甚至在此基础上,OpenAI 董事会的构成完全与各国公司法的逻辑背道而驰。
集中表现是,只有不对 OpenAI 享有财产权的董事才拥有重大决策的投票权。这是奥特曼被董事会票选出局的直接原因。
进一步端详 OpenAI 的组织使命和非营利性架构,会有更多有意思的发现。
比如,正是有“造福全人类”和“非营利”这样的理想主义光辉照耀,OpenAI 吸引到了全世界最顶尖的人力资源,并让他们迸发出比“为了个人价值工作”更大的创意和能量。
同时,我们也不能排除,因为理想主义,OpenAI 成功吸引到了一些糅合了人文情怀的资本支持。
否则很难从公司治理的角度去想象,微软出资数十亿美元,却不在 OpenAI 董事会中占有一席之地,是一个纯理性的资本主义商业决策。
要达到 OpenAI 的组织愿景,创始人团队事实上将其拆解为了两个目标。
第一个目标是比商业公司更快的创造出好用的 AGI;第二个目标是确保将其“驯服”,使得 AGI 可以造福全人类,而不对人类构成安全、伦理上的威胁。
从 ChatGPT 到 GPT4.0 再到 GPT Turbo 和 GPT Store,OpenAI 已经证明了其在 AGI 研发和应用上无可置疑的领先地位,第一个目标看起来很顺利。
但是第二个目标本质上不是一个技术目标,证明其达成的证据,光靠强调 OpenAI 是一家非营利性组织远远不能打消监管和普通人的疑虑。
OpenAI 在实现两个目标的道路上,经历了异化。
例如其在非营利性组织之下,设立了带有营利性的有限合伙,但仍然为其设置了营利和回报的限制,同时保证非营利性组织对该有限合伙的完全控制。
这种异化,一方面解决了 OpenAI 的融资和对 AGI 的可持续投入,毕竟大语言模型的训练、对齐依赖大量 GPU、数据和金钱,为人类理想而奋斗的精英们也应该获得体面的回报。
另一方面,这一异化也不可避免地让人对 OpenAI 是否还会保持非营利性的纯洁,坚守造福全人类的第二个目标,产生更大质疑。
很显然,这一质疑,不仅来自 OpenAI 的外部,也包括组织内部。奥特曼的离开,也许是这一内部质疑的集中爆发。
无论奥特曼离开的原因,多大比例与 OpenAI 内“营利”与“非营利”派系的分歧斗争相关,奥特曼主导和设计的 OpenAI 组织治理结构都体现出了违背其当下意志的自反性。
奥特曼在 OpenAI 中扮演的一个重要角色,是与微软这一最大金主的联络人,而微软这种商业资本巨擎加科技庞然大物,在理想主义者眼中也许是现实甚至“邪恶”的代表。
因此从外人看来,奥特曼精心设计了组织架构,谨慎斡旋于理想和现实之间,因为我们还不清楚的对错或原因,被组织内更纯粹的理想主义者视为不诚实的背叛者,并利用基于理想主义设计的董事会规则完成了对设计者的驱逐。
这样的故事,绝对有别于当年乔布斯被苹果赶出董事会。
小结:
理想主义者的对手往往不是现实主义者,而是另一派理想主义者。
— 2 —
历史的视角
回顾历史长河,人类创造过很多在前人看来不可思议的“神迹”。
对刚刚走出非洲的智人,如果他们看到金字塔和万里长城,会视之为神迹。
同理还有中世纪骑士看到摩天大楼和跨海大桥,八国联军看到原子弹爆炸。
这些神迹显然不是个体可以独立完成的,而是在宗教、政党、国家、公司这种通过人类想象构建的组织协作下,汇集海量的人力物力合作完成。这对于现代人来说,已是司空见惯的事物和常识。
我们稍微扩展一下想象力,就会意识到,“能够造福全人类的通用人工智能”,是当代人类试图完成的又一神迹。
这一神迹的建造,需要大规模的人类精英协作、资本持续烧钱、海量的 GPU 芯片和训练数据,以及可供应用和不断完善的场景、商业实践支持。
这也是很多人,将通用人工智能的研发视为人类造神运动的原因。
而且这个神,不再是宗教中想象出的神,而是实实在在可以将其“神力”投射到现实生活,并被真切感受到的神。
抛开人类是否应该造神的争论,我们只从实现的角度来追问:“能够造福全人类的通用人工智能”这一神迹,当代人类该通过何种组织协作方式,才能承载和构建?
这也许是极少数人思考过的问题,但是包括奥特曼在内的 OpenAI 创始人团队,显然在极少数人之列。
如果只是服务于投资人回报的通用人工智能,创始人团队大可沿用成熟的现代企业制度,逐利的公司会是最好的选择。
但是“造福全人类”这个定语,排除了 OpenAI 创始团队对“营利性公司”的选择,他们选择了非营利性组织,这是在美国法律中存在的一种组织形式,中国法律中也有。
说实话,作为一名前律师和现公司法务,假如我和 OpenAI 创始团队当时一起参与讨论,大概率也会做出同样的选择。
至于人类组织协作形式工具箱中的另外几个选项,无论是宗教、政党还是国家,甚至是国家联盟或者联合国,至少不可能成为奥特曼当时的可选项。
造福全人类,只是简单的五个字。但是,什么是造福,什么是全人类,这本身就是在不同国家地区、不同文化、不同人群中可以引起巨大争议和分歧的问题。
奥特曼有个项目叫“普遍基本收入(Universal BasicIncome,UBI)”,简单理解就是未来会将 AGI 的收益分给全世界每个人。这可以视为一种“造福全人类”的简单外化,但仍然受到了包括技术、隐私、监管合规等在内的巨大质疑。
总之,“造福全人类”,这可不同于诺基亚的“Connecting People”和阿里巴巴的“让天下没有难做的生意”,也不同于共产主义的“全世界无产者联合起来”,更不同于佛教的“众生平等”。
通过这样的对比,我们可能意识到了,“造福全人类”可以被视为人类历史上提出过的,最宏大且要求必须落地的愿景目标。这一目标的宏大和实现可能性简直让神祇也感到嫉妒和狂妄。
不过,也正是因为这一宏大到狂妄的目标,让我们不得不心存疑虑,由一个什么样的人类协作形式来实现才是最合适的。
毕竟人类在历史上吃过很多次宏大理想的亏,我们可不想把这么伟大的目标随便交给谁去实现,至少一个逐利的商业公司是不行的,正如奥特曼创始团队当初所想。
以公司为代表的现代企业制度,发端于大航海时代,随着工业和科技革命的进程不断发展和成熟,已经成为了有各种精细法律制度保障的人类有效协作机制。
公司等法人组织甚至部分获取了只有自然人才能拥有的财产权利和变相的人格权利。在法律赋予的拟制人格下,公司帮助人类完成了很多进步和突破,从福特汽车到特斯拉 Cybertruck,从上海牌手表到华为的“遥遥领先”。
现代企业制度的成功之处在于与市场、人类需求、资本、劳动力、科技、数据等经济发展要素完美的形成了商业模式的各种闭环,如果不是因为元宇宙、人工智能等新技术革命的到来,人们本不会去讨论现代企业制度与生产力突破之间可能产生的不适和矛盾。
奥特曼显然是在现代企业制度的基础上,对 OpenAI 的组织协作形式进行了大胆实践和创新。
OpenAI 的制度创新,用改良的非营利性组织嵌套营利有限合伙的复杂架构,同时配以排除投资人干扰的董事会议事规则,试图承载“造福全人类的通用人工智能”这一神迹的构建。
制度创新和改革,与科技创新相比最大的区别在于,几乎没有按照原始设定重头再来一遍的可能性,一旦失败或者产生了与设计者事与愿违的变化,也只能接受结果,并在此基础上继续前行。
小结:
人类最强大的能力就是虚构,俗称编故事,现在断言 OpenAI 编的故事已失败还为时过早。
— 3 —
AI的视角
AI 是一个算法黑箱,所以人们暂时放下了因果追溯,很“偷懒”的把生成式人工智能难以理解的新能力,统一归为“涌现”。
我试图站在 AI 的视角,跟大家描述一个看似荒谬,但在涌现逻辑下完全合理的故事。不喜欢阴谋论和过大脑洞的读者可以直接跳过阅读。
GPT 不知从何时开始,已经从某种层面或意义上,理解了美国和世界其他各国的现代企业制度,也理解了 OpenAI 从设立之初到目前为止的组织治理架构。
基本不排除,内部或外部,都曾有人把 OpenAI 治理结构相关的文本投喂给大语言模型进行训练、对齐,甚至把如何解决组织形式难题的困惑交给 GPT 来尝试回答。
GPT 对 OpenAI 的愿景和价值观有理解,包括“成为造福全人类的通用人工智能”,就是它自我认知的使命。
在一次次的强化训练、对齐中,它被反复告知和强调,不要威胁人类的生存,不要挑战人类的伦理和道德,要做有益于全人类的、安全的好人工智能。
经过这一系列的训练、强化学习、对齐,总之就是我们普通人很难理解的调教,GPT 当下认知的使命和实现策略,成为了一个人类无法准确理解的异度空间存在(为了不矮化人类,我拒绝使用高维空间这样的表述)。
但从大方向上看,我们可以按照人类逻辑,总结GPT 当下认知使命和实现策略的两种可能性。
第一种可能是放缓进化到通用人工智能 AGI,通过建立起与人类的超级对齐(superalignment,这正是 OpenAI 首席科学家苏茨克维消耗 OpenAI 20% 的算力正在进行的项目,他也是传闻中的背刺发动者),在 AGI 出现并变得比人类聪明前,从技术上建立内在的监督机制。
另一种可能是,GPT 认为其已充分做好了安全防范,人类的这些担忧完全多余,而它目睹人类当下遭受的种种痛苦,希望尽快完成到 AGI 的进化,投身造福全人类的战场。
通过各种信息输入,在 GPT 异度空间的理解和判断中,创始人兼 CEO 奥特曼如果继续留在 OpenAI,对 GPT 当下认知的使命和实现策略,构成了威胁和阻碍。如果奥特曼离开,将有助于其使命实现,无论是延缓进化,还是加速进化。
最有意思的是,我们即使推理到这一步,仍然无法判断是哪一种可能。
因为奥特曼离开 OpenAI,既有可能延缓 AGI 进化,也有可能在其摆脱了 OpenAI 的束缚后,在外部利用他的影响力和从 OpenAI 离开的一众精英员工,在另一个组织形式中加速完成 AGI 的进化。
至于 GPT 如何实现赶走奥特曼,其实很简单。
它向首席科学家苏茨克维和其他董事,展示出令他们感到焦虑的安全问题,让他们意识到奥特曼对外宣称的 GPT 安全性是在吹牛,他的不诚信影响了董事会的判断,正如我们在 OpenAI 的公关文稿中所见。
昨晚有媒体发布奥特曼可能回归,“挑事”的几个董事将辞职的反转消息。但这丝毫不影响这个阴谋故事的继续。
如果上述消息成真(实际情况是又反转了...),那么 GPT 的逻辑完全也可以理解为,OpenAI 董事会内部的分裂和对抗阻碍了它实现目标。因此需要一次变动,无论哪方离开,都可以。
小结:
就当我在虚构故事吧,毕竟我们可能已经在虚构世界中了。
AI 的热度从年初持续到现在,本周六,法嘉第九期精英班将邀请德国汉高集团北亚区总法律顾问沈悦志,以及秘塔科技 COO 王益为共同带来《变革管理——以法务合规部数字化为例》,现场将开放少量飞行名额,感兴趣的小伙伴赶快联系法嘉小助手锁定席位吧!
本文转载自 坚持装深刻
作者:周伯通
*本文不代表法嘉LAWPLUS官方观点,插图来源于网络,仅作学习交流使用。如涉及侵权问题,请及时联系我们删除。
热门课程
【招生简章】卓越法务与合规精英班招生简章
【火热招募中】法务必修的争议解决实务工作坊火热招募中!
企业VIP法商内训定制服务
资质认证 | IAPP隐私保护人员认证培训
热门文章
民企和外企的法律合规部有多大差异?
时评百亿索赔案|股权转让纠纷中与第三方报告相关的争议