查看原文
其他

这场安全峰会, 为何能让中美欧罕见达成一致?

谈行藏、李半田 欧亚系统科学研究会 2024-01-07
 导读:近日,首届人工智能安全峰会于1日至2日在英国举行,包括中国、美国、英国在内的28个国家及欧盟共同签署了《布莱切利宣言》。峰会宣言指出,人工智能的许多风险本质上是国际性的,“最好通过国际合作来解决”。随着人工智能产业开始快速发展成型,人工智能的潜在挑战也随之浮现。Eurasia Group总裁、政治学者Ian Bremmer就发文指出:生成式人工智能的迭代升级速度超乎想象,国家试图控制人工智能并使其为己所用,但却远远跟不上人工智能的升级和普及速度。这一技术很有可能威胁民族国家作为世界地缘政治主体的地位,并将引发全球权力结构和平衡的地震式转变。   
    人工智能“军备竞赛”的动力既来自于商业利益,也来自于国家战略。主要技术大国在面对人工智能这一全新技术时,仍然以传统的技术治理和监管框架来理解问题。事实上,人工智能技术难以完全为国家所驯服。首先,人工智能模型非常容易传播,而当下互联网科技领域又恰恰是开源的,任何一点小小的破坏性进展,都可能迅速传遍全球。其次,由于当下人工智能的通用性追求,几乎所有的人工智能都是军、民两用的。而人工智能的实际管理权限和技术能力,则掌握在开发和运营它们的技术公司手中。最后,主要大国仍然在加速发展人工智能,并将其视为零和游戏,这可能继续扩大少数大型专业人工智能公司对人工智能技术浪潮的权力。

强大能力、较难监管和加速发展之间的悖论,让建立监管机制显得尤为紧迫。作者建议:参考国际金融秩序安排,和应对气候变化的机制,建立三个人工智能国际监管机制,分别承担学术性分析和建议、国家间协调防危险扩散,和危机应对的任务。强大的人工智能治理不仅可以减轻其社会风险,还可以通过避免其成为地缘政治竞争的舞台和工具,来缓解中美紧张关系。本文原刊于Foreign Affairs,由欧亚系统科学研究会组织编译,供读者参考,仅代表作者观点。


人工智能力量悖论:

国家能及时学会如何管理人工智能吗?

文|Ian Bremmer

翻译|谈行藏、李半田

来源|Foreign Affairs


▲ 图源:互联网


2035年,人工智能将无处不在——管理医院、运营航空公司,以及在法庭上互相抗辩。生产力飙升至前所未有的水平,无数企业以难以想象的惊人速度扩张,同时也带来了福祉的巨大进步。随着科技的高速发展,各式各样的新产品源源不断地涌入市场;但与此同时,恐怖分子利用新的智能的、不断发展的网络武器威胁社会,白领集体失业,世界也正变得更加脆弱和不可预测。


一年前,这种想象似乎纯属虚构;而今天,它的实现几乎无可避免。生成式人工智能系统已经可以比大多数人类更清晰、更有说服力地写作,并根据简单的指令生成原创图片、艺术设计甚至计算机代码。而这也仅仅是冰山一角。生成式人工智能的到来标志着一个大爆炸时刻,一场改变世界的技术革命的开始,这场革命将重塑政治、经济和社会。


与以往的技术浪潮一样,人工智能将带来非凡的增长和机遇,同时也带来巨大的破坏和风险。但不同以往的是,它有能力威胁民族国家作为世界地缘政治主体的地位,因此还将引发全球权力结构和平衡的地震式转变。无论承认与否,人工智能的创造者本身就是地缘政治的参与者,他们对人工智能的所有权进一步巩固了新兴的“技术极权”(technopolar)秩序——在这种秩序中,科技公司在其领域内掌握着曾经只属于民族国家的权力。过去十年来,大型科技公司在其创造的数字领域内,已成为实际的独立主权所有者,而人工智能加速了这一趋势,并将其扩展到数字世界之外。技术的复杂性和发展速度让政府几乎不可能及时制定相关规则,而如果政府只要慢一步,就可能永远也赶不上。


值得庆幸的是,政策制定者们已经意识到人工智能带来的挑战,并开始思考如何治理。2023年5月,七国集团(G7)启动了致力于协调人工智能治理的“广岛人工智能进程”(Hiroshima AI process)论坛。6月,欧洲议会通过了《欧盟人工智能法》(EU AI Act)草案,这是欧盟首次全面尝试为人工智能产业制定保障措施。7月,联合国秘书长安东尼奥·古特雷斯(Antonio Guterres)呼吁建立一个全球人工智能监管机构。与此同时,美国的两党政客也都呼吁采取监管行动。但也有许多人同意得克萨斯州共和党参议员特德·克鲁兹(Ted Cruz)在6月时发表的观点:国会“根本不知道自己在做什么”。


不幸的是,关于人工智能治理的许多争论仍然陷于一个危险的虚假困境:利用人工智能扩大国家权力,还是扼杀人工智能规避风险。即使是那些准确诊断出问题的人,也试图通过将人工智能塞进现有或历史的治理框架来解决问题。然而,人工智能不可能像以前的任何技术一样被治理,它反而在改变传统的地缘政治权力概念。


人类面临的挑战很明确:设计出适合这一独特技术的新治理框架。要想实现人工智能的全球治理,国际体系就必须超越传统的主权概念,迎接技术公司加入其中。这些主体可能无法从社会契约、民主或提供公共产品中获得合法性,但如果没有它们,有效的人工智能治理将无从谈起。这是国际社会需要重新思考地缘政治秩序基本假设的一个原因,但并非唯一原因。


像人工智能这样不寻常而又紧迫的挑战需要独创的解决方案。政策制定者在制定适当的监管结构之前,需要就人工智能治理的基本原则达成一致。首先,任何管理框架都需要具有预防性(precautionary)、灵活性(agile)、包容性(inclusive)、不可渗透性(impermeable)和针对性(targeted)在这些原则的基础上,应建立至少三个相互重叠的治理机制:一个用于确定事实并就人工智能带来的风险向政府提供建议,一个用于防止人工智能的全面军备竞赛,还有一个用于管理人工智能带来的前所未有的破坏性力量。


不管你是否愿意,2035年即将到来。人工智能带来积极进步还是造成消极破坏,取决于决策者现在的所作所为。


 1   更快、更高、更强


人工智能与其他技术不同,对权力的影响也不同。它不仅带来了政策挑战,其超进化的特性还让应对挑战越来越难——这就是人工智能的力量悖论。


其进步的速度是惊人的。摩尔定律成功预测了计算能力每两年翻一番,而新一轮人工智能浪潮让这一进步速度显得有些过时。当OpenAI于2018年推出其首个大型语言模型(GPT-1)时,它有1.17亿个参数——这是衡量系统规模和复杂性的标准,而五年后,该公司的第四代模型GPT-4据称有超过一万亿个参数。在过去十年中,用于训练最强大人工智能模型的计算量每年都以十倍的速度增长。换句话说,当今最先进的人工智能模型——也被称为“前沿”(frontier)模型——使用的算力是十年前尖端模型的50亿倍,过去需要数周的处理现在只需几秒钟。未来几年,可处理数十万亿个参数的模型即将问世,而拥有超过100万亿个参数的“大脑规模”(Brain scale)模型——大致相当于人类大脑突触的数量——将在五年内实现。


每个新数量级都会出现意想不到的能力。很少有人预料到,通过对原始文本的训练,大型语言模型可以生成连贯、新颖甚至富有创造性的句子。更少有人预料到语言模型能够谱写乐曲或解决科学问题,而现在有些模型已经能够做到。不久之后,人工智能开发者将有可能成功创建具有自我完善能力的系统——这是这项技术发展轨迹上的一个关键时刻,每个人都应为此驻足。


人工智能模型也在以更少的资源做更多的事。昨天的尖端能力,今天就可以在更小、更便宜、更易用的系统上运行。OpenAI发布GPT-3仅仅三年后,开源团队就创建了具有相同性能水平的模型,但其大小还不到GPT-3的六十分之一,也就是说,运行成本降低至原来的六十分之一,而且每个人都可以在互联网上免费使用。未来的大语言模型很可能会遵循这一效率轨迹,在领先的人工智能实验室耗资数亿美元开发成功两三年后,就能以开源形式提供。


与任何软件或代码一样,人工智能算法比实物资产更容易复制和共享(或窃取),成本也更低。扩散风险显而易见。例如,Meta公司功能强大的Llama-1大型语言模型在3月份推出后没几天就被泄露到互联网上。虽然最强大的模型仍然需要复杂的硬件才能运行,但中端版本可以在每小时几美元租用的电脑上运行。不久之后,还能在智能手机上运行。这种强大的技术从未像现在这样普及得如此广泛、如此迅速。


人工智能与旧技术的不同之处还在于,几乎所有的人工智能都是军、民两用的。许多系统本质上具有通用性,而通用性正是许多人工智能公司的首要目标。他们希望自己的应用能以尽可能多的方式帮助尽可能多的人。但是,能驾驶汽车的系统也能驾驶坦克,为诊断疾病而开发的人工智能可能会创造出一种新的疾病,并将其武器化。安全民用与军事破坏之间的界限非常模糊,这也是美国对中国展开半导体竞争的原因之一。


这一切的发生都是全球性的:人工智能模型一旦发布,就无处不在。只需一个恶性或 “越狱”(breakout)模型就能制造严重破坏。因此,对人工智能的监管不能以修修补补的方式进行。其容易扩散的性质使得个别国家内的监管不可能有效,对其治理不能存在任何漏洞。


更重要的是,建造人工智能的动力(以及这样做的好处)在不断增长,其可能造成的破坏也没有明显的上限。它们可能被用来制造和传播有毒的错误信息,侵蚀社会信任和民主;可能被用来监视、操纵和控制公民,破坏个人和集体自由;也可能被用来制造强大的数字或物理武器,威胁人类生命。人工智能还可能毁掉数百万个工作岗位,加剧现有的不平等并制造新的不平等;通过放大不良信息的反馈循环,巩固歧视性模式并扭曲决策;或者引起意外的、不可控制的军事升级,进而导致战争。


最大风险发生的时间框架也不明确。网络虚假信息是明显的短期威胁;中期内,自动化战争非常可能发生。更长期地看,许多事都还未知:通用人工智能的前景如何?人工智能是否会在各种特定任务中超越人类?人工智能是否可以不受人类控制地进行自我指导、自我复制和自我完善?诚然,危险都是推测性的,但都应当从一开始就纳入治理架构中。


人工智能并不是第一种具备上述强大特性的技术,却是第一种将所有这些特性结合在一起的技术。人工智能系统不像汽车、飞机:是硬件,可以逐步改进,而发生故障最高昂的代价也只是个别事故。它们也不像化学武器或核武器:难以开发和储存,成本高昂,可以秘密分享或部署。随着人工智能系统的巨大优势逐渐不言自明,它们只会变得更庞大、更优质、更便宜、更无处不在。它们甚至还将具备准自主能力——只需极少的人工监督就能实现具体目标——以及潜在的自我完善能力。这些特征中的任何一个都将挑战传统的治理模式;所有这些特征加在一起,将使传统治理模式彻底失效。


 2   威力过大,无法叫停


通过改变全球权力的结构和平衡,人工智能使政治环境变得更加复杂。它不仅是普通的新型软件,更一种全新的权力投射手段。某些条件下,它将颠覆现有权力;另一些条件下,它将巩固现有权力。而人工智能的发展还受到不可抗拒的激励因素推动:每个国家、公司和个人都希望拥有某种版本的人工智能。


在国内,人工智能加强了国家对个人数据的收集和商业使用,强化政府压制社会的工具。在国家间,人工智能将成为激烈缘政治竞争的焦点。无论是出于对控制能力、经济潜力还是军事优势的追求,每个拥有竞争资源的政府都会将其设置为战略目标。最缺乏想象力的战略,就是为本土人工智能冠军企业投资,或建造并控制超级计算机和算法。更细致一点的,则是培养特定的竞争优势,如法国对人工智能初创企业的支持,英国利用其世界一流的大学和风险投资生态系统,欧盟引导有关监管和规范的全球对话。


绝大多数国家既没有资金也没有技术来争夺人工智能的领导地位。它们能否获得前沿人工智能,将取决于它们与少数已经富可敌国的企业和有资源国家的关系。这种依赖关系可能加剧当前地缘政治力量的不平衡。最强大的政府将争相控制世界上最宝贵的资源,其他国家将再次被抛在后面。这并不是说只有最富有的人才能从人工智能革命中获益。就像互联网和智能手机一样,人工智能将不受国界限制地扩散,它所带来的生产力提升也将如此。与能源和绿色技术一样,它能使许多不控制它的国家受益,包括那些为生产人工智能投入(如半导体)做出贡献的国家。


然而,在地缘政治的另一端,人工智能霸主地位的争夺将十分激烈。争夺到最后,强大的国家可能会通过合作来消除对彼此的恐惧,阻止可能破坏稳定的技术军备竞赛。但如今紧张的地缘政治环境使得这种合作难上加难。竞争者不仅追求人工智能带来的声望、权力和财富,也担忧其可能带给对手的军事和经济优势。当前,最重要的两个竞争者——中国和美国——正在陷入人工智能发展零和游戏的漩涡,赢家将在几十年后,获得决定性的战略优势。


目前,由于中美之间的竞争关系,和双方缺乏信任的现实,两国都会更倾向于专注加速人工智能的发展,而不是放慢它的速度。某些人工智能行业领导者也在向政府呼吁:“暂停”开发以评估风险,等同于愚蠢的单方面裁军。


这种观点有一个前提假设:国家可以对人工智能进行一定程度的控制。中国有可能做到,因为一些科技公司已经融入了其国家结构。然而,在西方和其他地方,人工智能更有可能削弱而非加强国家权力。少数大型专业人工智能公司控制着这一新技术浪潮的方方面面:人工智能模型能做什么、谁能访问它们、如何使用它们以及它们可以部署在哪里。由于这些公司对自己的计算能力和算法严加保护,只有它们了解自己正在创造的(大部分)东西以及这些创造物的(大部分)功能。在可预见的未来,这几家公司可能会继续保持优势,也可能会因为门槛低、开源开发和近乎零的边际成本,让人工智能无节制地扩散,而被众多小公司所取代。无论前景如何,这场人工智能革命都将政府排除在外。


在一定程度上,其中一些挑战与早期数字技术的挑战相似。互联网平台、社交媒体,甚至智能手机等设备,某种程度上都是在其创造者控制的沙盒中运行的。只要政府拿出政治意愿,就能建立对这些技术的监管制度,如欧盟的《通用数据保护条例》、《数字市场法》和《数字服务法》。但这种监管制度需要欧盟花费十年或更长时间才能落实,在美国也尚未完全实现。人工智能的发展速度太快,政策制定者无法迅速做出反应。毕竟,社交媒体和其他早期数字技术不会自我进化,推动技术发展的商业和战略利益从未以当下的方式与技术结合。


这一切意味着,至少在未来几年内,无论欧盟或美国的政策制定者们做什么,人工智能的发展轨迹都将在很大程度上取决于少数私营企业。换句话说,技术专家,而不是政策制定者和官僚,将拥有控制这股可能深刻改变国家以及国家间关系的力量的权力。这使得治理人工智能所面临的挑战不同于政府面临过的任何挑战,监管平衡要更加微妙,风险也更高。


 3   调整目标,进化工具


政府已经落后了。大多数人工智能治理提案都在以传统问题视角,尝试着二十世纪国家为中心的解决方案:政治领导人们围坐在桌边,就规则达成妥协。但这在人工智能问题上是行不通的。


监管工作尚处于起步阶段,仍显不足。欧盟的《人工智能法案》是人工智能治理方面最雄心勃勃的尝试,但该法要到2026年才开始全面实施,届时人工智能模型将取得前所未有的进步。英国提出了一种更为宽松且自愿的人工智能监管方法,但缺乏有效的约束力。这两项举措都试图在全球范围内管理人工智能的发展和部署,而这正是人工智能治理取得成功的必要条件。虽然已经有企业开始做出遵守人工智能安全准则的自愿承诺(译注:7月21日,包括谷歌、微软、OpenAI、亚马逊、Meta、Anthropic、Inflection在内的七家顶级人工智能公司在白宫召开会议,承诺将为消费者创建识别生成式人工智能的方法,并确保在生成式人工智能工具发布前,会测试其安全性),但它们不能替代具有法律约束力的国家和国际监管。


主张通过国际协议来驯服人工智能的人,更偏爱当前核军备控制的方案。但人工智能系统不仅比核武器更容易开发、窃取和复制,而且由私营公司控制。随着新一代人工智能模型比以往任何时候都更快地普及,与核武器进行类比就显得越来越不合时宜。即使政府能成功控制制造最先进智能模型所需的材料——正如拜登政府正试图通过阻止中国获得先进芯片的手段那样——可一旦模型训练完成、投入使用,扩散也不可避免,因为运行比训练需要的芯片要少得多。


要让全球人工智能治理发挥作用,必须根据技术的具体性质、其带来的挑战,以及其运作的结构和权力平衡进行调整。但由于其演变、用途、风险和回报都不可预测,人工智能治理方案不可能在任一时间点完全确定下来。它必须像它试图治理的技术一样,不断创新和进化,并具有那些让人工智能如此强大的类似特性。这意味着人类社会要从头开始,重新思考并建立新的监管框架。


任何全球人工智能监管架构的首要目标都应该是识别和减轻其对全球稳定造成的风险,同时又不阻碍人工智能创新及其带来的机遇。我将这一原则称为“技术审慎主义”。这需要特定机构发挥像金融稳定委员会、国际清算银行和国际货币基金组织等机构类似的宏观审慎作用——在不损害经济增长的情况下识别和减轻危害全球金融稳定的风险。


技术审慎也一样,需要建立机制监管人工智能可能威胁地缘政治稳定的各个方面。机制要以共同原则为指导,而指导原则要既适合人工智能的独特性能,又反映了使科技公司占据主导地位的新技术权力平衡。这些原则将帮助政策制定者要在人工智能不断发展成为一种更普遍力量的过程中,制定更细腻的监管框架。


人工智能治理的首要(或许也是最重要的)原则是预防。顾名思义,技术审慎主义的核心是预防性信条:首先,不造成伤害。最大限度地限制人工智能,意味着放弃其改变生活的优势;但最大限度地解放人工智能,意味着直面其所有潜在灾难性风险。人工智能的风险和回报是不对称的。鉴于人工智能的某些潜在危害规模极大、不可逆转,还具有很强的不确定性,其治理必须致力于在这些风险发生前预防它们,而非在事后减轻它们。这一点尤其重要,因为人工智能可能会削弱一些国家的治理,使其更难制定监管法规。证明人工智能系统在某个合理阈值内安全的责任,应该由其开发者和所有者承担,政府不应承担处理问题的责任。


人工智能治理还必须灵活,以便能够随着其发展和自我改进而调整方向。公共机构往往过度僵化,无法适应变化。就人工智能而言,技术进步的绝对速度将很快压倒现有治理结构跟进的能力。当然,这并不意味着人工智能治理应该借鉴硅谷“快速行动、打破常规”的精神,但应该更贴切地反映其技术本质。


除了预防性和灵活性之外,治理方案还必须具有包容性。这意味着人工智能治理不能完全以国家为中心,而是要邀请实践中监管所需的所有参与者,因为政府既不理解也不控制人工智能。私营科技公司可能缺乏传统意义上的主权,但它们在自己创建和有效管理的数字空间中拥有真正的权力和架构。这些非国家主体不能获得与国家相同的权力,因为国家代表其公民行事,但他们应该成为相关国际峰会的参与方,和人工智能协议的签署方。


这种治理主体范围的扩大是必要的,因为任何排除人工智能权力真正代理人的监管结构都注定要失败。在之前的科技监管浪潮中,企业往往拥有过多空间,使其容易行为过度,进而引发政策制定者和监管机构的严厉反应。但这种活动既没有让科技公司受益,也没有让公众受益。从一开始就邀请人工智能开发人员参与规则制定过程,将有助于建立更具协作性的人工智能治理文化,从而减少事后以成本高昂的对抗性监管进行扼制的必要。


科技公司也不能总是有发言权;人工智能治理的某些方面最好留给政府处理,国家应始终保留对政策决策的最终否决权。政府还必须防范监管俘获(regulatory capture)问题,确保科技公司不会利用其在政治体系中的影响力,牺牲公共利益、促进自身利益。包容性的多利益相关者治理模型将确保决定人工智能命运的参与者们,可以参与规则制定并受其约束。除了政府和科技公司之外,科学家、伦理学家、工会、民间社会组织和其他有知识、有权力、有相关利益的主体,都应该在谈判桌上占有一席之地。“人工智能合作组织”(Partnership on AI,译注:2016年由谷歌、脸书、IBM、亚马逊和微软共同创立)是一个非营利组织,召集了一系列大型科技公司、研究机构、慈善机构和民间社会组织来促进负责任的人工智能使用,它是一个混合、包容性论坛的积极案例。


治理体系还必须尽可能地不可渗透。应对气候变化成功与否取决于所有个体努力的总和,人工智能则不同,其安全性是由最低公约数决定的:单一的突破性算法可能会造成难以估量的损害,而全球人工智能治理的成败则取决于治理最差的国家、公司或技术。任一漏洞、薄弱环节或叛逃者都会为大范围的泄密、不良行为或监管竞相逐底打开大门。因此它必须无懈可击——进入门槛要足够低,吸引所有主体参与;退出成本足够高,以阻止违规行为。


除了覆盖全球之外,人工智能治理还必须覆盖整个供应链——从制造业到硬件、软件到服务,从供应商到用户。这意味着对其价值链上的每个节点都要进行技术审慎监管,从芯片生产到数据收集,从模型训练到最终使用,以及特定应用中的所有技术环节。不可渗透性的标准,是不存在任何监管灰色地带。


最后,治理要有针对性,不能一刀切。人工智能是一种通用技术,它会带来多元威胁。单一治理工具不足以解决人工智能的各种风险。在实践中,要确定哪些工具适合应对哪些风险,就需要对其所有可能产生的影响进行分类,研究治理每种影响的最佳方案。例如,某些应用是进化性的,会加剧侵犯隐私等已有问题;另一些应用则是革命性的,会造成全新的危害。有时,最好的干预点是数据收集过程;有时候,控制芯片销售,确保它们不落入坏人之手则更有用。处理虚假、错误信息所需要的工具,与处理通用人工智能和其他不确定的技术风险不同。某些情况下,宽松的监管和志愿性指导能发挥作用;另一些情况下,政府需要严格执行规定。


要做到以上几点,需要对相关技术有深入的了解,并掌握最新的知识。监管机构和其他部门需要对关键人工智能模型进行监督。他们需要一个审计系统,不仅可以远程跟踪其能力,还可以直接访问核心技术,这反过来又需要合适的人才。只有这样,才能确保对新的人工智能应用进行主动评估,理解明显的风险以及潜在的破坏性连带后果。换句话说,精准治理必须是知情治理。


 4   技术审慎的必要性


基于这些原则,应该至少建立三个人工智能治理机制,每个机制承担不同的任务,掌握不同权限,组织不同主体。它们在设计上要新颖,但可以从现有安排中寻找灵感,以应对其他包括气候变化、武器扩散和金融震荡在内的全球挑战。


第一个机制要侧重事实调查。采取全球科学机构的形式,就人工智能是什么,以及它带来什么样的政策挑战等基本问题,向政府和国际机构提供客观建议。如果没有人能够就其定义或可能危害达成一致,就不可能形成有效的政策。气候变化的应对机制可以作为参考。为了建立气候谈判的共享知识基准,联合国成立了政府间气候变化专门委员会,赋予其一项简单的任务:为政策制定者提供“对气候变化的科学基础、影响和未来风险,以及适应和缓解方案的定期评估”。人工智能需要一个类似的机构来定期评估人工智能的状况,公正地评价其风险和潜在影响,预测情景,并考虑政策方案,以保护全球公共利益。与政府间气候变化专门委员会一样,该机构要得到全球认可,要具有科学(对于地缘政治)独立性。它的报告可以为人工智能的多边谈判提供信息。


第二种机制用于管理主要人工智能强国之间的紧张关系,并防止危险先进系统的扩散。这一领域最重要的国际关系是中美关系。无论情况如何理想,这两个竞争对手也很难合作。然而,在地缘政治竞争加剧的背景下,一场不受控制的人工智能竞赛可能毁掉就治理达成国际共识的所有希望。中美合作最有可能的领域,是控制可能危及国家主权的强大系统。在极端情况下,失控、自我复制的通用人工智能的威胁,是协调和合作的最强动力。


中美应该致力于建立共同领域,或者是由第三方进行建议和监管的护栏机制。这一机制下,军备控制机制中常见的监控和验证方案可能适用于最重要的技术引入阶段,特别是与计算硬件相关的引入,例如先进的半导体和数据中心。经验证明,监管关键环节有助于遏制危险的军备竞赛,也可能有助于遏制现在可能更加危险的人工智能竞赛。


但人工智能大多数已经去中心化,因此这是一个全球公共问题。人工智能开发的分散性和该技术的核心特征(例如开源、易扩散)增加了其被网络犯罪分子、国家支持的行为主体和独狼们武器化的可能性。这就是为什么世界需要第三种治理机制,以在危险干扰出现时进行反应。这一机制可以参考金融机构用来维持全球金融稳定的方法。


金融稳定委员会(Financial Stability Board,译注:20国集团在伦敦金融峰会后成立的组织)由世界各国的中央银行主管、财政部长和监管机构组成,致力于通过评估系统性脆弱,并协调国家和国际机构采取必要行动,解决问题,防止全球金融动荡。一个类似的人工智能技术稳定委员会,可以在技术快速发展中维持地缘政治稳定。在国家监管机构和国际标准制定机构的支持下,它可以汇集专业知识和资源,以预防、应对人工智能相关危机,降低传染风险。它同时也可以直接与私营部门接触,因为重要跨国技术主体在维护地缘政治稳定方面发挥着关键作用,就像银行在维护金融稳定方面发挥的系统性作用一样。


这一机构的权威源于政府支持,这能有效防止全球科技企业通过参与监管套利,或利用注册地的地区保护机制。重视某些科技公司的系统重要性,并不意味着扼杀初创企业或新兴创新者。相反,建立从全球治理机构到这些科技企业的唯一直接沟通途径,将提高监管执行和危机管理的有效性,有利于整个生态系统。


维持技术地缘稳定性的制度也将填补当前监管中的一个危险空白:管理开源人工智能的责任。一定程度的在线审查是必要的。如果有人上传极其危险的模型,该机构必须拥有足够的权力和能力来将其删除或指示相关国家的管理者这样做。这是中美合作的另一个潜在领域——在开源软件中嵌入安全约束,例如:智能模型不能指导用户开发化学、生物武器,或制造大流行病原体。


另外,中美在预防危险智能全球扩散方面也可能有合作的空间,某些干预主义网络工具可以用于这一领域。


这些机制都必须全球共同运作,并得到所有主要行业参与者的支持。它们要足够专业化,以应对真正的人工智能世界;还要足够灵活,随着人工智能的发展不断更新其知识。这些机制合力,可以让世界朝着人工智能技术审慎管理迈出决定性的一步。而这三个机制也只是最关键的。其他监管机制,例如:“了解客户”(know your customer)的透明度标准、准入许可、安全测试协议,以及产品注册、审批流程,应该在未来几年内在行业中得到应用。关键在于创建灵活、多面的治理机构,不受传统或想象力的约束,因为技术人员是不会受这些约束的。


 5   促进最好的,防止最坏的


这些监管方案都不容易实施。尽管全世界的领导人都在谈论监管人工智能的必要性,但仍然缺乏这样做的政治意愿。目前,很少有分量足够的支持这赞成遏制人工智能——所有的激励因素都导向政府不作为。如果设计得当,上述人工智能治理机制可以有利于所有利益相关方的,建立原则和行业结构,促进人工智能良性发展,同时防止最坏的情况发生。而出现不受控人工智能的道路,会给全球稳定造成不可接受的风险,进而伤害商业环境,与所有国家的利益背道而驰。


强大的人工智能治理不仅可以减轻其社会风险,还可以通过避免其成为地缘政治竞争的舞台和工具,来缓解中美紧张关系。同时,它还能达成更深远、更持久的目标:建立一个解决其他颠覆性新兴技术的模版。人工智能可能是变革的独特催化剂,但它绝不是人类即将面临的最后一个颠覆性技术。量子计算、生物技术、纳米技术和机器人技术也有可能从根本上重塑世界。成功治理人工智能,将帮助世界成功治理这些技术。


二十一世纪内,不会有多少技术会像人工智能这样,带来的机遇令人畏惧又充满希望。上个世纪,政策制定者开始建立全球治理架构,希望这一架构能够应对时代的任务。现在,我们必须建立一个新的治理架构,以遏制和利用这个时代最强大、最具潜在决定性的力量。2035 年即将到来。没有时间可以浪费了。


*文章原刊于Foreign Affairs,原题为:“The AI Power Paradox: Can States Learn to Govern Artificial Intelligence—Before It’s Too Late?”



Ian Bremmer作者:伊恩·布雷默

政治风险咨询公司欧亚集团(Eurasia Group)创始人,美国知名政治学者。著有The End of Free Market、The Failure of Globalism等。

  FIN  点击图片链接阅读更多文章

危机时代, 我们反倒更离不开千疮百孔的全球贸易?


才获金砖接纳, 阿根廷却已无法挡住国内“极右”大冲击?


日本核污水排海僵局难解, 中国更需思考一条超越路线?

继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存