CISS发布“中美人工智能与国际安全二轨对话”阶段性报告
编者按:
2019年10月,清华大学战略与安全研究中心与美国布鲁金斯学会共同成立“中美人工智能与国际安全二轨对话”项目。截至2024年2月,双方组织专家组已开展九轮线下或线上对话,持续就人工智能与国际安全领域相关议题进行探讨交流,取得诸多共识和进展。目前,双方同意分别发布成果报告,作为项目的阶段性总结,并为下阶段对话交流奠基。现公布中方项目组阶段性报告,以飨读者。“中美人工智能与国际安全二轨对话”阶段性报告
CISS人工智能与国际安全项目组
2019年10月,清华大学战略与安全研究中心与美国布鲁金斯学会聚焦人工智能安全治理前瞻性议题,联合启动“中美人工智能与国际安全二轨对话”项目。截至2024年2月,中美专家组已开展九轮线下或线上对话,主要取得如下共识和进展:
一、人工智能治理的起点是识别潜在安全风险。中美双方专家组认为,国际社会在人工智能技术发展与应用过程中应高度关注其潜在的安全风险,具体包括但不限于:一是人工智能技术的不可知性。人工智能技术迭代迅速,具有自我学习和自我进化能力,其处理逻辑可能超出人类认知边界,因而带来安全风险。二是人工智能算法歧视。由于目前还不可能完全避免人工智能应用中的算法偏见和歧视,因此人工智能技术应用可能超出人类道德伦理规范。三是人工智能技术滥用。人工智能技术不像核武器具有很高的技术获取门槛,容易落入黑客、恐怖分子等非国家行为手中,危及公共安全。
二、明确人工智能术语内涵。目前国际社会缺乏统一的人工智能术语体系,针对同一概念存在多种表意,不利于技术治理的交流和理解。鉴于此,双方专家组商定并成立了人工智能术语联合工作组,以各自官方和权威文件中出现的术语和解释为基础,按照各自表述、求同存异的原则,通过定期沟通,联提一份人工智能概念术语清单或手册,为后续在更广泛相关领域的对话奠定基础。目前中方专家组提出相关术语64条,美方专家组提出42条,双方作出共同解释的术语共25条。在2024年2月慕尼黑对话中,双方重点探讨6条核心术语,包括;武器系统、无人系统、自主武器系统、致命性、自主与自动化、人机交互。
三、借助场景推演分析军用人工智能相关冲突机理与管控举措。人工智能军事应用可能带来的风险是全球关注焦点,双方专家商定成立人工智能应用场景推演联合工作组,通过人工智能典型军事应用场景推演,探讨如何制定人工智能武器系统使用规则、识别风险、建立危机管控和故障应急机制以及建立信任措施等议题。同时,双方还就想定设计与编撰等提出一些基本原则,并一致同意后期将讨论情况汇集成册。
四、探索人工智能安全治理路径。鉴于人工智能技术普遍具有两用性,双方认为中美两国作为人工智能大国,应当在技术发展方面带头采取审慎态度,合作推动全球人工智能技术向善。尽管两国在民用治理层面依据逻辑有别,但不妨碍通过对话平台交流经验,共同为塑造全球安全的未来做出贡献。
在中美元首旧金山会晤中,双方同意建立人工智能领域政府间对话机制,不仅对推动中美双边关系稳定具有积极作用,对推进全球人工智能治理具有重大战略意义。清华大学战略与安全研究中心与布鲁金斯学会的“中美人工智能与国际安全二轨对话”项目将沿着现有议题方向深入推进,发挥智库间对话的灵活性和专业性,积累共识,缩小分歧,努力推动中美人工智能领域的交流与沟通,为塑造全球安全的未来贡献力量。
附:布鲁金斯学会报告链接 https://www.brookings.edu/articles/laying-the-groundwork-for-us-china-ai-dialogue/
相关阅读
CISS发布《2024年中国外部安全风险展望》
CISS发布《“中国人的国际安全观”民意调查报告(2023)》CISS发布《亚太命运共同体展望》报告
CISS发布《2023年中国外部安全风险展望》
CISS发布《2022年中国外部安全风险展望报告》和《2021年度报告》