查看原文
其他

中方多条倡议成为英国AI峰会宣言内容,五个要点解读《布莱切利宣言》

刘典
2024-09-16



点关注不迷路,加星标★更好找

Follow & Favourite



【全球AI战略洞察】栏目由清华大学人工智能国际治理研究院推出,旨在通过对当前人工智能领域发生的重要信息进行“标注、提炼、解读”,剖析全球AI治理各国家间不同的战略图景,以此描绘人工智能治理领域的国际格局。


栏目主理人:刘典

本文转载自:微信公众号@清华大学人工智能国际治理研究院


前言


自英国首相6月7日宣布英国将主办首届人工智能安全全球峰会以来,中国是否会参与该峰会便一直是各方关注的焦点。


2023年11月1日,该峰会在布莱切利园(Bletchley Park)正式开幕。来自各国的100多名政界和商界名人出席,包括美国副总统哈里斯、欧盟委员会主席冯德莱恩、OpenAI的奥特曼、特斯拉的马斯克、谷歌DeepMind的哈萨比斯、Arm的哈斯等。


中国科技部副部长吴朝晖率领由科技部、外交部、中国科学院、阿里巴巴、腾讯组成的代表团参会,并在开幕式全体会议上发言。与会期间,代表团参与了人工智能安全等问题的讨论,宣介了中方几天前提出的《全球人工智能治理倡议》,接下来还会和相关国家开展双边会谈。中国也联署了会议的重要成果文件——关于人工智能国际治理的《布莱切利宣言》。


值得关注的是,本次《布莱切利宣言》中,多条内容都能与中方《全球人工智能治理倡议》中的内容有对应,表明中方的倡议在本次峰会的宣言中多处有体现。

以下是《方案》的要点内容全文标注。欢迎大家转发收藏。

01

要点内容

一、中方《全球人工智能治理倡议》多条内容被纳入《布莱切利宣言》

本次《布莱切利宣言》中,多条内容都能与中方《全球人工智能治理倡议》中的内容有对应
  1. 以人为本

  • 《全球人工智能治理倡议》第一条指出,发展人工智能应坚持“以人为本”理念,以增进人类共同福祉为目标,确保人工智能始终朝着有利于人类文明进步的方向发展。

  • 《布莱切利宣言》第一段申明,为了所有人的利益,AI应该以安全、以人为本、可信赖和负责任的方式设计、开发、部署和使用。


  1. 尊重他国主权,遵守他国法律

  • 《全球人工智能治理倡议》第二条指出,面向他国提供人工智能产品和服务时,应尊重他国主权,严格遵守他国法律

  • 《布莱切利宣言》第九段指出,在开展合作的同时,应认识到做法可能因国情和适用的法律框架而有所差异


  1. 建立风险评估体系

  • 《全球人工智能治理倡议》第五、六条指出,推动建立风险等级测试评估体系研发主体不断提高人工智能可解释性和可预测性,逐步建立健全法律和规章制度。

  • 《布莱切利宣言》第七段强调,开发前沿人工智能能力的参与者对确保这些人工智能系统的安全负有特别重大的责任,包括通过安全测试系统、通过评估以及通过其他适当措施。


  1. 公平、非歧视原则

  • 《全球人工智能治理倡议》第七条指出,要坚持公平性非歧视性原则。

  • 《布莱切利宣言》第三段指出,应认识到需要解决保护人权、透明度和可解释性、公平、问责、监管、安全、适当的人类监督、道德、减少偏见、隐私和数据保护等问题。


  1. 加强国际合作、对话

  • 《全球人工智能治理倡议》第九条倡导,坚持广泛参与协商一致、循序渐进的原则,密切跟踪技术发展形势,开展风险评估和政策沟通,分享最佳操作实践。在此基础上,通过对话与合作,在充分尊重各国政策和实践差异性基础上,推动多利益攸关方积极参与,在国际人工智能治理领域形成广泛共识

  • 《布莱切利宣言》第五、六段申明,人工智能产生的许多风险本身具有国际性,因此最好通过国际合作加以解决;酌情就共同原则和行为准则等方法开展合作,重申国际合作应努力让广泛的合作伙伴酌情参与进来,强调所有参与者都可以在确保人工智能安全方面发挥作用:国家、国际论坛和其他倡议、公司、民间社会和学术界需要共同努力。并在第八段强调,应对人工智能前沿风险的议程将侧重于建立和保持应对人工智能安全风险的全球共识


  1. 帮助发展中国家

  • 《全球人工智能治理倡议》第十一条指出,增强发展中国家在人工智能全球治理中的代表性和发言权,开展面向发展中国家的国际合作与援助,不断弥合智能鸿沟和治理能力差距。

  • 《布莱切利宣言》第六段指出,应帮助发展中国家加强人工智能能力建设,发挥人工智能的有利作用以支持可持续增长和缩小发展差距


二、中国等28国联署关于人工智能国际治理的《布莱切利宣言》。


来自28个国家的政府代表,以及7个国际多边组织、超过80家学术科研机构、企业和公民组织出席了人工智能安全峰会。
包括中国、美国、英国、欧盟、新加坡、日本、韩国、澳大利亚、巴西、加拿大、智利、法国、德国、印度、印度尼西亚、爱尔兰、以色列、意大利、肯尼亚、沙特阿拉伯、荷兰、尼日利亚、菲律宾、卢旺达、西班牙、瑞士、土耳其、乌克兰、阿联酋在内的多个国家联署了《布莱切利宣言》。
该宣言强调了以人为本AI发展理念,呼吁各国科研机构、企业等在AI设计、开发和使用过程中,始终以人的福祉为出发点和落脚点,确保AI技术为人类带来实实在在的利益
同时,《宣言》也警示了AI发展过程中可能带来的伤害要求各方通过法规等手段防范和化解相关风险


三、宣言指出,现在应采取行动在全球范围内安全发展人工智能

1、人工智能应以安全的方式设计、开发、部署,做到以人为本值得信赖负责任
2、现在应采取行动,以在全球范围内安全发展人工智能
3、解决人工智能带来的重大风险是必要紧迫
4、在人工智能技术快速发展的背景下,需要加深对潜在风险及应对行动的理解

四、宣言指出,人工智能的风险应对需要包容的国际合作,并强调了开发者的责任

1、人工智能的风险需要通过包容的国际合作加以解决
2、国家、国际论坛、公司、学术界等所有参与者都可以在确保人工智能安全方面发挥作用
3、前沿人工智能开发者对确保人工智能安全负有特别重大的责任

五、宣言指出,为促进更广泛的人工智能国际合作,将支持一个具有国际包容性的前沿人工智能安全科学研究网络

1、在合作的背景下,应对人工智能前沿风险的议程将侧重于:确定共同关注的风险建立并保持对这些风险共识,制定基于各国国情的政策并酌情开展合作
2、建立一个用于政策制定公益事业国际人工智能前沿安全科学研究网络,以促进提供最佳的科学支持
3、继续开展包容性的全球对话,推动更广泛的国际讨论人工智能前沿安全研究

02

全文信息点标注与拆解

以下是《布莱切利宣言》的要点内容和原文标注:

内容来源:

https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023

《布莱切利宣言》(中译文)


人工智能(AI)带来了巨大的全球机遇:它有潜力改变和增强人类福祉、和平与繁荣

为了实现这一目标,我们申明

为了所有人的利益,AI应该以安全、以人为本可信赖和负责任的方式设计、开发、部署和使用

我们欢迎国际社会迄今为止在AI合作方面所做的努力

  • 以促进包容性经济增长、可持续发展和创新,

  • 保护人权和基本自由,

  • 并培养公众对AI系统的信任和信心,

  • 以充分实现其潜力。

AI系统已经部署在日常生活的许多领域,包括:

  • 住房、就业、交通、教育、健康、无障碍和司法,

  • 对它们的使用可能会继续增加。

因此,我们认识到,现在是一个独特的时刻,需要采取行动申明安全发展人工智能的必要性,并以包容的方式在我们各国和全球范围利用人工智能的变革性机遇,造福于人类。

这包括用于:

  • 公共服务,如卫生和教育、粮食安全、科学、清洁能源、生物多样性和气候等领域,

  • 实现人权的享有,

  • 并加倍努力实现联合国可持续发展目标。

除了这些机会,AI也带来重大风险,包括在日常生活领域。为此,我们欢迎

  • 相关的国际努力

  • 审查和解决AI系统在现有论坛和其他相关举措中的潜在影响

  • 认识到需要解决保护人权、透明度和可解释性、公平性、问责制、监管、安全、适当的人类监督、道德、减少偏见、隐私数据保护问题

我们还注意到,AI系统操纵内容生成欺骗性内容的能力可能带来不可预见的风险

所有这些问题都至关重要,我们确认解决这些问题必要性紧迫性

特别的安全风险出现在“前沿”的AI,即那些能够执行各种任务的高能力通用AI模型,包括:

  • 基础模型

  • 以及可能表现出与当今最先进模型相匹配或超过现有能力的相关特定狭窄定义的AI

重大风险可能来自潜在的故意滥用,或与按照人类意图行事相关的控制问题。此类问题部分是人类尚未完全理解AI的这些能力,因此难以预测。

我们特别关注网络安全生物技术等领域的此类风险,以及前沿AI系统可能放大虚假信息等风险的领域。这些AI模型最重要的能力可能导致严重甚至灾难性的伤害,无论是故意还是无意的。

鉴于AI的快速和不确定的变化速度,以及在技术投资加速的背景下,我们申明,加深对这些潜在风险的理解,以及加深对应对这些风险的行动的理解,尤为紧迫

人工智能产生的许多风险本身具有国际性,因此最好通过国际合作加以解决。

我们决心

  • 包容的方式共同努力

  • 通过现有的国际论坛和其他相关倡议

  • 确保人工智能以人为本、值得信赖和负责任

  • 确保人工智能的安全

  • 并支持所有人的利益

  • 促进合作

  • 应对人工智能带来的广泛风险

在此过程中,我们认识到各国应考虑采取有利于创新适度的治理监管方法,最大限度地发挥人工智能的效益,并考虑到人工智能的相关风险

这可能包括

  • 根据国情和适用的法律框架

  • 酌情对风险进行分类和归类

我们还注意到酌情就共同原则行为准则等方法开展合作重要性

关于最有可能在前沿人工智能方面发现的具体风险,我们决心

  • 通过现有国际论坛

  • 和其他相关倡议,包括未来的国际人工智能安全峰会

  • 加强和维持我们的合作

  • 扩大与更多国家的合作

  • 确定、理解并酌情采取行动

所有参与者都可以在确保AI安全方面发挥作用:国家国际论坛其他倡议公司民间社会学术界需要共同努力。我们注意到包容性人工智能弥合数字鸿沟重要性重申国际合作应努力酌情让广泛的合作伙伴参与进来,并欢迎发展为导向的方法和政策,以帮助发展中国家加强人工智能能力建设,并利用人工智能的赋能作用来支持可持续增长缩小发展差距

我们申明,虽然必须在整个AI生命周期考虑安全,但发展前沿AI能力的行为者,特别是那些异常强大和潜在有害的AI系统,对确保这些AI系统的安全负有特别重大的责任,包括通过安全测试系统评估其他适当措施。我们鼓励所有相关行为者就其衡量、监测和减轻AI潜在有害能力及其可能出现的相关影响的计划,提供适当的透明度问责制,特别是为了防止滥用控制问题以及其他风险的放大。

在我们的合作范围内,并为了给国家国际两级的行动提供信息,我们应对前沿AI风险的议程将侧重于

  • 识别共同关注的人工智能安全风险建立对这些风险的共同科学和循证理解,并在能力不断提高的情况下,在更广泛的全球方法的背景下保持这种理解,以了解人工智能对我们社会的影响。

  • 根据这些风险,在各国制定各自的基于风险的政策,以确保安全,在适当的情况下进行合作,同时认识到我们的方法可能因国情和适用的法律框架而异。这包括,除了提高私人行为者开发前沿人工智能能力的透明度外,还包括适当的评估指标安全测试工具,以及发展相关的公共部门能力科学研究

为推进这一议程,我们决心支持建立一个具有国际包容性的前沿AI安全科学研究网络,该网络包括和补充现有和新的多边、多边和双边合作包括通过现有国际论坛其他相关举措促进为决策和公共利益提供最佳科学

认识到AI的变革性积极潜力,并作为确保更广泛的AI国际合作的一部分,我们决心维持包容性的全球对话,让现有国际论坛和其他相关举措参与进来,并以开放的方式更广泛的国际讨论做出贡献,并继续研究前沿AI安全问题,以确保可以负责任地利用技术的好处造福所有人。我们期待2024年再次会面。


协定签署国:

  • 澳大利亚

  • 巴西

  • 加拿大

  • 智利

  • 中国

  • 欧盟

  • 法国

  • 德国

  • 印度

  • 印度尼西亚

  • 爱尔兰

  • 以色列

  • 意大利

  • 日本

  • 肯尼亚

  • 沙特阿拉伯

  • 荷兰

  • 尼日利亚

  • 菲律宾

  • 韩国

  • 卢旺达

  • 新加坡

  • 西班牙

  • 瑞士

  • 土耳其

  • 乌克兰

  • 阿联酋

  • 英国

  • 美国

其他参会的国际组织、研究机构、非政府组织和科技企业:


Academia and civil society

  • Ada Lovelace Institute - Advanced Research and Invention Agency - African Commission on Human and People’s Rights - AI Now Institute - Alan Turing Institute - Algorithmic Justice League - Alignment Research Center - Berkman Center for Internet & Society, Harvard University - Blavatnik School of Government - British Academy - Brookings Institution - Carnegie Endowment - Centre for AI Safety - Centre for Democracy and Technology - Centre for Long-Term Resilience - Centre for the Governance of AI - Chinese Academy of Sciences - Cohere for AI - Collective Intelligence Project - Columbia University - Concordia AI - ETH AI Center - Future of Life Institute - Institute for Advanced Study - Liverpool John Moores University - Mila – Quebec Artificial Intelligence Institute - Mozilla Foundation - National University of Cordoba - National University of Singapore - Open Philanthropy - Oxford Internet Institute - Partnership on AI - RAND Corporation - Real ML - Responsible AI UK - Royal Society - Stanford Cyber Policy Institute - Stanford University - Technology Innovation Institute - Université de Montréal - University College Cork - University of Birmingham - University of California, Berkeley - University of Oxford - University of Southern California - University of VirginiaIndustry and related organisations- Adept - Aleph Alpha - Alibaba - Amazon Web Services - Anthropic - Apollo Research - ARM - Cohere - Conjecture - Darktrace - Databricks - Eleuther AI - Faculty AI - Frontier Model Forum - Google DeepMind - Google - Graphcore - Helsing - Hugging Face - IBM - Imbue - Inflection AI - Meta - Microsoft - Mistral - Naver - Nvidia - Omidyar Group - OpenAI - Palantir - Rise Networks - Salesforce - Samsung Electronics - Scale AI - Sony - Stability AI - techUK - Tencent - Trail of Bits - XAI

Multilateral organisations- Council of Europe - European Commission - Global Partnership on Artificial Intelligence (GPAI) - International Telecommunication Union (ITU) - Organisation for Economic Co-operation and Development (OECD) - UNESCO - United Nations

03 附 《全球人工智能治理倡议》全文

人工智能是人类发展新领域。当前,全球人工智能技术快速发展,对经济社会发展和人类文明进步产生深远影响,给世界带来巨大机遇。与此同时,人工智能技术也带来难以预知的各种风险和复杂挑战。人工智能治理攸关全人类命运,是世界各国面临的共同课题。

在世界和平与发展面临多元挑战的背景下,各国应秉持共同、综合、合作、可持续的安全观,坚持发展和安全并重的原则,通过对话与合作凝聚共识,构建开放、公正、有效的治理机制,促进人工智能技术造福于人类,推动构建人类命运共同体。

我们重申,各国应在人工智能治理中加强信息交流和技术合作,共同做好风险防范,形成具有广泛共识的人工智能治理框架和标准规范,不断提升人工智能技术的安全性、可靠性、可控性、公平性。我们欢迎各国政府、国际组织、企业、科研院校、民间机构和公民个人等各主体秉持共商共建共享的理念,协力共同促进人工智能治理。

为此,我们倡议:

  1. ——发展人工智能应坚持“以人为本”理念,以增进人类共同福祉为目标,以保障社会安全、尊重人类权益为前提,确保人工智能始终朝着有利于人类文明进步的方向发展。积极支持以人工智能助力可持续发展,应对气候变化、生物多样性保护等全球性挑战。

  2. ——面向他国提供人工智能产品和服务时,应尊重他国主权,严格遵守他国法律,接受他国法律管辖。反对利用人工智能技术优势操纵舆论、传播虚假信息,干涉他国内政、社会制度及社会秩序,危害他国主权。

  3. ——发展人工智能应坚持“智能向善”的宗旨,遵守适用的国际法,符合和平、发展、公平、正义、民主、自由的全人类共同价值,共同防范和打击恐怖主义、极端势力和跨国有组织犯罪集团对人工智能技术的恶用滥用。各国尤其是大国对在军事领域研发和使用人工智能技术应该采取慎重负责的态度。

  4. ——发展人工智能应坚持相互尊重、平等互利的原则,各国无论大小、强弱,无论社会制度如何,都有平等发展和利用人工智能的权利。鼓励全球共同推动人工智能健康发展,共享人工智能知识成果,开源人工智能技术。反对以意识形态划线或构建排他性集团,恶意阻挠他国人工智能发展。反对利用技术垄断和单边强制措施制造发展壁垒,恶意阻断全球人工智能供应链。

  5. ——推动建立风险等级测试评估体系,实施敏捷治理,分类分级管理,快速有效响应。研发主体不断提高人工智能可解释性和可预测性,提升数据真实性和准确性,确保人工智能始终处于人类控制之下,打造可审核、可监督、可追溯、可信赖的人工智能技术。

  6. ——逐步建立健全法律和规章制度,保障人工智能研发和应用中的个人隐私与数据安全,反对窃取、篡改、泄露和其他非法收集利用个人信息的行为。

  7. ——坚持公平性和非歧视性原则,避免在数据获取、算法设计、技术开发、产品研发与应用过程中,产生针对不同或特定民族、信仰、国别、性别等偏见和歧视。

  8. ——坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,形成人工智能伦理指南,建立科技伦理审查和监管制度,明确人工智能相关主体的责任和权力边界,充分尊重并保障各群体合法权益,及时回应国内和国际相关伦理关切。

  9. ——坚持广泛参与、协商一致、循序渐进的原则,密切跟踪技术发展形势,开展风险评估和政策沟通,分享最佳操作实践。在此基础上,通过对话与合作,在充分尊重各国政策和实践差异性基础上,推动多利益攸关方积极参与,在国际人工智能治理领域形成广泛共识。

  10. ——积极发展用于人工智能治理的相关技术开发与应用,支持以人工智能技术防范人工智能风险,提高人工智能治理的技术能力。

  11. ——增强发展中国家在人工智能全球治理中的代表性和发言权,确保各国人工智能发展与治理的权利平等、机会平等、规则平等,开展面向发展中国家的国际合作与援助,不断弥合智能鸿沟和治理能力差距。积极支持在联合国框架下讨论成立国际人工智能治理机构,协调国际人工智能发展、安全与治理重大问题。

——END——



点关注不迷路,加星标更好找

近期内容 ●●

// 1

当好党中央的“尚方宝剑”!6个要点详解总书记《求是》最新文章

// 2

重磅!新疆自贸区方案发布,9个方面读懂《中国(新疆)自由贸易试验区总体方案》

// 3

首提“金融强国”,全面加强监管!全网最速提炼解读中央金融工作会议8大要点

// 4

全国金融工作会议即将召开,回顾前五次全国金融工作会议,第六次全国金融工作会议前瞻

// 5

5分钟速览重要党报:金融领域改革与发展、民营经济、习近平文化思想、区域协调发展等(10.13~10.30)

往期系列内容

点击图片,查看更多


加入全球政经观察员

加微信“x-923604517”拉你入群


 

刘典

复旦大学中国研究院副研究员


主要研究领域为数字经济、数字货币、网络与数据治理,国际政治经济学等。


个人专著包括《非常法史》、《法眼看民国》、《政策沟通:国际合作引擎》;参与编著《“一带一路”大百科》《读懂“一带一路”》《破解中国经济十大难题》、《中国改革大趋势》等。


在《中国金融》、《文化纵横》、《人民论坛》等核心期刊发表十多篇研究论文,在《光明日报》、《经济日报》、《解放军报》、《北京日报》等数十家权威纸媒发表近百篇评论文章。

素材来源官方媒体/网络新闻
继续滑动看下一个
刘典
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存