查看原文
其他

人工智能治理 | 经合组织《关于人工智能的建议》解读

陈艺敏 清华大学智能法治研究院 2023-11-28

人工智能(Artificial Intelligence,AI)是一项共性技术,具有促进积极且可持续的全球经济活动、提高创新能力和生产力、助力应对全球性重大挑战等惠民生、增福祉的潜力,被应用在制造业、金融业、交通运输行业甚至医疗保健行业、安保行业等广泛领域。在带来益处的同时,人工智能也对社会和经济提出了挑战,尤其在经济转型和不平等、竞争、劳动力市场的转变以及对民主和人权的影响等方面。


经济合作与发展组织(以下简称“经合组织”)在2016—2018年期间开展了多项关于人工智能的实证实践,对该技术领域进行了分析和预测之后,认为有必要在国际层面上塑造一个稳定的政策环境,以促进社会对人工智能的信任和采用。在此背景下,经合组织数字经济政策委员会(CDEP)提议和同意,于2019年5月22日在经合组织理事会部长级会议上通过《关于人工智能的建议》(以下简称《建议》)。


《建议》是第一个关于人工智能的政府间标准,不仅补充了经合组织在隐私、数字安全风险管理和负责任商业行为等领域的已有标准,还聚焦人工智能领域的具体问题,制定了适用于所有利益相关者(Stakeholder)1的一系列可实施的标准。《建议》由两个实质性内容部分组成,分别为负责任地管理可信人工智能(trustworthy AI)的原则和可信人工智能的国家政策与国际合作,意在推动用促进相关研究、保证对创新的经济激励措施等以人为行为为主的方式发展可信人工智能。


一、负责任地管理可信人工智能的原则

《建议》确定了关于负责任地管理可信人工智能的五项基于价值观的高级原则,并呼吁人工智能行动主体(AI actor)2根据自己的角色推广和实施这些原则。


(一)包容性增长、可持续发展和福祉


利益相关者应积极、负责任地管理可信人工智能,寻求对人类和地球有益的成果,如增强人类能力和创造力、促进包容代表性不足的群体、保护自然环境和减少经济、社会、性别和其他的不平等,以促进包容性增长、可持续发展和福祉。


(二)以人为中心的价值观和公平


人工智能行为人应在整个人工智能系统的生命周期(AI system lifecycle)3中尊重法治、人权和民主价值观,应包括自由、尊严和自主权、隐私和数据保护、不歧视和平等、多样性、公平、社会正义和国际公认的劳工权利等因素。为此,人工智能行为人应实施符合实际情况且高水准的机制和保障措施。


(三)信息透明度和可解释性


人工智能行为人应致力于提升人工智能系统(AI system)4的透明度和负责任的披露,提供适用于实际情况的且与时俱进的重要信息:


1. 培养对人工智能系统的一般认识;

2. 使利益相关者意识到他们与人工智能系统的交互;

3. 使受人工智能系统影响的人了解相关影响结果;

4. 使受到人工智能系统不利影响的人,能够根据作为预测、建议或决策基础的简易逻辑和相关因素来质疑不利后果。


(四)稳定性、保密性和安全性


人工智能系统在其整个生命周期中应是稳定、可靠和安全的,在正常使用、预测使用、误用或其他不利条件下能够正常运行,且不会造成不合理的安全风险。因此人工智能行为人应确保数据集、流程和决策相关信息的可追溯性,以便能够分析人工智能系统的结果和对查询的响应。人工智能行为人也应根据各自角色身份、实际情况和行动能力,在人工智能系统生命周期的每个阶段,持续应用系统的风险管理方法以解决隐私、数字安全、偏见等问题。


(五)问责制


人工智能行为人应根据各自角色身份,符合实际情况且高水准地负责人工智能系统的正常运行,并尊重上述原则。


二、对于可信人工智能的国家政策与国际合作的建议

根据上述五项原则,向遵循《建议》的成员和非成员提供了五项建议,以在其国家政策和国际合作中实施,并特别注意中小企业(SMEs):


(一)投资于人工智能研发


各国政府应考虑对人工智能和相关跨学科的研究与开发进行长期的公共投资并鼓励私人投资,以刺激有关可信人工智能的具有挑战性的技术问题和与人工智能有关的社会、法律、政策和道德影响的研发创新。政府也应该考虑对具有代表性的开放数据集进行公共投资并鼓励私人投资,尊重隐私、保护数据以支持没有不适当偏差的人工智能研发环境,并提高互通性和标准的适用性。


(二)培育人工智能的数字生态系统


各国政府应促进可信人工智能数字生态系统的发展和使用。这种生态系统应尤其包括数字技术、基础设施和适当分享有关人工智能知识的机制。在这方面,政府应考虑促进数据信托(data trusts)等机制,以支持安全、公平、合法和合乎道德的数据共享。


(三)塑造有利于人工智能的政策环境


政府应促进改善政策环境,支持可信人工智能系统从研究和开发阶段向部署和运营阶段灵活过渡。在这方面,应该考虑利用实验工作(experimentation)来提供一个受控环境,在该环境中测试人工智能系统并酌情扩大规模。各国政府应适当地审查并调整适用于人工智能系统的政策、监管框架和评估机制,以鼓励可信人工智能的创新和竞争。


(四)增强劳动者的能力,为劳动力市场转型做准备


1. 政府应与利益相关者密切合作,为就业市场和社会转型做好准备。政府应增强劳动者的能力,以便在广泛的应用范围内有效地使用人工智能系统并与之互动,包括为劳动者配备必要的技能。

2. 各国政府应采取步骤,包括通过社会对话,确保劳动者能够公平地过渡人工智能的部署时期。例如,通过工作中的培训方案,帮助受转换工作岗位影响的人(support for those affected by displacement),以及在劳动力市场获得新的机会。


3. 政府还应该与利益相关者密切合作以推进在工作中负责任地使用人工智能,提高劳动者的安全和工作质量,促进创业能力和生产力,旨在确保人工智能的益处得到广泛和公平的分享。

(五)促进可信人工智能的国际合作

1. 各国政府,包括发展中国家,应和利益相关者积极合作并推进这些原则,在可信人工智能的负责任管理方面取得进展。

2. 各国政府应在经合组织及其他全球和区域论坛上共同努力,适当促进人工智能知识的共享;应鼓励国际的、跨部门的和开放的多方利益相关者倡议,以获得关于人工智能的长期的专业知识。

3. 各国政府应促进可互操作(interoperable)的可信人工智能的多方利益相关者和以共识为导向的全球技术标准的发展。


各国政府还应该鼓励制定和使用具有国际可比性的指标,以衡量人工智能的研究、开发和部署,并收采集实证数据以评估这些原则的实施进展。


三、关于跟踪监测和共享传播

《建议》还包括了制定衡量人工智能研究开发和部署的指标,并指示经合组织数字经济政策委员会监测其执行情况。为了支持《建议》的实施,经合组织数字经济政策委员会制定了可实施的执行指南,主要通过经合组织人工智能政策观察站(OECD AI Policy Observatory)实现。观察站计划于2019年底启动,包含人工智能战略、政策和倡议的实时数据库。作为一个包容性的人工智能公共政策中心,把整个经合组织的资源与来自利益相关者群体和合作伙伴的资源相结合,提供多学科的、基于实证的人工智能政策分析。此外,政策观察站不断更新人工智能相关指标、衡量标准、政策和妥当对策,与时俱进地完善执行指南。


《建议》对非经合组织成员同样开放,强调了其人工智能政策工作的全球相关性,并呼吁国际合作。


参考文献

[1] 《建议》中定义Stakeholder:Stakeholders encompass all organisations and individuals involved in, or affected by, AI systems, directly or indirectly. AI actors are a subset of stakeholders.

[2] 《建议》中定义AI actor:AI actors: AI actors are those who play an active role in the AI system lifecycle, including organisations and individuals that deploy or operate AI.

[3] 《建议》中定义AI system lifecycle:AI system lifecycle phases involve: i) ‘design, data and models’; which is a context-dependent sequence encompassing planning and design, data collection and processing, as well as model building; ii) ‘verification and validation’; iii) ‘deployment’; and iv) ‘operation and monitoring’. These phases often take place in an iterative manner and are not necessarily sequential. The decision to retire an AI system from operation may occur at any point during the operation and monitoring phase.

[4] 《建议》中定义AI system:An AI system is a machine-based system that can, for a given set of human-defined objectives, make predictions, recommendations, or decisions influencing real or virtual environments. AI systems are designed to operate with varying levels of autonomy.


撰稿 | 陈艺敏,清华大学智能法治研究院实习生

指导&修改 | 刘云

编辑 | 刘懿阳

注:本公众号原创文章的著作权均归属于清华大学智能法治研究院,需转载者请在本公众号后台留言或者发送申请至computational_law@tsinghua.edu.cn,申请需注明拟转载公众号/网站名称、主理者基本信息、拟转载的文章标题等基本信息。


继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存