查看原文
其他

《欧洲议会和欧盟理事会关于开发、部署和使用人工智能、 机器人和相关技术伦理原则的条例》 (立法动议、提案及解释性陈述)

SIAL 法大网络与智能法研究会 2023-01-13

      具体引用请参见纸质版:王立梅、郭旨龙主编:《网络法学研究》,中国政法大学2022年版。


《欧洲议会和欧盟理事会关于开发、部署和使用人工智能、机器人和相关技术伦理原则的条例》

(立法动议、提案及解释性陈述)


+ + + + + + + + + + + 

简介


席斌(译),山西大学法学院2019级博士研究生。

汪渊智(校),山西大学法学院教授、博士生导师。


译者注:

      原文标题是:DRAFT REPORT with recommendations to the Commission on a framework of ethical aspects of

artificial intelligence, robotics and related technologies〔2020/2012(INL)〕),即《向委员会就有关人工智能、机器人和相关技术的伦理方面提出立法建议的报告草案〔2020/2012(INL)〕》,该报告草案于2020年4月21日由欧洲议会法律事务委员会提出(报告员为: Ibán García del Blanco)。按照欧洲议会程序,目前该报告草案仍处于由法律事务委员会内部决定阶段,之后还要经过欧洲议会决议。如果要最终完成立法,欧洲议会对欧盟委员会作出立法建议之决议后,还需启动正式的立法程序,这将需要一定时间。该报告草案第二部分附带的立法提案,是目前欧盟内部第一个也是唯一一个所形成的关于伦理的法律制度框架(草案)。


+ + + + + 

+

目 次

 

一、就确立开发、部署和使用人工智能、机器人和相关技术伦理原则提请欧洲议会进行决议之立法动议

二、《关于开发、部署和使用人工智能、机器人和相关技术伦理原则的条例》之立法提案

三、立法动议及提案之解释性陈述


  +


一、就确立开发、部署和使用人工智能、机器人和相关技术伦理原则提请欧洲议会进行决议之立法动议

 

      欧洲议会,考虑到:

     ——《欧洲联盟运行条约》第225条。

     ——《欧洲联盟运行条约》第114条。

      ——理事会2018年9月28日《关于设立欧洲高性能计算联合项目的第2018/1488号条例》。[1]

      ——欧洲议会和理事会2018年6月6日《关于建立2021—2027数字欧洲计划提案的通讯〔COM(2018)0434〕》。

      ——欧盟委员会2020年2月19日致欧洲议会、理事会、欧洲经济和社会委员会以及地区委员会《关于人工智能 ——欧洲追求卓越和信任的方法的通讯〔COM(2020)0065〕》。

      ——欧盟委员会2020年2月19日致欧洲议会、理事会、欧洲经济和社会委员会以及地区委员会的《关于欧洲数据战略的通讯〔COM(2020)0066〕》。

      ——欧盟委员会2020年2月19日致欧洲议会、理事会、欧洲经济和社会委员会以及地区委员会的《关于塑造欧洲数字未来的通讯〔COM(2020)0067〕》。

      ——欧洲议会2017年2月16日《关于就机器人技术民事法律规则向欧盟委员会提出立法建议的决议》。[2]

      ——欧洲议会2017年6月1日《关于欧洲工业数字化的决议》。[3]

      ——欧洲议会2018年9月12日《关于自动武器系统的决议》。[4]

      ——欧洲议会2018年9月11日《关于数字时代语言平等的决议》。[5]

      ——欧洲议会2019年2月12日《关于欧洲人工智能和机器人技术全面工业政策的决议》。[6]

      ——欧盟委员会设立之人工智能高级别专家组2019年4月8日题为《可信赖的人工智能道德准则》的报告。

      ——考虑到应依科学和技术未来小组 (STOA)要求编写的简报和研究报告,该小组由欧洲议会研究处的科学远见小组负责管理,题为“如果算法能够遵守伦理原则怎么办?”、“人工智能门户:法律和伦理思考”、“算法责任和透明度的治理框架”、“我们应该害怕人工智能吗?”和“人工智能的伦理:问题和倡议”。

      ——欧洲议会《议事规则》第47条和第54条。

      ——考虑到外交事务委员会,国内市场和消费者保护委员会,运输和旅游委员会,公民自由、司法和内政委员会,就业和社会事务委员会,环境、公共卫生和食品安全委员会以及文化和教育委员会的意见。

      ——法律事务委员会的报告(A9-0000/2020)。


引言


      A.鉴于人工智能、机器人和相关技术正在迅速发展,有可能直接影响我们社会的各个方面,包括基本的社会和经济原则和价值观。


      B.鉴于欧盟及其成员国对确保这些技术为其公民的福祉和普作出益做出贡献负有特殊责任。


      C.鉴于欧盟内部开发、部署和使用人工智能、机器人和相关技术的共同框架应既保护公民免受潜在风险,又提升这些技术在世界范围内的可信度。


      D.鉴于议会已经进行了大量研究,并就与这些技术相关的法律和伦理问题表明了若干立场。


     E.鉴于这些问题应通过一个全面的、经得起未来考验的法律框架来解决,该框架应反映《条约》和《基本权利宪章》所载的欧盟原则和价值观,这将为企业和公民带来法律确定性。


      F.鉴于为了使该框架的适用范围更为全面,它应涵盖广泛的技术及其组成部分,包括算法、软件和它们使用或产生的数据。


      G.鉴于该框架应涵盖所有需要适当考虑欧盟原则和价值观的情况,即相关技术及其组成部分的开发、部署和使用。


      H.鉴于采用统一方法来处理与人工智能、机器人和相关技术有关联的伦理原则,需要在联盟中对这些概念,诸如算法、软件、数据或生物特征识别等达成共识。


      I.鉴于在开发、部署和使用人工智能、机器人和相关技术时,需要统一应用共同的伦理原则,因此在联盟层面采取行动是合理的。


      J.鉴于只有在确定了负责确保、评估和监控合规性的人员时,共同伦理原则方为有效。


      K.鉴于各会员国应设立一个国家监管机构,负责确保、评估和监控遵守情况,并与有关利益攸关方和民间团体密切合作,以促成观点意见的讨论和交换。


      L.鉴于议会仍在吁请建立一个欧洲机构,以确保整个欧盟采取协调一致的方法来应对新的机遇和挑战,特别是由当前技术发展带来的跨境机遇和挑战。


(一)以人为中心的人工智能


      1.声明:人工智能、机器人和相关技术的开发、部署和使用,包括但不限于人类的开发、部署和使用,应始终尊重人类的能动性和监督权,并允许随时恢复人类的控制权。


(二)风险评估


      2.认为应根据公正、受规制管理的外部评估,来确定人工智能、机器人及相关技术在遵守伦理原则方面是否属于高风险。


(三)安全特性、透明度和问责制


      3.坚持对于人工智能、机器人技术和相关技术,包括这些技术使用或产生的软件、算法和数据,应以安全、技术严谨之方式及善意地进行开发。


      4.强调可解释性对于确保公民信任这些技术而言至关重要,即使可解释性的程度与技术的复杂性有关,并且应辅之以可审计性和可追溯性。


(四)非偏见和非歧视


      5.谨记人工智能、机器人和相关技术的开发、部署和使用,包括这些技术使用或产生的软件、算法和数据,应尊重人的尊严,并确保人人享有平等待遇;


      6.申明应通过为设计及使用软件、算法和数据的过程制定规则来解决软件、算法和数据中可能存在的偏见和歧视问题,因为这种方法有可能将对软件、算法和数据转化为对其偏见和歧视的巨大制衡,并成为社会变革的积极力量。


(五)社会责任和性别平衡


      7.强调对社会负责的人工智能、机器人和相关技术应保障和促进我们社会的基本价值观,如民主、多样化和独立的媒体以及客观和自由获得的信息、健康和经济繁荣、机会平等、工人和社会权利、优质教育、文化和语言多样性、性别平衡、数字素养、创新和创造力。


      8.建议通过负责任的研究和创新,最大限度地发挥人工智能、机器人和相关技术在这方面的潜力,这需要欧盟及其成员国充分调动资源。


      9.坚持认为这些技术的开发、部署和使用不应对个人或社会造成任何形式的伤害或损害。


(六)环境与可持续发展


      10.指出人工智能、机器人和相关技术必须支持实现可持续发展、气候中和与循环经济目标;这些技术的开发、部署和使用应是对环境友好的,并有助于在其生命周期和整个供应链中尽量减少对环境造成任何损害。


      11.建议通过负责任的研究和创新,最大限度地发挥人工智能、机器人和相关技术在这方面的潜力,这需要欧盟及其成员国调动资源。


      12.强调这些技术的开发、部署和使用为实现联合国概述的可持续发展目标提供了众多机会。


(七)隐私和生物识别


      13.注意到因对人工智能、机器人和相关技术的开发、部署和使用而产生的数据生产和使用,包括生物识别数据等个人数据,正在迅速增加,从而强调依据欧盟法律尊重公民的隐私权及个人数据保护的需要。


      14.指出这些技术所提供的使用个人数据和非个人数据对人进行分类和微观目标定位、识别个人弱点或利用准确预测知识的可能性,必须根据数据最小化原则、根据自动处理和设计隐私获得决策解释的权利以及基于目的的相称性、必要性和限制原则进行权衡。


      15.强调各国政府当局在国家紧急状态期间,如在国家健康危机期间使用远程识别技术时,其使用应始终相称、有时间限制并尊重人的尊严和基本权利。


(八)治理


      16.指出对人工智能、机器人和相关技术的开发、部署和使用进行适当治理,包括制定注重问责制和应对偏见和歧视的潜在风险的措施,如此方可提高公民对这些技术的安全感和信任度。


      17.注意到数据在人工智能、机器人和相关技术的发展中被大量使用,对这些数据的处理、共享和访问必须按照数据质量、完整性、安全性、隐私和控制的要求进行管理。


      18.强调需要确保属于弱势群体,如残疾人、病人、儿童、少数群体和移民,的数据得到充分保护。


(九)国家监管机构


      19.注意到由每个会员国的国家监督机关负责确保、评估和监测在开发、部署和使用人工智能、机器人和相关技术方面遵守伦理原则所带来的附加价值。


      20.表示此类机关不仅应相互联络,还应与欧盟委员会和欧盟其他相关机构、实体、办事处和机关联络,以保证协调一致的跨境行动。


      21.吁请这些机构通过向相关利益攸关方,特别是中小企业或初创企业提供援助,以促进与民间团体的定期交流和欧盟内部的创新。


(十)欧洲人工智能机构


      22.谨记欧洲议会于2017年2月16日就机器人技术民事法律规则向欧盟委员会提出立法建议的决议,该决议要求委员会考虑指定一个欧洲人工智能机构。


      23.吁请委员会对这一要求采取后续行动,特别是考虑到前一段所述的内容,在联盟层级设立一个机构来协调由每个国家监管机构的任务和行动所带来的附加价值。


      24.相信这样一个机构,以及下一段中提到的认证,不仅将有利于联盟产业的发展和在这方面的创新,还将提高联盟公民对这些技术固有的机遇和风险的认识。


(十一)欧洲伦理合规认证


      25.建议欧洲人工智能机构在任何开发商、部署者或用户提出请求,要求其证明各自国家监管机构对合规性的积极评估后,制定与授予欧洲道德合规证书相关的共同标准和申请流程。


(十二)国际合作


      26.强调欧盟关于开发、部署和使用这些技术的道德原则应通过与国际伙伴合作并与具有不同开发和部署模式的第三国联络的方式在全世界推广。


      27.回顾这些技术固有的机遇和风险具有全球性,需要在国际一级采取一致的办法,因此呼吁委员会在双边和多边环境下开展工作,倡导和确保道德合规。


      28.指出了上述欧洲机构在这方面可以带来附加价值。


(十三)最后方面


      29.在对与人工智能、机器人和相关技术的伦理层面有关的方面进行上述思考后,得出的结论是,人工智能伦理应由一系列原则构成,从而在欧盟一级形成一个由国家主管当局监督、经欧洲人工智能机构协调和加强并在内部市场得到适当尊重和认证的法律框架。


      30.按照《欧洲联盟运作条约》第225条规定的程序,请委员会根据《欧洲联盟运作条约》第114条并遵循本文件附件所载的详细建议,提交一份关于开发、部署和使用人工智能、机器人和相关技术的道德原则条例的立法提案。


      31.建议欧盟委员会审查适用于人工智能、机器人和相关技术的现行欧盟法律,以便根据本报告附件所载建议,解决因这些技术快速发展带来的问题。


      32.认为如果设立一个新的欧洲人工智能机构,其所要求的提案将产生经费问题。


      33.指示其主席将本决议及所附详细建议转交委员会和理事会。


二、《关于开发、部署和使用人工智能、机器人和相关技术伦理原则的条例》之立法提案

 

(一)提案的主要原则和目标


      1.该提案的主要原则和目标是

      (1)通过确保以遵循伦理的方式开发、部署和使用人工智能、机器人和相关技术,以建立对这些技术的信任。

      (2)支持欧盟人工智能、机器人和相关技术的发展,包括通过帮助企业和初创企业评估和解决发展过程中的监管要求和风险。

      (3)通过提供适当的监管框架,支持在欧盟部署人工智能、机器人和相关技术。

      (4)通过确保以遵循伦理的方式开发、部署和使用人工智能、机器人和相关技术,支持在联盟中使用这些技术。

      (5)要求在公民之间以及开发、部署或使用人工智能、机器人和相关技术的组织内部有更好的信息流动,以确保这些技术符合拟议条例的伦理原则。


      2.提案的组成部分

      该提案由以下部分组成:

      (1)《关于开发、部署和使用人工智能、机器人和相关技术的伦理原则的条例》。

      (2)欧洲人工智能机构和欧洲伦理合规认证。

      (3)欧盟委员会的支持作用。

     (4)每个成员国的“监管机构”为确保人工智能、机器人和相关技术适用伦理原则而开展的工作。

      (5)利益攸关方的参与、协商和支持,包括初创企业、企业、社会伙伴和其他民间团体的代表。


      3.《关于开发、部署和使用人工智能、机器人和相关技术的伦理原则的条例》以下述原则为基础:

      (1)以人为中心及人造的人工智能、机器人和相关技术。

      (2)人工智能、机器人和相关技术的风险评估。

      (3)安全特性、透明度和问责制。

      (4)防止偏见和歧视的保障措施。

      (5)人工智能、机器人和相关技术中的社会责任和性别平衡。

      (6)环境友好和可持续的人工智能、机器人和相关技术。

      (7)尊重隐私和使用生物识别的限制。

      (8)与人工智能、机器人和相关技术有关的治理,包括因这些技术使用或产生的数据。


      4.委员会在遵守开发、部署和使用人工智能、机器人和相关技术的伦理原则方面的主要任务是:

      (1)监测拟议条例的执行情况。

      (2)提高认识,提供信息,并与整个联盟的开发者、部署者和用户进行交流。


      5.欧洲人工智能机构应根据委员会的详细建议成立,该建议应包括以下主要任务:

      (1)监督拟议条例的实施。

      (2)发布有关拟议条例应用的指南。

      (3)与每个成员国的“监管机构”进行联络,协调它们的命令和任务。

     (4)制定符合道德原则的欧洲证书。

      (5)支持与相关利益攸关方和民间团体的定期交流。


      6.各成员国“监管机构”的主要任务

      (1)评估在欧盟开发、部署和使用的人工智能、机器人和相关技术,包括因这些技术而使用或产生的软件、算法和数据,是否属于高风险技术。

      (2)监控其是否符合拟议条例中规定的道德原则。

      (3)与其他监管机构、欧盟委员会和欧盟其他相关机构、实体、办事处和机关的合作。

      (4)负责制定人工智能、机器人和相关技术的治理标准,包括与尽可能多的利益攸关方和民间团体代表进行联络。


      7.利益攸关方的关键作用应是与欧盟委员会、欧洲人工智能机构和每个成员国的“监管机构”进行接触。


(二)立法提案案文

 

《欧洲议会和欧盟理事会关于开发、部署和使用人工智能、机器人和相关技术伦理原则的条例》(提案文本)

 

      ——考虑到《欧洲联盟运作条约》,特别是其中第114条。

      ——考虑到欧洲联盟委员会的提议。

      ——立法草案转交各国议会后。

      ——考虑到欧洲经济和社会委员会的意见。

      ——按照普通立法程序行事。


      鉴于条款:


      (1)人工智能、机器人和相关技术的开发、部署和使用,包括因这些技术而使用或产生的软件、算法和数据,都是基于为社会服务的愿望。但它们可能在带来机遇的同时带来风险。因此,从开发、部署这种技术到使用这种技术,都应该通过一个全面的伦理原则法律框架来处理和管控这些机遇和风险。


      (2)在开发、部署和使用人工智能、机器人和相关技术方面,包括在联盟中使用或由这些技术产生的软件、算法和数据方面,所有成员国所遵守伦理原则的程度在应该是同等的,以便其有效地抓住机遇,并始终如一地应对这些技术所产生的风险。应确保本条例中规定的规则在整个联盟中的适用是同质的。


      (3)在这种情况下,目前全联盟遵循的规则和做法的多样性对保护个人和社会的福祉和繁荣构成了重大风险,也对协调一致地探索人工智能、机器人和相关技术在促进和维护福祉和繁荣方面的全部潜力构成了重大风险。对这些技术所固有的伦理层面的考虑程度各异,会妨碍它们在联盟内部的自由开发、部署或使用,这种差异会对在欧盟一级开展经济活动构成障碍,扭曲竞争,妨碍联盟机构履行其根据欧盟法律承担的义务。此外,在人工智能、机器人和相关技术的开发、部署和使用方面缺乏一个共同的伦理原则框架,这将给所有参与者,即开发者、部署者和用户带来法律上的不确定;


      (4)然而,本条例应为成员国提供回旋余地,包括考虑到本条例规定的目标,以及如何执行各自国家监管机构的任务。


      (5)这种框架的地理应用范围应涵盖在欧盟开发、部署或使用的人工智能、机器人和相关技术的所有组成部分,包括部分技术可能位于欧盟之外或不存在具体位置的情况,例如云计算服务。


      (6)欧盟需要对人工智能、机器人、相关技术、算法和生物识别等概念达成共识,以便采取统一的监管办法。但是,具体的法律定义需要在本条例的背景下制定,且不对其他法案和国际司法管辖区中使用的其他定义产生影响。


      (7)人工智能、机器人和相关技术的开发、部署和使用,包括这些技术使用或产生的软件、算法和数据,应确保考虑到公民的最佳利益,并应尊重《欧洲联盟基本权利宪章》(下称《宪章》)、欧洲联盟法院的既定判例法以及适用于欧盟的其他欧洲和国际文书中规定的基本权利。


      (8)人工智能、机器人和相关技术被赋予了从数据和经验中学习的能力,以及做出有根据的决策的能力。这种能力需要继续受到有意义的人类审查、判断、干预和控制。技术和操作复杂性绝不应成为这种情况的阻碍,即此类技术的部署者或用户在遵守本条例规定的原则存在风险的情况下,至少能够更改或停止其运行。


      (9)任何人工智能、机器人和相关技术,包括这些技术使用或产生的软件、算法和数据,如果存在违反安全、透明、问责、无偏见或非歧视、社会责任和性别平衡、环境友好性和可持续性、隐私和治理等原则的高风险,从伦理原则遵守的视角,应按照国家监管机构公正、规范的外部风险评估结论,将其认定为高风险。


      (10)尽管风险评估是在遵守伦理原则的情况下进行的,但人工智能、机器人和相关技术,包括这些技术使用或产生的软件、算法和数据,应始终按照客观标准并根据适用于不同领域(如卫生、交通、就业、司法和内政、媒体、教育和文化领域)的相关具体领域立法来评估其风险。


      (11)可信赖的人工智能、机器人技术和相关技术,包括这些技术使用或产生的软件、算法和数据,应以安全、透明和负责任的方式进行开发、部署和使用,以鲁棒性、弹性、安全性、准确性和错误识别、可解释性和可识别性为基础,并且在不符合这些安全特征的情况下,可以暂时禁用和恢复其原有功能。


      (12)开发者、部署者和用户有责任在他们参与人工智能、机器人和相关技术的范围内遵守安全、透明和问责原则,包括这些技术使用或产生的软件、算法和数据。开发者应确保相关技术的设计和构建符合安全特性,而部署者和用户应在完全遵守这些特性的情况下部署和使用相关技术。


      (13)开发者和部署者应向用户提供相关技术的任何后续更新,即软件方面的更新。

      (14)如果用户对这些技术的参与影响了对本条例中所规定的安全性、透明度和问责制要求的遵守,则用户应善意地使用人工智能、机器人和相关技术。这尤其意味着,他们不得以违反本法律框架中所规定的伦理原则及其所列要求的方式使用这些技术。除了这种善意的使用之外,用户还应免除本条例中所规定的开发者和部署者的任何责任。

      (15)公民对人工智能、机器人和相关技术的信任,包括这些技术使用或产生的软件、算法和数据,取决于对技术流程的理解和领悟。这类流程的可解释性程度应取决于这些技术所产生之错误或不准确输出的语境和后果的严重程度,并需要足以对其提出质疑和寻求补救。可审计性和可追溯性应有助于弥补这类技术难以理解的情况。


      (16)社会对人工智能、机器人和相关技术的信任,包括这些技术使用或产生的软件、算法和数据,取决于相关技术对其评估、可审计性和可追溯性的支持程度。如果他们的参与程度需要,开发者应该确保这些技术的设计和构建能够实现这样的评估、审计和可追溯性。部署者和用户应确保人工智能、机器人和相关技术的部署和使用完全符合透明度要求,并允许审计和可追溯。


      (17)软件、算法和数据中的偏见和歧视是非法的,应该通过规范设计和使用它们的程序来加以解决。


      (18)人工智能、机器人和相关技术使用或产生的软件、算法和数据在下述情况下应被视为有偏见,例如,基于个人、社会或部分偏见以及随后对与其特征相关的数据的处理,它们显示出与任何个人或群体相关的次优结果。


      (19)根据欧盟法律,人工智能、机器人和相关技术使用或产生的软件、算法和数据在下述情况下应被视为歧视性的,因为它们基于个人特征等理由,在没有客观或合理理由的情况下,以不同方式对待一个人或一群人,包括将他们置于与他人相比而言的不利地位。


     (20)根据联盟法律,可能客观证明个人或群体之间的任何差别待遇的合理合法目标是保护公共安全、安保和健康,预防刑事犯罪,保护个人权利和自由、公平代表性和客观职业要求。


      (21)人工智能、机器人和相关技术,包括这些技术使用或产生的软件、算法和数据,应在可持续发展的基础上发挥作用。这些技术应全面促进实现联合国概述的可持续发展目标,以使子孙后代能够繁荣昌盛。此类技术可以支持在可持续性和社会凝聚力指标的基础上监测适当的进展,并通过使用负责任的研究和创新工具,要求欧盟及其成员国调动资源,支持和投资于实现这些目标的项目。


      (22)人工智能、机器人和相关技术的开发、部署和使用,包括这些技术使用或产生的软件、算法和数据,绝不应对个人或社会造成任何形式的伤害或损害。因此,应以对社会负责的方式开发、部署和使用这些技术。


      (23)就本条例而言,开发者、部署者和用户在介入相关人工智能、机器人和相关技术的范围内,应对个人和社会造成的任何伤害或损害负责。


      (24)特别地,决定和控制人工智能、机器人和相关技术的开发过程或方式的开发者,以及参与具有操作或管理功能部署的部署者,通常应被认为有责任通过在开发过程中采取适当的措施和在部署阶段完全遵守这些措施来避免任何此类伤害或损害的发生。


      (25)对社会负责的人工智能、机器人和相关技术,包括这些技术使用或产生的软件、算法和数据,可以被定义为既保护又促进社会若干不同方面的技术,这些方面最显著的是民主、健康和经济繁荣、机会平等、工人权利和社会权利、多样化和独立的媒体以及客观和自由获得的信息、公众辩论之允许、优质教育、文化和语言多样性、性别平衡、数字素养、创新和创造力。上述技术也是在适当考虑到其对公民身心健康的最终影响的情况下予以开发、部署和使用的。


      (26)还应开发、部署和使用这些技术,以支持社会包容、多元化、团结、公平、平等和合作,并应通过研究和创新项目最大限度地发挥和发掘这些技术在这方面的潜力。因此,欧盟及其成员国应调动资源支持和投资于此类项目。


      (27)应在负责任的研究和创新工具的基础上开展与人工智能、机器人和相关技术处理社会福祉问题的潜力有关的项目,以保证从一开始就遵守这些项目的伦理原则。


      (28)人工智能、机器人和相关技术的开发、部署和使用,包括此类技术使用或产生的软件、算法和数据,应考虑到它们所产生的环境影响,不应在其生命周期和整个供应链中对环境造成损害。因此,应以有助于实现气候中和与循环经济目标的环保方式来开发、部署和使用此类技术。


      (29)就本条例而言,开发者、部署者和用户应在介入开发、部署或使用人工智能、机器人和相关技术的范围内,对给环境造成的任何损害负责。


      (30)特别地,决定和控制人工智能、机器人和相关技术的开发过程或方式的开发者,以及参与具有操作或管理功能部署的部署者,通常应被认为有责任通过在开发过程中采取适当的措施和在部署阶段完全遵守这些措施来避免这种(对环境造成之)损害的发生。


      (31)还应开发、部署和使用这些技术,以支持实现减少废物产生、减少碳足迹、防止气候变化和避免环境退化等环境目标,并应通过研究和创新项目以最大限度地发挥和发掘这些技术在这方面的潜力。因此,欧盟及其成员国应调动资源支持和投资于此类项目。

      (32)应在负责任的研究和创新工具的基础上开展与人工智能、机器人和相关技术在解决环境问题方面的潜力有关的项目,以保证从一开始就遵守这些项目的伦理原则。


      (33)欧盟在开发、部署和使用的任何人工智能、机器人和相关技术的过程中,包括这些技术使用或产生的软件、算法和数据,都应充分尊重欧盟公民的隐私权和个人数据保护权。特别是,它们的开发、部署和使用应符合欧洲议会和理事会的(欧盟)第2016/679号条例[7]以及欧洲议会和理事会的第2002/58/EC号指令。[8]


      (34)在使用生物识别等远程识别技术自动识别个人身份时,应适当考虑使用人工智能、机器人和相关技术的伦理界限,包括这些技术使用或产生的软件、算法和数据。当各政府当局在国家紧急状态期间,例如在国家健康危机期间使用这些技术时,使用应当相称,并确定其使用标准,以便能够确定是否、何时以及如何使用,并且这种使用应当注意其心理和社会文化影响,同时适当考虑到《宪章》规定的人性尊严和基本权利。

      (35)提高公民对人工智能、机器人和相关技术的开发、部署和使用的信任度,包括这些技术使用或产生的软件、算法和数据。


      (36)现有的相关治理标准包括,例如,由欧盟委员会设立的人工智能高级别专家组起草的《值得信赖的人工智能道德准则》,以及由欧洲标准化委员会(CEN)、欧洲电工标准化委员会(CENELEC)和欧洲电信标准协会(ETSI)在欧洲一级、国际标准化组织(ISO)和电气和电子工程师协会(IEEE)在国际一级采用的其他技术标准。


      (37)多个参与者共享和使用的数据是敏感的,因此,人工智能、机器人和相关技术的开发、部署和使用应受反映质量、完整性、安全性、隐私和控制要求的相关标准和协议的管辖。数据治理战略应侧重于对此类数据的处理、共享和获取,包括其适当管理性和可追溯性,并保证充分保护属于弱势群体的数据,包括残疾人、患者、儿童、少数群体和移民。

      (38)本条例中所规定的伦理原则有效适用将在很大程度上取决于成员国任命一个独立的公共机构作为监督机构。具体而言,每个国家监管机构应负责评估和监测由本条例所规定的被视为高风险的人工智能、机器人和相关技术的合义务性。


      (39)各国监管机构还应承担监管这些技术治理的责任。因此,他们在加强联盟公民的信任度和安全感以及促成一个民主、多元和公平的社会方面可以发挥重要作用。


      (40)各国监管机构应在相互之间以及与欧盟委员会和欧盟其他相关机构、实体、办事处和机关间开展定期的实质性合作,以保证协调一致的跨境行动,并根据本条例规定的道德原则,在欧盟内部一致开发、部署和使用这些技术。

      (41)各国监管当局应确保聚集最多数量的利益攸关方,如行业、企业、社会伙伴、研究人员、消费者和民间团体组织,并提供一个多元化的论坛,以供反思和交流意见,以得出可理解和准确的结论并指导如何监管治理。


      (42)此外,各国家监管机构应向开发者、部署者和用户提供专业的行政指导和支持,特别是在遵守本条例规定的原则方面遇到挑战的中小型企业或初创企业。


      (43)举报使联盟机构注意到潜在的和实际违反联盟法律的行为,以防止会发生的伤害、损失或损害。此外,报告程序改善了公司和组织内部的信息流,从而降低了开发有缺陷或错误的产品或服务的风险。开发、部署或使用人工智能、机器人和相关技术(包括这些技术使用或产生的数据)的公司和组织应建立举报渠道,举报违规行为的人员应受到保护,防止遭到报复。


      (44)人工智能、机器人和相关技术的快速发展,包括这些技术使用或产生的软件、算法和数据,以及机器学习、推理过程和其他技术的发展是不可预测的。因此,建立一个审查机制是适当的和必要的,根据该机制,除了报告本条例的适用情况之外,委员会还应定期提交一份关于可能修改本条例适用范围的报告。


      (45)由于本条例的目标,即建立一个在欧盟开发、部署和使用人工智能、机器人和相关技术之伦理原则的法律框架,无法单由各成员国予以充分实现,而因其规模和效果,可以在联盟层级更好地实现,欧盟可以根据《欧洲联盟条约》第5条规定的辅助原则采取措施。根据该条规定的相称性原则,本条例不超出实现该目标所必需的范围。


     (46)本条例中所规定的联盟层面的行动宜经由建立欧洲人工智能机构来实现。此机构对于协调各成员国国家监管机构的任务和行动,释明人工智能、机器人和相关技术风险评估的客观标准,制定和发布符合本条例规定的伦理原则的认证,支持与相关利益攸关方和民间团体的定期交流,通过国际合作促进欧盟的做法以及确保在全球范围内一致应对这些技术固有的机遇和风险等方面而言至关重要。

 

第1条 立法目的

 

      本条例的目的旨在为欧盟人工智能、机器人和相关技术的开发、部署和使用建立一个伦理原则的监管框架。


第2条 适用范围

 

      本条例适用于人工智能、机器人和相关技术,包括在欧盟开发、部署或使用的此类技术使用或产生的软件、算法和数据。

 

第3条 地理范围

 

      本条例适用于在欧盟开发、部署或使用的人工智能、机器人和相关技术,不论这些技术使用或产生的软件、算法或数据是否位于欧盟之外或其有无特定的地理位置。

 

第4条 定 义

 

      就本条例而言,适用下列定义:

      (a)“人工智能”是指出其他之外,收集、处理和解释结构化或非结构化数据、识别模式和建立模型的软件系统,以便得出结论或根据这些结论在物理或虚拟维度上采取行动。

      (b)“机器人技术”是指使机器能够执行传统上由人类执行任务的技术,包括人工智能或相关技术。

      (c)“相关技术”是指使软件能够部分或完全自治地控制物理或虚拟过程的技术,能够通过生物特征数据来检测人员身份或人员特定特征的技术以及复制或以其他方式利用人类特征的技术。

      (d)“软件”是指用代码表示的一组指令,是计算机运行和执行任务所必需的。

      (e)“算法”指软件在执行任务时执行的计算或其他问题解决操作的模型。

      (f)“数据”是指定义为并存储在代码中的信息。

      (g)“开发”是指为了创造或培训人工智能、机器人和相关技术,或为了创造现有人工智能、机器人和相关技术的新应用而进行的算法构建和设计、软件编写与设计或数据的收集、存储和管理。

      (h)“开发者”是指做出决定并控制人工智能、机器人和相关技术的发展过程或方式的任何自然人或法人。

      (i)“部署”是指人工智能、机器人和相关技术的操作和管理,以及将它们投放市场或以其他方式提供给用户。

      (j)“部署者”是指参与人工智能、机器人和相关技术的部署并具有操作或管理功能的任何自然人或法人。

     (k)“使用”是指除开发或部署以外与人工智能、机器人和相关技术有关的任何动作。

      (l)“用户”是指出于开发或部署目的而使用人工智能、机器人和相关技术的任何自然人或法人。

      (m)“偏见”是指基于个人特征对一个人或一群人形成的任何成见或部分个人或社会看法。

      (n)“歧视”是指没有客观或合理理由,对一个人或一群人形成的任何差别待遇,因此被联盟法律所禁止。

      (o)“伤害或损害”是指身体、情感或精神伤害,偏见、歧视或污名化,因缺乏包容性和多样性而造成的痛苦,财务或经济损失,就业或教育机会丧失,对选择自由的不当限制,错误定罪,环境损害,以及任何对个人有害的违反联盟法律的行为。

      (p)“治理”是指确保开发者、部署者和用户在一套正式的规则、程序和价值观的基础上采用并遵守最高标准和适当的行为规范,并允许他们在伦理问题出现时或出现之前适当处理这些问题。

 

第5条  人工智能、机器人及相关技术的伦理原则

 

      1.  任何人工智能、机器人和相关技术,包括这些技术使用或产生的软件、算法和数据,应根据本条例中规定的伦理原则在联盟中开发、部署和使用。


      2.人工智能、机器人和相关技术的开发、部署和使用,包括这些技术使用或产生的软件、算法和数据,应以确保充分尊重人的尊严和《宪章》规定的基本权利的方式进行。


      3.对人工智能、机器人和相关技术的开发、部署和使用,包括对这些技术使用或产生的软件、算法和数据的开发、部署和使用,应符合公民的最佳利益。特别地,鉴于这些技术的潜力及其提供的机会,在任何时候都应考虑到保护和促进社会、环境和经济福祉的需要。

 

第6条  以人为本与人类制造的人工智能

 

      1.应以以人为本的方式开发、部署和使用任何人工智能、机器人和相关技术,包括因这些技术而使用或产生的软件、算法和数据,目的是通过保障人的自主权和决策权及确保人的能动性,为民主、多元和公平社会的存在做出贡献。


      2.对第1款所列技术的开发、部署和使用应保证在任何时候都有充分的人为监控,特别是在开发、部署或使用的过程中有违反本条例中规定的伦理原则的风险之时。


      3.对第1款所列技术的开发、部署和使用方式应允许随时恢复人类控制,包括在开发、部署或使用的过程中可能违反本条例中规定的伦理原则时,以改变或停止这些技术方式为之。

 

第7条 风险评估

 

      1.就本条例而言,人工智能、机器人和相关技术,包括此类技术使用或产生的软件、算法和数据,如有违反本条例中所规定伦理原则的重大风险,应被视为高风险技术。


      2.如果人工智能、机器人和相关技术被视为高风险技术,则应由第14条提及的国家监管机构对这些技术是否符合本条例规定的义务进行评估和监测。


      3.在不影响第1款的情况下,对人工智能、机器人和相关技术(包括此类技术使用或产生的软件、算法和数据)的风险评估,应根据在联盟层级所协调的客观标准并按照可适用的部门立法进行。

 

第8条 安全特性、透明度和问责制

 

      1.联盟开发、部署或使用的任何人工智能、机器人和相关技术,包括此类技术使用或产生的软件、算法和数据,应以确保其不违反本条例中规定的伦理原则的方式进行。特别地,它们应:

      (a)以一致的方式予以开发、部署和使用,使其不追求或不开展设定之外的目标或活动。

      (b)以灵活的方式予以开发、部署和使用,以确保足够的安全水平,并防止任何技术漏洞被用于不公平或非法目的。

      (c)以安全的方式予以开发、部署和使用,以确保有安全措施,包括在违反本条例所规定的伦理原则之风险情况下有后备计划和行动。

      (d)开发、部署和使用的方式确保人们能够给予信任,在实现目标和开展设想的活动方面,业绩是可靠的,包括确保所有业务都是可重复的。

      (e)开发、部署和使用的方式确保特定技术的目标和活动的实现是准确的;如果无法避免偶尔的不准确,系统应通过适当的免责声明向部署者和用户指出错误和不准确的可能性。

      (f)以易于解释的方式予以开发、部署和使用,以确保能够对技术的技术流程进行审查。

      (g)开发、部署和使用的方式应能够警告用户他们正在与人工智能系统进行交互,并及时向人工智能开发者、部署者和用户披露他们的能力、准确性和局限性。

      (h)根据第6(3)条,以在不符合(a)至(g)项规定的安全特性的情况下,有可能暂时禁用相关技术并恢复对其历史功能的方式开发、部署和使用。


      2.根据第6(2)条,应以透明和可追溯的方式来开发、部署和使用第1款中提及的技术,以使其要素、流程和阶段符合最高标准,并使第14条中提及的国家监管机构能够评估此类技术是否符合本条例中规定的义务。特别地,这些技术的开发者、部署者或用户应负责并能够证明符合第1款中规定的安全特性。


      3.第1款所述技术的开发者、部署者或用户应确保为确保符合第1款所述安全特性而采取的措施能够由第14条所述的国家监督机构进行审计。


      4.如果用户使用人工、机器人和相关技术,包括这些技术使用或产生的软件、算法和数据,是出于善意,并且绝不违反本条例中规定的伦理原则,则应推定用户遵守了本条例中规定的义务。

 

第9条 非偏见和非歧视

 

      1.联盟开发、部署或使用的人工智能、机器人和相关技术所使用或产生的任何软件、算法或数据应确保尊重人的尊严和所有人的平等待遇。


      2.对联盟开发、部署或使用的人工智能、机器人和相关技术使用或产生的任何软件、算法或数据应不带偏见,并且在不影响第3款的情况下,不得基于种族、性别、性取向、怀孕、残疾、身体或遗传特征、年龄、少数民族、族裔或社会出身、语言、宗教或信仰、政治观点或公民参与、公民身份、公民或经济地位、教育或犯罪记录等理由进行歧视。

      3.作为对第1款和第2款的减损,并且在不损害关于治理非法歧视联盟法律的情况下,只有在存在相称及必要的、客观的且合理和合法目标的情况下,才能证明个人或群体之间的任何差别待遇是合理的,只要不存在对平等待遇原则造成较少干扰的替代办法。

 

第10条 社会责任和性别平衡

 

      1.  任何人工智能、机器人和相关技术,包括这些技术使用或产生的软件、算法和数据,应在联盟内按照相关联盟法律、原则和价值观进行开发、部署和使用,以确保最佳的社会、环境和经济结果,并且不会对个人或社会造成任何伤害或损害。


      2.  本联盟开发、部署或使用的任何人工智能、机器人和相关技术,包括这些技术使用或产生的软件、算法和数据,应以对社会负责的方式开发、部署和使用。特别地,这种方式意味着这些技术是:

      (a)以有助于改善个人发展、集体福祉和民主健康运行的方式进行发展、部署和使用,同时不干涉政治进程、决策和选举,也不助长虚假信息的传播。

      (b)以有助于实现公平社会的方式进行发展、部署和使用,帮助增强公民的健康和福祉,促进平等创造和提供经济、社会和政治机会,并尊重工人的权利。

      (c)以有助于公共辩论、补充和增强人类认知技能、鼓励优质教育和促进使用多种语文的方式进行开发、部署和使用,同时反映联盟的文化多样性。

      (d)以性别平衡的方式进行开发、部署和使用,通过为所有人提供平等机会缩小性别差距。

      (e)开发、部署和使用的方式有助于缩小各区域、各年龄组和各社会阶层之间的数字鸿沟,促进数字素养和技能发展、增强创新意识和创造力,同时尊重知识产权。


      3.联盟及其成员国应鼓励旨在提供基于人工智能、机器人和相关技术的解决方案的研究项目,这些项目旨在寻求促进社会包容、多元化、团结、公平、平等和合作。


      4.第14条提及的国家监管机构应监测联盟内普遍存在的人工智能、机器人和相关技术(包括这些技术使用或产生的软件、算法和数据)的社会影响,以避免对社会机构和社会关系的破坏性影响以及社会技能的退化。

 

第11条 环境友好和可持续性

 

      1.  任何人工智能、机器人和相关技术,包括这些技术使用或产生的软件、算法和数据,应按照欧盟法律、原则和价值观在欧盟开发、部署或使用,以确保实现最佳的环境友好型结果,并在其生命周期和整个供应链中最大限度地减少其环境足迹,以支持实现气候中和与循环经济目标。


      2.  欧盟及其成员国应鼓励和促进旨在提供基于人工智能、机器人和相关技术的解决方案的研究项目,寻求解决废物产生、碳足迹、气候变化和环境退化等环境问题。


      3.  任何人工智能、机器人和相关技术,包括这些技术使用或产生的软件、算法和数据,应由第14条所明确的国家监管机构来进行环境友好型和可持续性评估,并确保采取措施减轻其对自然资源、能源消耗、废物产生、碳足迹、气候变化和环境退化的总体影响。

 

第12条 隐私和生物识别

 

      1.在本条例范围内进行的任何个人数据处理,包括从非个人数据和生物特征数据中获得的个人数据,应根据欧盟(EU)2016/679号条例和2002/58/EC号指令进行。


      2.根据第5条第(2)款,如果各成员国政府当局为应对国家紧急情况而部署或使用生物识别等远程识别技术,这些政府当局应确保这种部署或使用仅限于特定目标,并在时间上受到限制,同时应在适当考虑到人性尊严和《宪章》规定的基本权利的前提下进行。

 

第13条 治 理

 

      1.联盟所开发、部署或使用的人工智能、机器人和相关技术应符合第14条所述的国家监管机构根据联盟法律、原则和价值观制定的相关治理标准。


      2.联盟开发、部署或使用的人工智能、机器人和相关技术所使用或产生的数据,应由开发者、部署者和用户根据第1款中提及的相关标准以及相关行业和商业协议进行管理。特别地,开发者和部署者应在可行的情况下,对人工智能、机器人和相关技术所使用的外部数据源进行质量检查,并应建立关于其收集、存储、处理和使用的监管机制。


      3.在不损害其使用人工智能、机器人和相关技术产生数据的人员之可携权和个人权利的情况下,对本联盟开发、部署或使用的人工智能、机器人和相关技术所使用或产生的数据的收集、存储、处理、共享和访问应符合第1款中提及的相关标准以及相关行业和商业协议。特别地,开发者和部署者应确保在人工智能、机器人和相关技术的开发和部署过程中适用这些协议,明确规定处理和授权访问这些技术所使用或产生的数据的要求,以及处理和授权访问这些数据的目的、范围和对象,所有这些都应始终是可被审计和追踪的。

 

第14条 监管机构

 

      1.  各成员国应指定一个独立的公共机构负责监督本条例的实施(“监管机构”)。根据第7(1)和(2)条,各国监管机构应负责评估在欧盟开发、部署和使用的人工智能、机器人和相关技术(包括此类技术使用或产生的软件、算法和数据)是否属于高风险技术;若是,则负责评估和监控其是否符合本条例中规定的伦理原则。


      2.  各国家监管机构应促进本条例在全联盟中的一体适用。有鉴于此,特别是在建立第13(1)条所述的治理标准方面,各成员国的监管机构应相互合作,并与欧盟委员会及其他机构、实体、办事处和机关展开合作。


      3.  各国监管机构应负责监督治理标准在人工智能、机器人和相关技术方面的适用,包括与尽可能多的利益攸关方联络。为此,各成员国监管机构应提供一个与利益攸关方作定期交流的论坛。


      4.  各国监管机构应就本条例中规定的伦理原则之一般适用提供专业与行政的指导及支持,包括对中小型企业或初创企业的指导及支持。


      5.  各成员国应通过[请在生效后1年内输入日期]向欧盟委员会通知其根据本条通过的法律规定,并毫不延迟地通知影响这些条例的任何后续修正案。


      6.  各成员国应采取一切必要措施,确保实施本条例中规定的伦理原则。各成员国应支持相关利益攸关方及民间团体在联盟和国家层级致力于确保(人工智能产业)及时、合乎伦理和知情地应对新的机遇和挑战,特别是应对人工智能、机器人和相关技术相关的技术发展带来的跨境机遇和挑战。

 

第15条 举报违规行为和保护举报人

 

      欧洲议会和欧盟理事会第(EU)2019/1937号指令[9]应适用于举报违反本条例的行为,并保护此类违规行为的举报人。

 

第16条 欧盟第2019/1937号指令修正案

 

      欧盟第2019/1937号指令修改如下:

      (1)在第2(1)条中,增加以下内容:

      “(xi)开发、部署和使用人工智能、机器人和相关技术。”

      (2)在附件第一部分中,增加了以下内容:

      “第K.2(1)条第(a)(xi)点——人工智能、机器人和相关技术的开发、部署和使用。”

      “(xxi)欧洲议会和理事会关于开发、部署和使用人工智能、机器人和相关技术的伦理原则的第[XXX]号条例。”

 

第17条 审 查

 

      委员会应定期审查人工智能、机器人和相关技术的发展,包括这些技术使用或产生的软件、算法和数据,并应在[请在生效后3年内输入日期]后每3年向欧洲议会、理事会和欧洲经济和社会委员会提交一份关于本条例适用的报告,包括对本条例适用范围的可能修改的评估。

 

第18条 生 效

 

      1.  本条例应自其在联盟官方公报上发布后的第20日起生效。自XX起开始适用。


      2.根据建立欧洲联盟的条约,本条例应完全具有约束力,并直接适用于各成员国。

 

三、立法动议及提案之解释性陈述

 

      在1982年的电影《银翼杀手》中,瑞秋(Rachael)——一个为一家制造其他“复制人”的公司工作的“复制人”,即有感知能力的人形机器人,对以消灭流氓复制人为生的赏金猎人德卡德(Deckard)说:“看来你觉得我们的工作对公众没有好处。”


      德卡德(Deckard)回答道:“复制人就像任何其他机器一样——他们要么是一种利益,要么是一种危险。如果他们是一种好处,那不是我的问题。”


(一)益处与危害

     

       人工智能在我们在公共场所、工作场所和社会中互动的所有机器上的大规模安装,将意味着或已经意味着一场只能与过去工业革命所预示的变革相媲美的技术变革。生活将不再一样,劳动力市场、人们与政府机构的关系、个人关系甚至我们的家庭环境都将发生深刻的变化——想想我们家中所有设备中的“物联网”实际上意味着什么。如此巨大的技术巨变让我们陷入了《银翼杀手》所引发的两难境地:任何技术都有益处和危险。当我们谈及人工智能的问题时,我们谈论的是前所未有的益处和/或风险,因为它具有内在的力量。


(二)欧盟在建立法律框架中的作用


      然而,当公共行政部门处理这一现象时,我们不能接受德卡德(Deckard)的职业犬儒主义。对于欧洲议会而言,利用这些技术对欧洲福祉和竞争力的潜在好处,就像是与监控它们的内在风险,或者预先防范由这些风险实际表现出来的后果同等重要。因此,我们希望成为在法律上建立伦理门槛的先锋,这一门槛既能保护欧洲公民免受这一技术变革可能带来的不利影响,又能为全世界对欧洲人工智能的信任带来附加价值。该伦理门槛符合《欧洲联盟基本权利宪章》所载的欧洲原则和价值观,也完全符合我们项目的文明使命。我们的规章制度必须受到人文主义和以人为中心的技术发展方法的启发。一套规则不仅适用于欧洲开发的人工智能,而且对任何打算在欧盟运营这项技术的人来说,这也是一项严格的监管要求。


      至关重要的是,由此所确立的一系列权利和义务应在欧盟所有成员国之间共享和承担。一系列没有共同基准的国家法规可能意味着单一市场的崩溃,并破坏我们在世界上实现技术领先的集体努力。建立一个欧洲机构来负责监督该条例的制定,将助益于调和各成员国的法律和技术框架的制定。


(三)灵活且面向未来的监


      为了回应那些主张放弃行业自律的观点,最初的对话也有助于说明公众参与的必要性,以期实现超越单纯经济盈利的目标:欧盟机构必须努力避免决策过程中的歧视(无论其基础如何),并利用这些技术的变革潜力,以推进建设一个更加公平、环境更加可持续的社会——特别强调消除基于性别的歧视——以及其他目标。该文本为欧洲各政府当局提供了能够解决这些问题的明确授权。


      本条例还希望将一套雄心勃勃的要求与监管的便宜性相结合,避免向相关机构设置复杂的监管系统和/或强加沉重的官僚负担。条例还寻求建立一个足够灵活的框架,以适应不断变化的现实进展,同时允许该领域的发展规则去塑造更加具体的现实。


(四)一条综合的路径,包括建立国家监管机构


      该条例旨在将监管扩展到所有高度复杂的技术领域,其具体包括了关于通过机器学习或深度学习的技术的发展、实施和演变的规定。在处理被定义为“高风险”的技术时,特别强调预防,即那些极有可能造成负面外部影响的技术和/或那些需要使用敏感材料以获得特殊保护的技术(在《条例》中也有定义)。它还规定了个人权利和远程识别技术的高度敏感问题,为其使用建立了许多保障措施。还为特殊情况制定了非常严格的临时材料框架,供各政府当局在发生重大紧急情况时使用。


      该条例的另一个目标是鼓励所有公民,特别是受这些技术介入与/或影响的个人和群体,来参与这一监管框架的设计、开发、控制和监督。条例案文规定了各国监管机构的任务——它明确指出这是强制性的,以确保来自民间团体的必要和持续支持。同样地,它为人工智能的设计者、操作者和用户在透明度和问责制方面制定了雄心勃勃的要求。它还包括了用户以应有的礼貌行事之义务,以及确保他们善意使用技术的必要条件。


(五)可解释性、透明度、问责制、责任和治理


      我们距离开发一种能够产生“心理历史”的算法还有很长的路要走,这是艾萨克·阿西莫夫(Isaac Asimov)在《基础(Foundation)》系列中的虚构科学。自由意志的概念是人类不可分割的特征,目前似乎没有危险性。这种情况依然存在,尽管利害攸关的是从本质上预测历史大潮流的出现。我们民主的政府当局必须确保在人工智能技术的帮助下所做出的所有决定,无论大小,都不会是晦涩难懂的数学公式的结果。可解释性、透明度、问责制和责任将是在欧洲联盟开发和运行的人工智能不可或缺的特征。


      简而言之,欧洲联盟必须是一个在保障公民权利和促进技术发展之间保持必要平衡的区域。我们的条例和监管机构制定的监管形式必须为世界其他地区树立榜样,并且应成为确保在全球层面充分治理这一现象的第一步。

 

[1] 官方公报L类第252期,2018年10月8日,第1页。

[2] 官方公报C类第252期,2018年7月18日,第239页。

[3] 官方公报C类第307期,2018年8月30日,第163页。

[4] 官方公报C类第433期,2019年12月23日,第86页。

[5] 通过的文本,编号:P8_TA(2018)0032。

[6] 通过的文本,编号:P8_TA(2019)0081。

[7]《2016年4月27日欧洲议会及欧盟理事会为保护自然人之个人数据处理与自由流通制定第 2016/679 号欧盟条例(个人数据保护条例)取代第 95/46/EC号欧盟指令》 (官方公报L类第119期,2016年5月4日,第1页)。

[8]《欧洲议会和欧盟理事会于2002年7月12日关于电子通信行业中的个人数据处理和隐私保护的2002/58 / EC号指令(隐私和电子通信指令)》(官方公报L类第201期,2002年7月31日,第37页)。

[9]《欧洲议会和欧盟理事会2019年10月23日关于保护举报违反欧盟法律者的第2019/1937号指令》(官方公报L类第305期,2019年11月26日,第17页)。


+ + + + + + + + + + + 

稿约


      本号诚挚欢迎各类投稿,包括主题相关的书籍介绍、学位论文介绍、书评、时评、图片、音视频等。来稿请发送至邮箱dp123321@qq.com


+ + + + + 

+ + + + + + + + + + + 

往期回顾


迈克尔·博兰德著、安柯颖译:《“全球圆形监狱”:大规模监控与作为反人类罪的数据隐私侵犯?》

贾斯瑶、郭旨龙:《比较法视野下警用人脸识别技术与公民隐私保护之平衡》

陈强、尹强:《智慧法院时代庭审记录改革的探索与优化——来自一线法官的实践观察》

王平、徐永伟:《涉众型网络谣言刑事治理的规范逻辑与责任边界》

罗伟玲、梁灯:《试论政府数据共享的暗礁及清障路径 ——一个被遗忘权的例子》

谭子文:《个人信息处理主体何以分类》

姚万勤、陈道晨:《网络爬虫行为规制的刑民界限》

袁康、鄢浩宇:《数据要素市场化配置的法律保障》

胡凌:《数字身份的未来》

新书推荐|王立梅、郭旨龙主编:《网络法学研究》


+ + + + + 

+

+

法大网络与智能法研究会

欢迎关注!


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存