查看原文
其他

专访 | 沈逸:我们如何看待欧盟出台的人工智能监管草案?

FDDI 复旦发展研究院 2021-05-09

沈逸

复旦发展研究院 &

复旦大学国际关系与公共事务学院教授

复旦大学网络空间国际治理研究基地主任


2021年4月21日,欧盟委员会公布了名为“Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) And Amending Certain Union Legislative Acts”的草案,对人工智能技术应用进行了风险评定。根据这份草案,欧盟将全面禁止大规模监控和利用人工智能技术的社会信用体系,同时对特定领域的“高风险”应用进行严格限制。这一草案是迄今为止,尝试规制人工智能发展的最为系统的构想之一,人们可以从中发现,更加倾向于关注个体化权益,看中隐私保障,并愿意为其承担相应成本的欧盟,准备如何对人工智能相关的技术创新及其实践运用进行有效的规制。复旦发展研究院学术助理白珍就相关问题对沈逸教授进行了专访,整理编辑成此文,并经沈教授修改补充。



“人工智能”实际上是一个包含特定意涵的建构性统称

关于“什么是人工智能”这个问题,由于技术错综复杂,行业内部一直没有给出确定的统一答案。人工智能实际上是一个包含特定意涵的建构性的统称,或者,更加直白的说,在大多数情况下,包括这份欧盟的草案,人工智能这个词,是一个包含了特定历史、社会、经济、文化结构意涵的建构性称谓,是包含了较为显著的“约定俗成”在内的建构性的标签。这种显现在语言学上来说,是比较常见的,即“人工智能”这个词,它的指涉对象是多元化的,技术只是人工智能范畴下的一种体现。从人工智能自身的研究框架和方向来看,人工智能的发展包括通用智能和专用智能两种。所谓“专用智能”是模拟人的一部分功能,比如说图像识别。通用智能则是人工智能上最顶尖的皇冠,设定的目标是对人类思考能力的人工还原。目前从应用来看,引发各方关注的,都是专用智能及其商业化的具体实践。


而对人工智能的讨论,是人在主观认知基础上与客观现实的结合,更加直白的说,是建立在人对已经出现且在实践中不断高速迭代演化的人工智能概念在“未来”,“可能”产生的各种损害的假设基础上,再来反向推动当下的管制体系的建设与完善;换言之,其中必然包括了与当下的客观存在的某种非精确的映射关系。


和冷战结束以后的绝大多数通讯信息技术革命的商业化应用一样,欧盟这个草案出台的总体背景,其实是治理体系发展相对于技术创新和商业化运用的相对滞后,如草案的撰写者指出的,在实践中,人工智能的应用范围涵盖了从自动驾驶汽车到所谓审核求职者的算法;而与此同时,对这些软件,算法,应用的监管,处于相对滞后的状态。而欧盟本身的观念,又很有特色,即聚焦于个人隐私保护,甚至,在某些情境下,为了个人权利可以暂时抛弃其他利益,甚至形成了某种对个人权益进行“绝对化保护” 的心理认知。




欧盟的底层逻辑是还原论和个体主义

从伦理的角度上看,人工智能有不同的切入视角,欧盟的底层逻辑是还原论和个体主义,认为个体权利神圣不可侵犯,任何对于神圣的侵犯都应该是一种具体的例外,而不是一般性的常态,必须得到额外的授权。然而另一方面,倘若整个监控系统在大规模、高速流动的社会里,强调几乎没有任何边界和极限的无限制的个人隐私权利保护,则会带来很严重的问题,遇到大规模风险时是根本无法应对的。个人认为,欧盟的该项提案中对于远程实时监控系统的封禁,包括他们现在对于人脸生物特征识别的一种恐慌性讨论,在一定程度上是政治性质的,而不是现实性质的。第一是他们在想象;第二是和很多欧盟国家内部的公开游说活动有关,在一定程度上被政治化的。在新冠疫情初期,围绕是否戴口罩和防疫管控策略,欧洲很多自由主义的研究者从政府权力扩张的角度进行了讨论,只要掀开口子,政府便会像多米诺骨牌一样不断扩展权力,宁可在当下的事情上承担巨大的风险,也坚决不开口子。这一思路从实践上来看,至少在新冠事情上被证明是错的。



而欧盟现在对于实时面部防御的识别在一定程度上就是在尝试建立某种可扩展的标志性先例,也就是通常所说的“开个口子”。从治理的角度来看,以人脸识别能力建设的应用场景而言,在诸如反恐等安全场景的运用,可能难以避免实时识别和事后识别之间存在的伦理难题。究竟是恐怖分子出现后没有被及时识别造成破坏的概率高?还是政府借此机会扩大自己权力对个人造成损害的概率高?关于这一问题,就已经有的实践看,欧盟整体表现出了对个人主义的毫不犹豫的肯定和拥抱,甚至,在具有不同的文化背景和经验体验的个体看来,欧盟对于个人权益的保障到了一个已经突破正常可接受边界的程度,它要求把对于个人权利的无条件的绝对化的保护作为一项社会规范,甚至在某种意义上表现出了拒绝为一切形式的集体利益做出让步和牺牲。这种取向是否适合,可能还要有待实践的检验,但从人类历史发展的已有经验看,过于绝对化的取向,至少并非最有且通常有较大的可完善的空间。


需要说明的是,如果结合当下欧盟内生的社会和政治结构来看,此类监管法案通常并不纯粹,还包含了相当的政治筹码乃至利益交易的考虑,如果最终,这类法案演变成带有社会运动性质或政治动员性质的作秀,而非具有真正意义上的监管创新,那对欧盟来说,就不是什么好消息了。



肯定风险存在的合理性并解决现实问题

承认风险存在和认为风险是不可抗拒的不见得是同一件事,事实上人类社会治理的一般规律,就是通过设立可持续完善的救济制度,来均衡甚至是对冲相关的风险。草案中“执法当局使用人工智能系统会导致权力严重失衡,侵犯个人基本权益”的观点体现的是对执法机构启动这套策略的机制进行相关的规制。人脸识别给执法机构带来的权力扩展,并不见得比网络监听大,无非是带来不适感、入侵性较强,且不同于网络监听的是人脸识别可以对应到本人。这一点是可以通过未来的社会制度进行救济和制衡的。第一点,是要给出自然授权,即设立一个例外性的授权,只限于在特定区域和特定事由内、遵循特定的程序才能启动的程序;第二点,是多部门的制衡和事后的监督跟反馈。当个人认定执法当局出现问题之后,应当有一个相关的程序确保个人权益得到保障。如果用辩证唯物的方法从历史发展的进程,客观而系统的看待这一问题,那么人们应承认其存在风险,但不能因为风险的存在而拒绝推动技术的使用,而应重点关注是否有一套均衡的机制来平衡和对冲风险。


也有观点认为“由于种族、残疾、年龄、性取向等各种因素,算法偏见很可能会延续目前社会已经存在的广泛歧视,人们的隐私权也将不可避免地受到威胁。”首先,在任何情况下都不能因为有算法偏见的问题而直接否定算法的存在;其次,对于算法偏见的定义应该回归到客观本源上,实践证明简单地将其政治化不但不能解决问题,甚至还会悖离初衷。完全不存在偏见是不现实的,但不去面对偏见同样不客观。对于歧视的解决不能立足于算法里是否存在歧视的问题上,而应在现实中基本解决歧视问题后,再调整算法里的权重,不能反向歧视。当然,如果识别残障人士可以为其提供更多的帮助和便利,我不认为这是一种歧视,只需在功能描述的宣传和传播时照顾其心理、不构成冒犯即可。但这并非算法的问题,而是对算法的宣传问题,所以很多时候我们应当把问题精细化,将其切分成不同的方面,不能因部分的棱角而抛弃整体。



集体和个人利益应当均衡且可以被均衡

随着草案的出台,关于数据主体基本权利与技术创新间关系的新一轮争论也将随之拉开序幕。这一问题的本质是数据窃权和成本的问题,应恰如其分地对待。实际上在互联网发展到目前的整个过程中,尤其是进入数字化的阶段,数据主体在不损害自己隐私的情况下交换一部分数据的使用权或收益权、获得一定的便利,是一个客观存在的游戏规则,在这点上纠结反复是没有必要的。但是在两者之间应建立一套机制,当数据主体认为自己的权益受到冒犯时,有相关的法律救济机制是极其重要的。同时,法律也应保护创新主体的正当权利。其中依旧存在的一个问题是,法律的制定或执行在任何时候都有其立场,欧洲关注数据主体的权益,美国则相对关注创新主体的权益。在两者关系上,应当讲究“均衡”,划分双方的权利边界,而这恰恰是具有公共性的、政府部门应当从事的。对于边界的划分应站在客观的立场上兼顾个人权益的保障和经济权益与社会效应,实则是集体和个体利益的平衡问题。第一,从理论上来说,两者是应该平衡的;第二,从实践来看,结合具体的社会-文化-历史结构,两者是可以被均衡的,一方面不能无限制地教唆权利主体夸大其权益,另一方面,创新主体也不能无节制地使用数据主体的提供的便利,这是超过正常权限的。


同时,人工智能技术的日新月异与欧盟繁琐复杂的立法机制形成了鲜明的对比,这是各个主体之间的一种伦理选择。人工智能的框架显示出了欧盟在AI上为全世界树立治理和规范榜样的雄心,这种雄心的确立极具欧盟特色,它更多地偏好于对个人隐私权益最大限度的保护,并愿意为此承受在商业应用等方面付出短期、中期甚至长期代价的损失。从冷战以后的实践,这种不均衡的发展,也是导致整个欧盟在全球人工智能的商业应用和包括行政管理的实践中变成一块“洼地”的一项非常重要的因素,不断进行“望而却步”和“过度保护”之间的循环。早在移动互联网阶段,便出现了这一问题:欧盟本土企业受制于其本土化的一系列措施的影响而发展较慢。在一定程度上,这种局面在短期内应该不会发生大的变化。



该草案对于我国有一定借鉴和参考意义

在数据保护和人工智能技术监管方面,欧盟一直走在立法实践的最前端,这项草案的出台将对其他地区的人工智能治理带来一定程度的影响。而我国现在也面临同样的问题,因此这类提案一般被认为对中国提供了有益的借鉴和参考。同时,它也提供了一个机会亦或挑战。未来全球互联网治理将大致分为四派,分别是欧盟、俄罗斯、美国和中国。美国偏向于霸权流和创新流,在人权和隐私保护上跟欧盟存在共同语言;欧盟则会更加偏向于隐私和价值保护,对于自由流动、市场和商业应用侧重较少;俄罗斯则优先考虑本地化存储;而中国跟前三者的区别较为明显,与美国类似的是中国对于全球化同样有需求,因此不能只聚焦于国内问题,也要考虑跟欧盟的对接与接轨问题。一方面,我们的利益与把握信息技术革命的契机密切的联系在一起。如果说美国主张自由流动,我国则强调有序流动。有序流动将来有可能会成为各方在事实上都接受的标准。另一方面,我们跟欧盟很大的区别在于监管机构的作为意识和作为的时候面临的政治性或非政治性的壁垒不同。欧盟面临的政治性壁垒会相对较高,法律框架的具体执行也存在一定难度,可执行性不高。对我们而言,应加速出台相关的法律法规,提升这方面的治理能力和治理绩效,做好迎接更多大规模和高强度冲击的准备,这是具有直接意义的。


* 本文发布于新华思客,由发展研究院供稿编 辑 | 白  珍图 源 | 新华思客、摄图网



往期回顾

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存