郭锐|人工智能的法律管制
【作者简介】
郭锐,中国人民大学法学院副教授、哈佛大学法学博士,未来法制研究院研究员;
刘雅洁,中国人民大学法学院2016级知识产权方向法律硕士
【文章来源】
财新网@郭锐的博客
最近两三年内,科学家对人工智能研究收获了丰盛的果实。谷歌的提供的服务已有超过2700项使用人工智能引擎,图像处理的错误率大大降低;云计算明显降低神经网络的运算成本;自动驾驶的商业应用已经近在眼前;微软的Skype语音通信服务可以实现不同语言之间的实时自动翻译;Facebook已经实现自动向盲人描述图片内容。这些技术发展也因其巨大的社会和经济效益权力而得到各国重视。据估计,到2024年全球运用人工智能解决方案的市场将达到300亿美元。 普华永道估计2030年的人工智能将为全球经济贡献高达15.7万亿美元产值,超过中国和印度目前的产值之和。
与人工智能带来的经济的飞速发展相对的是法律规制的相对滞后。如果说工业革命的发生与现代社会制度的齐头并进带来了人类的进步,人工智能的进展尚未有相应的道德、法律、社会的变迁与之相协调。哈贝马斯认为,发展的知识基础不仅包括认知与科技意识(cognitive-technical consciousness)的结构,还包括道德与实践意识(moral-practical consciousness)的结构。回顾现代化的过程,固然工业革命及其背后的科技知识的更新功不可没,社会组织方式及其背后的道德和法律制度的变迁也不可或缺。哈贝马斯认为,就现代化过程而言,科技知识起到的作用在全社会有一般意义的共识,而道德和法律的进步,特别是一个更开放和普遍性本位的道德和法律规范体系(权利本位、法治、社会契约、自由平等和基于共识的治理)同样重要。如果现代社会的进步,不单单是在科技知识上取得突破,也是在道德和实践智慧层面的进步,那么今天讨论法律管制问题,对于人工智能所开创的新时代而言,同样具有根本性的意义。
合理设置人工智能的法律管制需要综合多个领域的知识:立法者不仅需要了解人工智能技术的机理,还需要了解其背后的道德、经济和社会基础。故此,法律对人工智能的管制不仅需要计算机科学、哲学、经济学和法学的传统资源,还要参照人工意识、机器道德等新兴领域的研究。作者认为,法律对人工智能的管制应着眼于人工智能的构成机制(技术内在蕴含的决策架构)和人工智能的发展与运行机制(支持技术发展的商业模式)。
人工智能的构成机制的管制需要明确管制什么的问题。如果将人工智能对人类社会带来什么样的挑战的讨论仅限于就业等风险,会远远低估人工智能会带来的影响。
与之前的技术相比,人工智能最大的特征是能够实现无人类干预的自主决策。这种自主决策分为不同的程度。处理简单的情境我们无须担忧,因为编写人工智能的程序的开发者可以直接把如何处理简单情境包括在程序里。但是在面对更加复杂的挑战时,自主决定系统需要更高级的能力去采取合适的行动,从而将伤害最小化并将道德的考虑最大化,求得解决问题的最有方式。而这种更高级的能力随着不同情景而调整,使得人类难以准确预测人工智能所有的具体行动。而机器自主决定的权利可能随技术的发展而扩大,激化已有的利益、观念冲突。设计者在开发人工智能的过程中亦难以准确预测人工智能存在的所有风险,因此,法律应当进行管制以控制人工智能带来的风险。
通过法律管制来保障人工智能的安全,要充分考虑到人工智能和传统技术的区别。传统的对于公共安全形成威胁的技术通常需要强大的基础设施作为支撑,例如核技术。通常而言,只有国家、大企业或者是获得雄厚资金支持的个人才能造成对安全造成实质性威胁。但是,人工智能以电脑和互联网为依托,无需昂贵的基础设施就能造成安全威胁。技术人员可以在任何时间,地点在没有协助的情况下做出人工智能产品。相关知识可能来源于图书馆或者是开源网络,也有来自不同公司的硬件和软件可供选择,而且人工智能的程序运行并非公开可追踪的,其扩散途径和速度也难以控制。这就要求对人工智能技术的管制考虑更为深层的伦理问题,对人工智能技术本身和它的应用均应符合伦理要求。
从人工智能技术本身看,由于人工智能的目标的实现受其初始设定的影响,如果能够保障人工智能设计的目标与大多数人类的利益和伦理道德一致,就算在决策过程中面对不同的环境,人工智能也能做出的相对安全的决定。比如经典的“电车难题”,当不得不作出决策时,面对着是杀死车上乘客,还是杀死面前的五个路人的两难处境,一辆无人驾驶汽车应该怎么选择?根据某咨询公司对美国民众的调查显示,美国民众中有50%的认为应该先救乘客,另外50%的人认为先救路人,但是只有三分之一的美国人表示愿意乘坐可能会牺牲乘客生命的无人驾驶汽车。 汽车厂商面对这个问题的态度也不同。奔驰汽车的高级行政人员Christoph Von Hugo表示,奔驰汽车公司一定会把乘客的生命安全放在第一位,即使这样意味着可能伤害路人。这样的人工智能决策设定会或许更迎合消费者的心理,也带来企业利润的增加,但给社会总体造成的损失如何处理,这是立法者必须考量的。
人工智能做出的无人类干预的自主决策还让基于个人责任的社会治理陷入困境。以人工智能的决策导致的安全事故为例,我们无法通过找到责任人并令其承担责任来防止这样的事故。对过错的惩罚在对自然人的管制上是有效的,因为自然人自动会因避免再次受罚而改变行为模式。而对人工智能而言,其“道德心智”的学习和匡正无法通过设定各个相关主体的权利和责任来完成。必须考虑将人类的伦理道德嵌入人工智能系统。
从人工智能技术的应用方面看,要充分考虑到人工智能开发和部署过程中的责任和过错问题,通过为人工智能技术开发者、产品生产者或者服务提供者、最终使用者设定权利和义务的内容来落实伦理要求。在侵权行为发生后,对于人工智能侵权的责任划分至关重要。人工智能自身研究、发展的特点使得受害人在受到侵权后难以索赔,大量个人、企业的参与使得责任承担主体多样。有的人工智能的元素原本不是为人工智能设计的,不成为责任承担主体。而人工智能程序的预设性和不透明性也让使用者承担侵权责任的正当性存在疑问。各国在人工智能管理上的不统一加重了管理的难度。法院应该认定某一具体案件的侵权责任,适用过错责任或者严格责任标准,其最重要的职责是在设计者、生产者、投资者、使用者之间进行责任分配,责任分配的标准与一般侵权责任一致。
对人工智能的发展与运行机制的法律管制需要首先明确管制谁、如何进行管制的问题。人工智能的发展涉及商业平台、技术开发主体(大公司、个体程序员)、数据提供方(个人、商业公司、政府)等。固然管制多个主体并非易事,法律也并非第一次遇到:在公司法中,管制自然人组成的公司就是很好的先例,特别是从公司的合同束理论或者利益相关者理论来看看待公司时我们就更加确信终有一天我们的制度能够达到目的。对公司而言,尽管公司参与人众多,通过对治理结构、责任的诸多规制,法律仍然能够实现整体的管制效果。
在对人工智能的发展路径进行法律管制的思考中,数据特别应该引起我们的注意。数据是人工智能做出决策的基础,而数据并不是直接由公司或者政府产生,而是来自于每个个体。既然人工智能能够直接分析和利用数据,每个个体至少有权利选择以怎样的方式存储、管理和使用他们的数据。企业或者是技术提供方不能够以提供了更高级的产品或者更便利的服务为理由,而不加限制的使用个人的数据,而使得牺牲人们的隐私权成为技术发展的必要代价。人工智能语境下的个人数据的获取和知情同意应该重新进行定义。第一,政策和法律应直接对数据的收集和使用进行规制,而不能仅仅征得数据所有者的同意;第二,应当建立实用、可执行的、适应于不同使用场景的标准流程以供设计者和开发者保护数据来源的隐私;第三,对于利用人工智能可能推导出超过公民最初同意披露的信息的行为应该进行规制。第四,对于个人数据管理应该采取延伸式保护。在实践中,欧盟将于2018年5月25日开始实施的欧盟“通用数据保护规范”(GDPR),对于如何使用数据进行了规定。该条例制定的目的,是想借赋予欧盟公民个人信息保护的基本权利,来增加消费者对在线服务和电子商务的信心。(当然,对于该条例的规定如何在实践中应用,学界已有相当有力的质疑和批评。)
就法律管制如何促进人工智能的发展而言,法律难以直接在人们应该在哪些领域增加、减少投入做出强制规定。但是法律可以对各个领域中的发展给予必要的指引,比如说对人工智能作为基础的数据的使用做出规定,增强数据的透明度的同时,加强对于个人隐私的保护。同时,针对已有管制的不足之处,法律至少可以允诺未来进行合理调整。
法律对人工智能的发展与运行机制管制的最终的目的应该是促进人类命运共同体的美好发展,而不应让个别科技巨头公司或者是国家独享发展的成果。如何用人工智能促进公平发展在政治,经济和社会结构上都对人类提出挑战。对企业而言,例如谷歌等公司,它们已经掌握着巨大的数据,而且可以利用现有的市场地位和掌握的科学技术进一步获得更多的数据。就算谷歌将自己的一些算法开源,使得公众可以获得其技术。但是其他相对弱势的企业就算能够获得技术,也无法拥有如此海量的数据去进行进一步的研发工作。这样一来,“马太效应”不断强化,某些科技巨头公司的垄断地位一经形成将难以动摇。在此原则下,政策和法律应致力于人工智能发展的外部社会环境的构建,推动对社会个体的人工智能伦理和安全意识教育,让社会警惕人工智能技术被滥用的风险。
法律管制人工智能的问题,考虑到人类对现有技术和制度认知的局限性,立法者和政策制定者当前提出的对人工智能的管制必然需要经过提出、试错和总结经验才可能完善。现阶段我国如何开展和推进对人工智能的法律管制?可行的步骤是先从发现和确认全世界应当共同遵守的原则开始。比如2017年签署的阿西洛马人工智能原则就为设计一套保障人类价值观一致的AI安全发展指南做出了有益的尝试。目前全世界已经有1200名以上的人工智能 /机器人研究人员和其他数以千计的人签名支持该原则。(在制定原则的会议中,只有超过90%的与会者同意才能被写入最后确定的原则。)阿西洛马原则在道德标准和价值观念方面强调了以下十二点,分别是:安全性、故障透明、审判透明、职责、价值观一致、人类价值观、个人隐私、自由与隐私、共享利益、共享繁荣、人类控制、非颠覆、避免人工智能军备竞争。在建立了共同原则的基础上,政府和业界共同建立人工智能安全测试规范和认证机构。这些应当作为我们思考的起点,也提醒我们:在制订政策和法律时,我们应当摆脱肤浅的新闻炒作和广告式的热点,促进对人工智能更深层理解,聚焦新技术给我们的社会带来的真正难以应对的挑战。
封面图片来自36大数据(36dsj.com)