查看原文
其他

【重磅】吴汉东:人工智能时代的制度安排与法律规制 丨 中法评

2017-08-02 中国法律评论


吴汉东

中南财经政法大学文澜资深教授

中南财经政法大学知识产权研究中心主任

对于人工智能引发的现代性的负面影响,有必要采取风险措施,即预防性行为和因应性制度。面向未来时代的调整规范构成,应以人工智能的发展与规制为主题,形成制度性、法治化的社会治理体系,包括以安全为核心的法律价值目标、以伦理为先导的社会规范调控体系和以技术、法律为主导的风险控制机制。借鉴国外经验,立足本土需要,当前应尽快出台 “国家发展战略”,及时制定“机器人伦理章程”,适时进行机器人专门立法。


目次

导言

一、智能革命图景:“最后的发明”抑或最大的风险

二、人工智能技术在挑战我们的法律

三、面向未来时代的制度构成:法律、政策与伦理

结语

 

本文原题为《人工智能时代的制度安排与法律规制》,文章首发于《法律科学》2017年第5期,为阅读方便,略去脚注,如需引用,请参阅原文,敬请关注! 



导言


在人工智能技术日新月异的时代变革中,人类/机器人关系所引发的各种法律、政策和伦理问题紧迫地摆在我们的面前。如何调整“促进”与“规制”人工智能发展的法律价值目标?如何应对人工智能技术带来的社会风险?如何设计人工智能时代的调控规范体系?这些问题不仅涉及对传统法律制度的深刻反思,更是以“未来法学”问题为主旨的有益探索。

智能革命图景:

“最后的发明”抑或最大的风险


进入新世纪以来,人类社会的文明演化呈现出加速发展的态势。21世纪的最初十年,以互联网的普及使用为纽带,社会结构得以重新组织,人类社会与物理社会广泛连接,自此开启了与以往有别的网络社会时代;时至2010年左右,基于广泛分布的传感技术、大规模数据存储和通信技术的应用,数据规模呈现指数型上升,地球村由此步入大数据时代;进入新世纪第二个十年的下半段,伴随着数据处理能力的飞速提高,人工智能对社会开始深度介入,世界正在走向人工智能时代。

 

整体而论,“人类在进入到21世纪的三个关键时间点,相继出现了三个互相联系又略有区别的新时代,即网络社会时代、大数据时代、人工智能时代,三者共同构成了新的社会时代。”

 

智能时代是以人工智能(Artificial Intelligence,简称AI)来命名的,作为研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学,旨在了解智能的实质,并生产出一种新的能以人类智能相似方式做出反应的智能机器,其研究领域包括机器人、语音识别、图像识别、自然语言处理和专家系统等。这一技术科学将改变甚至颠覆人类现存生产工作和交往方式,由此出现一个以新的技术结构支撑新的社会结构的人类新时代。

 

“这是最好的时代,也是最坏的时代”,英国文学巨匠狄更斯在其名著《双城记》中的开篇话语,一百多年来不断地被人引用。在这里,我们再次以此来描绘人工智能时代的未来图景。一方面,智能革命无疑将给我们带来一个更美好的社会,它是智能的、精细化和人性化的“最好时代”。

 

在云计算、大数据、深度学习算法、人脑芯片的催化下,人工智能模拟和表现了人类的智慧动力,并以高于人类的工作速度、优于人类的工作精度、胜于人类的工作态度,协助人类解决各种各样的问题,包括危险场合和极端环境的难题,从而形成人类智慧的创造力优势与人工智能的操作性优势之间的强强合作。人工智能现已成为全球新一轮科技革命和产业变革的着力点,在人类智慧能力无穷增大的“科学梦”背后,是一片蕴藏无限生机的产业“新蓝海”。

 

社会正在从“互联网+”向“人工智能+”转型,旧领域生发出新的产业形态,多领域催生了新兴的细分行业,由此创造出巨大的经济价值和社会财富。在谷歌、脸谱、IBM等领军企业的带领下,全球对人工智能的关注度不断提升。截至2015年,人工智能国际市场的规模为1683亿元,预计到2018年将增至2697亿元,增长率达到17%。在投资规模方面,2015年为484亿元,预计到2020年,投资总量将达到1190亿元。

 

可以认为,人工智能将从专业性较强的领域逐步拓展到社会生活的各个方面,人类未来会在“万物皆互联、无处不计算”的环境下精准生活。但另一方面,智能革命也将给我们带来诸多麻烦,也许我们面临着一个社会问题丛生和安全隐患不断的“最坏时代”。

 

到目前为止,人工智能已在全球范围内逐步建立起自己的生态格局,并开始深度介入人类的社会生活。2016年,距离麦卡锡、明斯基、香农等人提出人工智能的概念正好过去60年。在过去的一年,人们看到了许多存在于科幻小说的内容成为现实:人工智能击败了人类顶尖棋手,自动驾驶汽车技术日趋成熟,生产线上活跃着“机器人”群体…… “智能时代,未来已来”。人们在为人工智能的强大能力感到惊叹的同时,也激发了对人工智能安全问题的普遍忧虑,人工智能是否成为人类“最后的发明”?我们应该如何看待人工智能的潜在风险?

 

人工智能对人类社会的潜在风险,聚焦于威胁人类自身安全的可能性,涉及人类基本权益的生命与健康、尊严与隐私、安全与自由。科学家认为,人工智能存在着威胁人类存续的可能性,但这种风险不是由于自发的恶意所引起,而应来自人工智能发展过程中出现的不可预测性和潜在的不可逆性。

 

质言之,人类有智慧能力创造出人工智能,也应有能力和理智来控制人工智能。因此,“最好是期待人类的聪明才智,而非低估它;最好是承认风险的存在,而非否认它。”我们应当思考的不是消灭客观危险,而是在这些潜在的威胁和挑战面前,增强风险认识能力,提高制度风险意识,通过法律和其他社会规范来预防规避风险,引导规范人工智能技术健康发展,这即是法学家、法律家的任务。

 

人工智能的首要问题是安全问题,可以置于风险社会理论的研究范畴之中。德国学者贝克认为,人类面临着威胁其生存的由社会所制造的风险。现代化正在成为它自身的主题和问题,因此变得具有反思性。风险概念表明人们创造了一种文明,以便使自己的决定将会造成的不可预见的后果具备可预见性,从而控制不可控制的事情。

 

在风险理论中,人工智能存在着现代性的负面影响,因此有必要采取风险措施,即预防性行为和因应性的制度。对风险社会问题的法学研究,其重点是法律制度与法律秩序。“法律制度的价值和意义就在于规范和追寻技术上的可以管理的哪怕是可能性很小或影响范围很小的风险和灾难的每一个细节。”而法律秩序则是法律制度实行和实现的效果,即社会生活基本方面的法律和制度化。现代社会是法治社会,制度风险及风险法律控制是风险社会法学研究理论的基本内涵。

 

人工智能既是人类文明,亦有社会风险。它或是“技术—经济”决策导致的风险,也可能是法律所保护的科技文明本身所带来的风险。换言之,知识问题是现代性风险的根本成因,制度以至法律选择的实质应是基于风险的决策。正是在这个意义上,贝克提出知识经济就是“风险经济”,“风险就是知识中的风险”。具体说来,人工智能时代的社会风险具有以下特点:

 

一是风险的共生性。风险社会的内在风险,基于技术性风险和制度化风险而形成,且存在共生状态。人工智能时代是一个高度技术化的社会,科学技术的高度发展既是风险社会的特征,也是风险社会的成因。现代社会中的风险是“被制造出来的风险”,是由我们不断发展的知识对这个世界的影响所产生的风险。

 

马克斯•韦伯形象地指出,人类在不久的将来注定会生活在“技术知识的囚室”。人工智能是知识革命中最具代表性和影响力的时代技术。“对知识体系和技术性知识的信任,是人们在风险社会中获得和持有本体性安全的基础和保证。”从“反思的现代性出发,对法律及其保护的先进技术仅为信任是不够的,人工智能在其发展过程中出现的不可预测性和潜在的不可逆性”,其本身就是一种风险。

 

同时,人工智能时代的风险含义,还依赖于这样的一个事实,即文明的决策可能触发全球化进程中的一系列问题和一连串的风险,直言之,“风险以决策为先决条件”。制度风险可能来自我们的工业制度、科技政策乃至法律规则,或是表现为对新技术无措的“制度缺失”,或是表现为对新技术错判的“制度失败”。这些即是规则运转失灵的风险,其结果形成制度化风险。

 

二是风险的时代性。在风险社会理论中,风险社会这一概念并不是社会发展类型的某一历史分期,也不是某个具体社会和国家的现实发展阶段,而是对当今人类时代问题的理论概括与形象描述。智能革命是时代的产物,其特点是人类智力与人工智力的结合,智能技术导致智力物质化、社会智能化,最终出现智能社会。

 

智能社会的形成将是一个长期的过程,或者说是一个时代变迁。以人类思维能力和意识的迁移为表征,以智能机器人的活动为中心,人工智能的发展将会递进呈现出不同阶段。如何应对智能时代中现实世界与理念世界的分离,如何防范病毒、黑客对人工智能产品的侵蚀,这种高科技所引发的高风险会持续整个智能革命的时代过程,它是现实的风险,也是未来潜在的风险。

 

三是风险的全球性。经济全球化、科技全球化、信息全球化乃至治理机制的全球化,不可避免地带来风险的全球性。反全球化主义者认为,全球化正在催生另一种形态的帝国体制:互联网是“信息帝国主义”,世界贸易组织是“市场帝国主义”,国际货币基金组织是“金融帝国主义”,而联合国是“政治外交的帝国主义”。贝克对此作出了自己的判断:全世界面临着社会认同解体、价值利益冲突、主体组织对立、国家立场对峙、生态环境破坏等不确定因素,这些危机与发展遍布全球,形成对人类生存的新威胁。

 

可以认为,风险社会是一种“全球风险社会”,风险的空间影响超越了地理边界和社会文化的边界。正如吉登斯所言,“在全球化的时代里,风险的影响被普遍化了。”在人工智能风险的国际应对方面,2016年联合国发布《人工智能政策报告》,表达了对人工智能的关注,并针对人工智能技术发展带来的各种问题,提出了新的思考方式和解决途径。报告呼吁世界各国加强在人工智能技术研究与开发领域的合作,共同应对智能机器人在就业、伦理道德以及法律层面带来的挑战。

 

科学技术在人类的文明进步中总是扮演着最活跃、最革命的角色。面对智能革命,我们不能逃避它、否定它和阻止它。上述判断依赖于以下两点事实:


第一,人工智能技术在造福人类的同时也加大了人类危害自身的可能性,这即是技术的负面性与风险的不确定性的联系。


第二,传统社会治理体系无力解决工业社会过度发展而产生的社会问题,这即是法律的确定性与风险的不确定性的背离。对于现代各国而言,人工智能发展的政策考量,其实是基于风险的制度选择和法律安排,我们应“通过法律化解风险”,“通过法律吸纳风险”,“将风险社会置于法治社会的背景之中”,即对智能革命时代的法律制度乃至整个社会规范进行新的建构。

人工智能技术在挑战我们的法律

智能革命的出现,对当下的伦理标准、法律规则、社会秩序及公共管理体制带来一场前所未有的危机和挑战。它不仅与已有法律秩序形成冲突,凸显现存法律制度产品供给的缺陷,甚至会颠覆我们业已构成的法律认知。就调整人工智能相关社会关系的法律制度而言,人们的担忧多于期待、疑虑甚于创制。现择其主要问题分析如下:

 

1、机器人法律资格的民事主体问题

 

随着人工智能技术的快速发展,机器人拥有越来越强大的智能,机器人与人类的差别有可能逐渐缩小。未来出现的机器人将拥有生物大脑,甚至可以与人脑的神经元数量相媲美。美国未来学家甚至预测:在本世纪中叶,非生物智能将会10亿倍于今天所有人的智慧。

 

是否赋予机器人以虚拟的“法律主体资格”,在过去的一段时期,美英等国的哲学家、科学家包括法律家都为此开展过激烈的争论。2016年,欧盟委员会法律事务委员会向欧盟委员会提交动议,要求将最先进的自动化机器人的身份定位为“电子人”(electronic persons),除赋予其“特定的权利和义务”外,还建议为智能自动化机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号。该项法律动议如获通过,无疑使得传统的民事主体制度产生动摇。

 

机器人是机器还是人,在法理上涉及到主客体二分法的基本问题。在民法体系中,主体(人)与客体(物)是民法总则的两大基本制度。主体与客体、人与物之间有着严格的区别。凡是人以外的不具有精神、意思的生物归属于物,是为权利的客体。主客体之间这种不可逾越的鸿沟现在正发生动摇。

 

从基因时代到智能时代的一个重要变化是,传统民法的主、客体框架已然打破:人的遗传基因物质不能简单作为客体物看待,而没有生命但具有人工智能的机器人也有可能被赋予法律资格。将机器人视为“人”,赋予其相应的主体资格,难以在现有的民法理论中得到合理的解释。民法意义上的人,须具有独立之人格(权利能力),该主体既包括具有自然属性的人(自然人),也包括法律拟制的人(法人)。日本学者北川善太郎认为,在民法上,“法的人格者等于权利能力者”,关于人或法人的规定,“表现了最抽象化层次的抽象的法人格”。

 

法人格概念的意义在于揭示民事主体的内在统一性和其实质,界定主体与客体的关系。“民事能力概念的意义在于揭示民事主体的差异性,具体刻画民事主体存在与活动的状态与特征。”

 

从法律技术逻辑层面看,《德国民法典》以权利能力核心概念为中心,进行主体人格的制度设计。在财产权领域,这种构架中的逻辑关系就是“经济人—权利能力—法律人”。在自然人人格场合,“法律人”的成立是以伦理价值为依据,将伦理价值从人的范畴中抽去之后,即通过权利能力将“生物人”自然本性与“法律人”的法律属性直接连接的。而在法人人格场合,由于权利能力扮演“团体人格”的角色,从而形成“团体—权利能力—法律人”的逻辑关系,从而使得法人与同为“法律人”的自然人一样在某些方面享有人格利益成为可能。

 

基于上述分析,可以认为:机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主体资格,在法理上尚有斟榷之处。据多数科技专家研究,由于人造机器没有自身的目的,其工作目的非常特定,且为人类设计者所设计。质言之,机器人生成的目的行为,与人类有目的、有意识的行为性质完全不同;同时,机器人没有自身积累的知识,其机器知识库的知识都是特定领域的,并且都是人类输入的。

 

在这种情况下,模拟和扩展“人类智能”机器人虽具有相当智性,但不具备人之心性和灵性,与具有“人类智慧”的自然人和自然人集合体是不能简单等同的。换言之,受自然人、自然人集合体——民事主体控制的机器人,尚不足以取得独立的主体地位。

 

2、人工智能生成作品的著作权问题

 

人工智能的实质,是“让机器从事需要人的智能工作”,包括下棋、解题、从事数学发现、学习新的概念、解释视觉场景、诊断疾病、推理条件等。基于此,文学、艺术和科学作品的创作也在机器人的智能范围之内。从计算机到机器人的发展,在作品创作方面即是一个从阅读到写作的跨越。


在机器人时代,某些作品就是人工智能的生成内容。据美国Narrative Science的预测,未来15年将有90%的新闻稿件由机器人完成,大量的美术、音乐等艺术作品也将出自人工智能创作。机器人的写作方式,采取“信息→知识→智能”的技术路径,基于“人机合作”系统而导致内容生成。该行为是否构成法律意义上的“独创性”或“主观能动性”,一些国家和地区的法学家试图作出正面回应。


有消息称,日本准备立法保障人工智能的著作权作品,以防止机器人创作中的抄袭之风;欧盟法律事务委员会提出动议,拟赋予机器人以著作权。

 

关于人工智能的生成作品,著作权法有两个问题需要解决,即机器人设计的作品是否享有权利?该项权利应归属于机器还是创制机器的人?据专家研究,人工智能生成的作品,目前还处于在特定的格式和写作模板下传达信息、表达意思的阶段,尚不能无限定格式地写作内容。尽管机器人稿件的表达技巧有限,但仍可以视为著作权法意义上的作品。依世界知识产权组织的权威解释,作品须具独创性,即“作品是作者自己的创作,完全不是或基本上不是从另一作品抄袭来的。”

 

这就是说,人工智能生成之内容,只要由机器人独立完成,即构成受著作权保护的作品,至于其用途、价值和社会评价则在所不问。机器人作品享有著作权,但机器人并不能像自然人作者或法人作者那样去行使权利,换言之,该项著作权应归属于机器人的创造人或所有人。


这是因为,机器人是机器而不是“人”,它是依靠数据和算法而完成写作,该机器人以及其写作的技术路径无一不是人类创制。在这种情况下,法律可以通过保护机器人作品以达到保护机器人的创造人和所有人的目的。具言之,可参照著作权法关于职务作品或雇佣作品的规定,由创制机器的“人”而不是机器人去享有和行使权利。

 

3、智能系统致人损害的侵权法问题

 

智能型“新一代机器人”,与传统的执行重复任务的工业机器人不同,它拥有相对的自主权和更高的人工智能水平,且将广泛而深入地参与人类社会的生活。“智能型机器人”的广泛使用,在带来高效和便捷的同时也不可避免对人类带来伤害。

 

机器人致人损害有两种情形:

 

一是侵权人对智能系统进行非法控制而造成的损害。例如,黑客、病毒等人为因素侵入互联网,进而控制人类家庭的儿童看护机器人、助老机器人、护士机器人或其他智能系统,由此导致危及人类的后果。在这种情况下,发动黑客攻击或传输病毒的侵权人应该承担法律责任自不待言,这些不是本文研究的主要话题;


二是智能系统自身的产品瑕疵而造成的损害。据报道,早在上个世纪80年代,日本即发生过工业机器在作业现场将工人置入机器压死的事件;2007年,美国食品药品监督管理局收到200多份投诉,指控医疗外科手术机器人对病人造成烧伤、切割伤以及感染,其中包含89例导致病患死亡。

 

上述致人损害的事由,究竟是机器人创制者的技术漏洞,抑或智能机器管理人的不当使用?甚至可能是人工智能系统超越原控制方案的“自身行为”?在这种情况下,就必须对机器人的过错行为原因进行分析,以查找侵权主体构成并分担赔偿责任。

 

关于智能系统致人损害责任的认定,有两种责任方式可供选择:

 

一是基于行为人过失所产生的产品责任。在侵权责任法中,产品责任是指产品生产者、销售者因生产、销售缺陷产品致使他人遭受人身损害、财产损失或有致使他人遭受人身、财产损害之虞而应承担的特殊侵权责任。致人损害的产品,必须存在缺陷,它包括制造缺陷、设计缺陷、警示缺陷、跟踪观察缺陷。

 

上述情形符合智能系统致人损害责任的一般特征。2016年,联合国教科文组织会同世界科学知识与技术伦理委员会发布报告指出,由于机器人一般被视为通常意义上的科技产品,机器人以及机器人技术造成的损害,可由民法中产品责任的相关规定进行调整。从产品责任的认定条件来看,机器人造成的损害可归类于机器人制造者和销售者的过失,包括产品制造的过失、产品设计的过失、产品警告的过失以及没有尽到合理的注意义务。

 

二是基于技术中立原则所产生的替代责任。关于技术产品致人损害,技术中立原则可提供责任规避。所谓技术中立原则,是指任何技术本身原则上都不产生责任承担,但是一项特定技术的主要商业用途是用来从事侵权或其他违法行为的,那么该项技术即不适用“技术中立”原则。在这种情况下,适用替代责任较为适宜。替代责任又称为转承责任,最初出现在代理关系与雇佣关系中,即被代理人对代理人实施的,得到被代理人“授权”或“批准”的侵权行为承担责任;雇主对其雇员在“雇佣期间”实施的侵权行为承担责任,概称为“为他人侵权行为承担责任”。

 

在替代责任情形中,机器人本无瑕疵,符合技术中立原则要求,但机器人的所有人或使用人,或不尽善良管理人之义务,或放任机器人的侵权行为,则不能以技术中立原则免除责任。

 

4.人类隐私保护的人格权问题

 

网络空间是一个真实的虚拟存在,是一个没有物理空间的独立世界。在这里,人类实现了与肉体分离的“数字化生存”,拥有了“数字化人格”。所谓数字化人格就是“通过个人信息的收集和处理勾画一个在网络空间的个人形象”——即凭借数字化信息而建立起来的人格。

 

个人信息包括了当事人不愿他人知道或他人不便知道的隐私信息,主要类别有:个人登录的身份和健康状况、个人的信用和财产状况、电子邮箱地址、网络活动踪迹等。在信息化社会,这些零散的和广泛的个人信息有可能被收集,并进行数据处理,从而拼合成所谓数字化人格——在很大程度上是被迫建立的人格,个人毫不知情的人格。在今天和未来,当移动互联网、大数据和机器智能三者叠加后,我们生活在一个“无隐私的社会”。

 

面对大数据对个人隐私潜在的威胁,我们必须重视智能革命时代隐私权的保护,有三点举措可供采用:

 

一是增强自我保护意识。在当下的移动互联和今后的万物联网的时代,我们本身就是隐私的泄密者:智能手机安装了太多而不甚使用的APP,社交网络讲了太多而不适宜公开发表的言论,都可能造成隐私泄露;还有各种电子产品,从带有GPS的照相机到与WIFE相连的智能电器,都精细地记录私人的行踪和生活信息。在人工智能时代,挖掘个人隐私是由机器完成的,因此保护隐私,须从自己做起,对智能电器有防范之心;

 

二是强化企业保护用户隐私的责任。企业须负有保护用户隐私的意愿和责任,“这将是用户隐私是否得到有效保护的关键”。在当下,用户数据日益聚集在大型互联网或数据处理的企业手中,对其进行保护个人隐私的责任约束就显得非常重要。在欧盟和美国,根据政府要求,也出于用户主张,服务条款应特别声明从用户获得的数据属于用户本人,如对个人数据有不当处置,应承担责任。这不仅是合同规定的违约责任,也是违反法律的侵权责任。

 

三是加强网络、电讯隐私保护的专门立法。隐私权的保护应以民法保护为基础,明确隐私权的权利属性、权能内容、保护方式等;同时以专门法律保护为补充,规定特定领域的特定主体隐私保护的原则和办法。


例如,美国1974年制定《联邦隐私权法》,是为隐私权保护的基本法,后又于1986年通过《联邦电子通讯隐私法案》,2000年出台《儿童网上隐私保护法》,此外还颁布了《公民网络隐私权保护暂行条例》、《个人隐私与国家信息基础设施》等法律。


欧盟则在1997年通过《电信事业个人数据处理及隐私保护指令》之后,又先后制定了《网上个人隐私权保护的一般原则》、《信息公路上个人数据收集处理过程中个人权利保护指南》等相关法规。隐私权的保护,是信息时代特别是人工智能时代的法律难题。智能革命不断深入发展的过程,亦是隐私安全风险增大与法律保护强化的过程。

 

5.智能驾驶系统的交通法问题

 

人工智能在交通领域的重要应用是网联自动驾驶。智能驾驶通过导航系统、传感器系统、智能感知算法、车辆控制系统等智能技术,实现了“人工智能+无人驾驶”,颠覆了以往的人车关系、车车关系。为推动智能驾驶产业的发展,美、德、日等国都在探索,甚至出台了有关交通责任分配的法律规范和安全检测市场准入的监管政策。

 

无人驾驶汽车可能带来的法律问题,主要有:


一是法律规制对象的转变。无人驾驶意味着交通领域的准入资格,不再是驾驶人的驾驶技术,而是无人驾驶汽车的智能化水平。换言之,随着无人驾驶中驾驶人概念的消失,法律规制的对象不再是车辆的驾驶人员,而将是智能驾驶系统的开发者、制造者;


二是法律责任体系的重构。以过错责任为基础而建立的“风险分配”责任体系,在未来的交通法规中将不复存在。对于道路交通事故的认定,其归责事由只有结果的“对与错”,而无主观上的“故意”或“过失”。


三是交通监管重心的变化。以交通安全为目标,以往交通管理部门监管的重点是汽车装置的安全性能和驾驶人安全驾驶技能;而在智能驾驶中,避险保障和精确驾驶的软硬件体系,是道路交通检测、准入的重点。

 

6.机器“工人群体”的劳动法问题

 

人工智能技术发展的基本面向,是对人-机关系的改变。智能机器人的大规模应用,一方面推动了社会生产力的发展,大大提高了生产效率;另一方面也带来了社会结构的变化,使得人与机器人的关系成为社会生活的重要方面。以保护劳动者利益为宗旨的劳动法,面临着前所未有的两个难题:

 

一是传统劳动法的调整功能消减。据牛津大学的调研报告,未来将有1000万非技术工种被机器人取代,其中包括文秘、工人、中介、司机等一大批岗位。报告特别指出,目前软件工程师所做的工作将会被智能机器人所代替,即创造者被其创造的技术产品所代替。这些都对现有劳动者的权利带来冲击。大批劳动者离开传统岗位,其权益救济更多是寻求社会保障法,那么“劳动法是否面临消亡的命运?”

 

二是未来劳动法将面临新的调整对象。机器人抢掉人类的饭碗,人工智能“工人群体”正在形成。对机器人权利保护或者说禁止对机器人滥用,在当下尚是一个社会伦理问题,而在未来就成为劳动立法问题。


欧盟法律事务委员会动议,主张人工智能具有“工人”身份,并赋予其劳动权等“特定权利与义务”;韩国政府起草了《机器人伦理宪章》,其要点包括:保证人类能够控制机器人、保护机器人获得的数据、禁止人类违法使用机器人、防止人类虐待机器人,应该认识到:智能机器人本质是为机器,但亦有人的属性,对智能机器人的尊重就是对人类自身的尊重。可以预见,上述伦理规范将成为未来立法的组成部分。

 

法律制度总是滞后的,但关于法律问题思考应该是前瞻的。面向智能革命时代,我们应在认识和分析现行法律困境的基础上,探索与科学文明相伴而生的制度文明,创制出有利于人工智能健康、有序发展的社会规范体系。

面向未来时代的制度构成:

法律、政策与伦理


法律制度的发展与变革,每一过程的路径选择和规则设计,其法律思维一般都是客观事实分析与主观价值判断的综合。就法律制度建设而言,如果总是基于技术及其效应的充分显现,以此形成以技术事实为基础的社会规范,那么法律制度的滞后现象将会十分严重,最终导致技术法律对技术“匡正”的失效和无力。

 

“我们所体验到的那种无能为力并不是个人失败的标志,而是反映出我们的制度无能为力。我们需要重构我们曾经有过的这些制度,或者建立新的制度。”面向未来时代的制度构成,应以人工智能的技术发展与规制为主题,形成包含法律规则、政策规定和伦理规范的社会治理体系。关于理念、规范、体制与机制的制度设计,笔者拟提出如下构想:

 

1.以安全为核心的多元价值目标

 

人工智能法律的价值分析,源于法律理想与现实,应然与实然的对立。人工智能时代的法价值即是人类法律理想价值观的追求,是价值这一哲学范畴的法律化表现。法律的理想价值总是高于法律现实价值,可以为法律制度的演进提供目标指引和持续动力。

 

人工智能法律既具有一般法价值的构成要素,又有着其特殊法的价值内容,从而形成自身的法价值体系。其中,“正义是社会制度的首要价值”,也是作为一般法的普适价值,其蕴含的人格正义、分配正义、秩序正义构成了人工智能法律构建的正当性基础。在最高法价值指引之下,人工智能法律还存在着专门法的特别价值,这主要是安全、创新和和谐。

 

安全是人工智能时代的核心法价值。安全价值是对整个社会秩序稳定的维护。对此,法哲学家雷加森斯·西克斯言道:“如果法律秩序不代表一种安全的秩序,那么就不是一种法律” 。安全价值是许多法律部门共同追求的目标,且通过不同的制度或调整方法来实现。例如,刑法、行政法通过刑事责任或行政责任方式来实现社会秩序安全,民法通过侵权法来保护交易安全和财产秩序。人工智能作为未来时代技术尚在深入发展之中,但在当下已引发人们对其安全问题的普遍担忧。

 

人工智能超越人类智能的可能性,人工智能产生危害后果的严重性,以及人工智能技术本身内在的不确定性,这些因素足以构成法律以及其他规范防止风险的必要性。关于风险规制的安全规范,包括人工智能产品的伦理规范、人工智能技术的应用规范、人工智能安全的监测规范等,都是相关法律制度设计和安排需要考量的问题。

 

创新是人工智能法律的价值灵魂。在特定的时代背景下,特定的法律制度会包含若干不同的价值项,而且其各自的价值侧重点也有着不同。当代经济的发展着重依靠知识和信息的生产、分配和利用,创新业已成为知识经济时代的主要特征。面向人工智能革命,创新不仅反映了人与自然的关系,而且反映了人与人的关系、个人与社会的关系,成为一个具有普遍意义的关系范畴。创新价值体现在人工智能发展政策制定与立法活动之中,其主要制度设计是:


(1)谋化国家发展战略。在整体性、全局性的政策层面,对人工智能技术和相关社会变革作出相应的战略部署;


(2)制定产业促进与监管的政策法律。在立法和政策层面,推进智能驾驶系统、智能机器人、精确医疗、语言识别、人脑芯片等核心技术的研发和应用,同时明确准入规范,制定安全标准,完善配套设施,营造健康、有序的监管环境;


(3)完善知识产权创新激励机制。通过权利保护、权利交易和权利限制等制度,促进技术创新和新兴产业发展。总得说来,国家通过战略指引、法律规范和政策安排,将创新这一行为上升为“规划理性”的法价值,体现了人在价值发现中的能动性干预和控制。

 

和谐是人工智能时代的终极价值追求。所谓和谐发展,是一种配合适当、协调有序的理想动态,这是一种涵盖周延的目标系统,包括人的和谐、社会的和谐、自然的和谐,以及人与社会、自然的和平共存与进步。和谐价值实现的理想状态,即是人工智能社会的良性健康和有序。

 

在智能机器人的发展过程中,和谐价值具有引导性功能。为保证人类社会的和谐稳定,对人工智能产品进行伦理设计、限制人工智能技术应用范围、控制人工智能的自主程度和智能水平等,都应以和谐价值作为指引方向和评价准则。

 

2.以伦理为先导的社会规范调控体系

 

人工智能时代的文明,需要相应的行为规范作为社会关系的调整器。就整体而言,文明要求社会对自身内部错综复杂的关系进行自觉的协调,以不断完善自身的组织和管理,达到各种社会关系的有序与和谐。

 

从人类文明创始到现今人工智能时代开启,社会行为规范已然成为一种制度体系。社会规范调控体系或系统,是指在一定的国家、地区、领域内存在的,由一定的社会经济关系所决定的社会规范而构成的相互联系、相互制约的统一体。在社会规范体系中,法律与道德作为两种重要的调整手段,从不同方面、以不同方式、通过不同机制对社会生活的不同领域发挥不同的影响和作用。

 

对于人工智能社会关系的调整,伦理规范具有一种先导性的作用。这是因为法律规范基于现实生活而生成,且立法过程繁琐,因而总是处于滞后境地;而伦理规范可以先行和预设,对已变化或可能变化的社会关系作出反映。


在发达国家,对人工智能的伦理研究早于立法研究。近年来,欧洲机器人研究网络(EURON)发布《机器人伦理学路线图》,韩国工商能源部颁布《机器人伦理宪章》,日本组织专家团队起草《下一代机器人安全问题指引方针》,美国国家科学基金会和美国航天局设立专项基金对“机器人伦理学”进行研究。

 

此外,一些行业组织、公司企业也在伦理规范方面强化人工智能专家的专业责任。例如日本人工智能学会内部设置了伦理委员会,谷歌设立了“人工智能研究伦理委员会”,旨在强调科研人员的社会责任,并对合理研发人工智能提供指导。


概言之,伦理规范的调整功能非常独到且为重要,例如:对智能机器人预设道德准则,为人工智能产品本身进行伦理指引;规定人工智能技术研发及应用的道德标准,对科研人员进行伦理约束。上述伦理规范,为后续法治建设提供了重要法源,即在一定时候,伦理规范亦可转化为法律规范,实现道德的法律化。

 

3.以技术和法律为主导的风险控制机制

 

人工智能技术不仅是高技术,而且是高技术的核心,可称之为高技术核。智能技术的“核爆炸”,既对社会经济带来变革性的影响,也会产生技术性风险,即“人类在利用技术时违背技术自身规律而产生的社会风险”。人工智能时代的风险防范和治理,可采取技术控制与法律控制的综合治理机制。

 

法律控制是风险治理机制的重要手段。立法者必须重视控制风险功能的法治化。例如,专利法具有激励科技创新的制度功能,其授权客体的扩充及其权益保护,即是激励人工智能发展机制的法律表现。与此同时,专利法也要注重权利客体的排除领域,以及禁止权利滥用,限制权利行使等制度规则的适用,限制和排除人工智能的潜在危害。此外,还应辅之于相关科技法律、法规,对人工智能的研发、使用和传播建立限制机制、禁止机制以及惩戒机制。

 

技术控制是风险治理机制的重要措施。技术规制表现为法律规范、政策规定和伦理规则等。风险社会理论指引下的技术规则有以下特点:风险规避的主要路径,是事先预防而不是事后补救(即从技术研究开始规制,以预防技术产生的负面效应或副作用);风险规避的基础范式,是从技术研发到应用过程的责任制度(包括社会道义责任、科学伦理责任和法责任);风险规避的重要措施,是奉行技术民主原则(包括技术信息适度公开和公众参与、公众决策)。

 

防范人工智能的技术性风险,不仅涉及强化法律规制的传统制度改造,而且要求建立以社会监管为重要内容的政策体系,同时形成以全面理性(包括社会理性和科学理性)为基本内涵的风险控制机制。

 

中国正在走向人工智能时代。世界新一轮科学革命、产业变革与我国转变经济发展方式形成历史性交汇。对人工智能的发展和规制进行制度安排,是时代新潮流,也是国际大趋势,更是本土创新发展的内在要求。笔者认为,在制度构建方面,目前有三项重点任务:

 

一是尽快出台国家发展战略,以此作为人工智能政策体系的支撑。从国际层面看,美、德、英、日等国加快人工智能顶层战略设计,从国家层面统筹人工智能发展。在我国,《“十三五”国家科技创新规划》和《“十三五”国家战略性新兴产业发展规划》,对人工智能发展做出重要表述。但总体而言,我国人工智能政策还没有上升到国家战略高度,人工智能的战略地位凸显不足,人工智能发展的统筹协调部门未予明确,政府、社会以及企业的责任分工尚未厘清。

 

国家发展战略应是关于人工智能问题的整体性谋略和全局性安排,它是一个涉及战略目标、战略任务、战略措施的政策制度体系。中国必须高度关注智能革命发展前景以及引发的相关社会变革,尽快作出相应的战略政策部署;

 

二是及时制定《机器人伦理章程》,以此作为人工智能研发、应用的道德基础。在一些发达国家,对人工智能的伦理研究早于法律研究,诸如《机器人伦理宪章》、《机器人伦理学路线图》等,都是将安全评估和风险防范作为人工智能伦理规范的重要内容。

 

我国似可组织政治家、科学家、企业家、法学家参加的专家小组,编写机器人伦理章程,构建人工智能伦理规范,其要义包括:设计伦理框架,为机器人预设道德准则;强化科技专家的社会责任,为人工智能研发、应用提供道德指引;引导公众接纳人工智能,为调整人—机关系规定道德模式;

 

三是适时进行机器人专门立法,以此作为人工智能法律的基本规范。人工智能技术对传统法律制度带来巨大挑战,以至现有的法律理念与规则在“高技术核”面前几乎无所适从。在这种情况下,法律制度需要创新变革自不待言,而寻求一个调整人类与智能机器相互关系的专门法将是一个最终的选择。

 

对此,欧盟的立法行动最快。据报道,欧洲议会已正式向委员会提出议案,拟制定“人类与人工智能/机器人互动的全面规则”,这或将是首个涉及机器人的立法草案。我国在人工智能领域发展相对滞后,但相关立法活动应未雨绸缪,组建专家团队对机器人专门法律开展研究,其重点包括:人工智能的法律地位、人工智能生成内容的权利归属、人工智能损害后果的责任分担、人工智能风险的法律控制等。

 

 

结语

 

未来时代已经到来。这是一个创新的时代,创新不仅反映了人与自然的关系,而且反映了人与人的关系、个人与社会的关系,已成为一个具有普遍意义的关系范畴。人们在生产力、生产关系和上层建筑所有领域中进行的创造性活动,即技术进步和制度变革都是一种创新过程。


智能革命引发的法律、政策和伦理话题刚刚开始,伴随人类社会的知识创新,我们需要跟进理论创新和制度创新。法学家和法律改革家们需要秉持理性主义精神,去发现和探索一个理想的法律制度体系。我们有理由相信,科学技术的智慧之光与法律制度的理性之光,将在人工智能时代交相辉映。


 中国法律评论


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存