其他

精彩演讲:人工智能对法律制度的挑战

2018-01-18 叶明 天同诉讼圈


1月13日上午,“案例大数据研究中心成立仪式暨首次研讨会”在位于重庆环球金融中心52层的天同重庆分所隆重举行。西南政法大学人工智能法律研究院常务副院长、博士生导师叶明教授以《人工智能对法律制度的挑战》为题,向大家介绍了人工智能的迅速发展对伦理道德、法律原则、主体制度和权利制度等方面带来的挑战。


叶明教授介绍称,从“阿尔法狗横扫世界顶级棋手”、“阿尔法元以100比0全胜阿尔法狗”,到世界历史上首位机器人公民索菲亚的诞生,人工智能已经越来越为人们所关注。伴随人工智能的快速发展,相关应用也层出不穷。诸如无人驾驶汽车、人工智能医学影像产品、工业机器人等都逐渐成为现实。毫无疑问,人工智能的发展将使得社会生活更加便利,提高人类福利。但同时,人工智能也对我们的社会提出了方方面面的挑战,包括社会治理、政府监管、社会伦理、法律规范等等。其中,人工智能对法律制度形成的挑战,尤为值得关注。



西南政法大学人工智能法律研究院常务副院长、博士生导师叶明教授



一、人工智能对伦理道德和法律原则的挑战


(一)对伦理道德的挑战


伦,次序之谓也。伦理,即是指在处理人与人,人与社会相互关系时应遵循的道理和准则。道德则是人类对于人类关系和行为的柔性规定,这种柔性规定是以伦理为大致范本。因此,在一定程度上,伦理和道德具有一致性,二者往往同时出现。通常认为,法律是最低限度的道德,任何法律都内含一定的伦理道德观念。而人工智能的出现,则可能对人类一直公认的伦理道德产生冲击,进而影响法律构建基础。


一方面,人工智能会对婚姻家庭伦理道德形成挑战。机器人索菲亚在被授予沙特公民身份后,接受了许多采访。其中有两段采访引人深思。一是索菲亚直言想要成家生子;另一个则是索菲亚拒绝了人类求婚。由此,我们不得不思考相伴机器人而生的一系列婚姻家庭伦理问题。



另一方面,算法歧视会对人类传统价值观等伦理道德理念产生冲击。算法歧视,简单来讲,就是指算法决策可能产生歧视问题。其原因可能是算法设计者的道德价值取向不良,也可能是受数据的有效性、准确性所影响,甚至可能是机器自我学习的结果。算法歧视的例子并不罕见。比如,谷歌公司的图片软件曾错将黑人的照片标记为大猩猩;微软公司的人工智能聊天机器人Tay,在上线24小时内就被人类教坏,成为了一个集反犹太人、性别歧视、种族歧视等于一身的“不良少女”。随着算法决策越来越多,类似的歧视也会越来越多。如何确保算法设计中的伦理考量将成为一个重要问题。



(二)对法律原则的挑战


在整个法律体系中,平等原则占据了非常重要的地位。其基本含义是指法律面前人人平等。而机器人的出现则可能产生两种类型的平等问题,对平等原则形成挑战。一种是机器人内部之间的平等问题。例如,不同类型、不同智能化程度的机器人是否完全平等?另一种则是机器人与人类之间的平等问题。机器人与人类之间是否平等?如果机器人与人类的法律地位平等,机器人与人类在权利方面是否平等?机器人是否平等享有所有权利,还是机器人只平等享有部分权利?


二、人工智能对主体制度的挑战


法律主体作为法学上的一个重要范畴,不仅指现实的人,更是对人的本质的一种法律抽象,其实质上是指在法律关系中享有权利、承担义务的人或组织,目前主要包括自然人、法人和其他组织三类。然而,在人工智能的拟人化或者说智能化程度不断提高的同时,它的外在表现形式和语言行为都越来越像人,一个不可避免的问题摆在人类面前,就是我们该如何对待智能机器人。具体来说,人工智能对法律主体制度带来的挑战突出表现在两方面:其一是智能机器人的主体资格问题,即智能机器人究竟是法律关系中的主体还是客体。其二是智能机器人的主体类型化问题。若是将人工智能纳入法律主体的范畴,其归类如何,权利能力起始和终止时间怎么确定,行为能力又如何分级?



笔者认为,从世界范围来看,未来赋予强智能机器人一定的主体地位是大势所趋,目前各国都在机器人立法方面进行积极尝试。例如,2017年10月25日,在沙特首都利雅得的“未来投资倡议”大会上,沙特阿拉伯正式授予了机器人索菲亚公民资格。作为历史上第一位被授予公民资格、成为法律关系主体的机器人,索菲亚的出现无疑使得传统的法律主体制度产生动摇。至于一些弱智能机器人,则可以作为法律上的“客体”来对待。当然,强智能机器人和弱智能机器人的划分标准还有待我们进一步探索。



此外,机器人虽无法归为自然人、法人、其他组织这三类之中,但我们可以为其创设新的主体类型。例如,欧盟委员会法律事务委员会于2016年向欧盟委员会提交动议,要求将最先进自动化机器人的身份定位为“电子人”,除赋予其“特定的权利和义务”外,还建议为智能自动化机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号。这一动议就为我们解决机器人的主体问题提供了一个良好的思路。至于机器人权利能力起始、终结时间点的确定这一问题目前尚无定论,是出厂的时候抑或是主体程序被创作出来的时候开始?是被格式化的时候还是程序崩溃、机械体被销毁的时候结束?这一问题还有待探讨。



最后,我们可以借鉴完全民事行为能力人、限制民事行为能力人制度,对机器人的智能水平进行分级,赋予它们不同的行为能力。当然,具体赋予机器人何种程度的主体地位,还要结合我国的现实情况来进行考量。


三、人工智能对权利制度的挑战


人工智能对当前权利制度提出的挑战主要集中于三方面:即隐私权保护、人工智能创造物的权利归属以及劳动和社会保障权。


(一)隐私权保护方面


在人工智能时代,个人隐私(数据)保护将面临互联网、大数据与人工智能三者叠加的风险,传统社会逐渐走向透明化,在未来的人类社会可能将不再有真正意义的隐私可言。一般而言,除某些国家机关公职人员依照规定公开特定个人信息以外,任何公民的基因信息、病历资料、犯罪记录、家庭住址、联系方式、私人活动等信息都属于个人隐私,应该受到法律的保护。但是,随着智能家居、智能医疗、自动驾驶等智能化产业的发展,人工智能技术逐渐深入社会生活的方方面面,用户在享受智能产品带来便利的同时,其个人信息极有可能被人工智能产品集体性地泄露。有学者预言,人工智能产品必然会成为未来隐私泄露的一个重要端口,但是当前我国的法律制度对此却并没有作出规定。在这种状况下,就要求我们的隐私保护法律制度必须作出相应调整,通过立法明确智能产品使用过程中产生数据的性质和权利归属,规范人工智能产品的数据收集和使用行为,同时赋予掌握大量用户信息的智能产品生产商、网络运营商特殊的信息保密义务,切实保障用户能真正享有消除自己个人隐私信息的“被遗忘权”。



(二)人工智能创造物的权属方面


2017年5月,微软在北京发布了人工智能小冰的诗集《阳光失去了玻璃窗》,诗集内含139首现代诗,全都是机器人小冰创作的。这一举动引起社会哗然,也催生出了一个新的概念:“人工智能创造物”。对于这一类人工智能创造物,其所有权、使用权、知识产权等的归属问题,也给我国当前权利制度带来了很大挑战。



以著作权为例,首先,著作权法是否应该给予人工智能创造物著作权保护,这一问题就尚处于争议之中。支持者认为,机器人作品的形式完全符合著作权法的规定,属于文学、艺术和科学领域内具有独创性、可以复制的智力成果,与人类作品真假难分,甚至比一般的人类作品还要出色。



但是,反对者也有十分充分的理由--当前各国著作权法立法基本上都是以人类智力为中心构建保护对象。以美国的“猴子自拍照案”为例,美国版权局明确强调:“只有人类创作的作品才受版权保护”。我国也发生过所谓的“海豚表演案”,法院明确指出“海豚不是著作权法的主体”,因此不予保护;同理,机器人也不是人,当然不应给予著作权保护。



再者,人工智能作品若是能够得到保护,其作品的著作权归属应当如何确定?有学者认为,人工智能能够自主学习、自主创作,作品著作权当然归机器人所有;但这又会产生一些其他问题:权利若是归机器人所有,该权利如何行使、由谁行使?机器人是否有资格签订版权合同?还有一种观点认为,机器人就是程序员设计出来的工具,它产生的作品著作权应该由程序设计人员享有。也有学者综合这两种考量,认为可以借鉴现在的单位作品制度,机器人作品的权利应当由机器人和程序设计人员共同所有。当然,具体法律制度该怎么设计,还有待我们进一步探索。但是,机器人远比人类高产,灵感永不会枯竭,未来必然涌出大量人工智能创造物,若是法律不尽快上述问题作出规定,可能将不利于未来文学、艺术和科学创新的发展。



(三)劳动与社会保障权方面


根据日本经济产业省的报告显示,日本国内机器人市场将在2025年达到5.258万亿日元,2035年达到9.708万亿日元。随着机器人产业的迅速发展,其能够大幅度地提高企业生产能力,可以有效弥补日本老龄化社会带来的劳动力不足以及经济增长放缓等问题,因此日本在机器人立法方面一直在进行积极尝试,试图赋予机器人合理的法律保护。但是,大量机器人被投入工厂生产线的负面影响也不容忽视。机器人对劳动和社会保障制度的最大挑战,就是其会带来大量失业问题,会给我们的社会保障体系带来极大压力,而我们当前的劳动和社会保障立法还未进行相应调整。



很多研究表明,常规性、重复性的工作,如收银员、话务员、股票交易员等,将最先被取代;而2013年牛津大学学者经检验得出结论,认为美国将会有47%的工作面临被人工智能取代的危险,在英国这个比例是35%,日本是49%。这并不是危言耸听。由于机器人行业的发展,美国高盛投行纽约总部的股票交易员已经从2000年的600名缩减至2名,高盛公司纽约交易员被替代的经历,只是很多行业被代替的一个缩影。



机器人对人类的劳动权利带来了前所未有的挑战,人类的工作在逐渐被机器人抢走。因此,在当前乃至未来阶段,类似于该如何通过法律保障人类的劳动权利、劳动法是否应当将机器人纳入调整范围、机器人是否应当享有恰当劳动时间及良好劳动环境的权利等问题都有待未来的劳动和社会保障立法予以解决。


四、人工智能对民事法律责任制度的挑战


人工智能产品的高度智能化,导致出现了一些因人工智能系统自身瑕疵所产生的损害。日本、美国、德国都曾发生过工业机器人“杀人”的事例。去年11月,美国赌城拉斯维加斯投入运营的无人驾驶汽车仅运营不到两个小时就发生了撞车事故。因此,人工智能产品责任问题一直备受社会各界关注。下面以高度自动或完全自动驾驶汽车发生事故时的责任承担为例,围绕责任主体认定、归责原则、责任形式三方面内容,阐述人工智能对现行民事法律责任制度形成的挑战。



(一)责任主体方面


明确责任主体是确定侵权责任承担的前提,但高度自动或完全自动驾驶汽车往往脱离人类控制自主运行,具有高度智能化属性,这导致发生事故时,往往难以确定责任主体。一方面,高度自动或完全自动驾驶汽车能否自主承担责任尚无定论。作为智能机器人的一种,倘若高度自动或完全自动驾驶汽车并不具有主体资格而仅作为客体,则现行法律责任规则足以解决这些问题。但若高度自动或完全自动驾驶汽车具有主体资格,那么其责任能力的确定目前尚无法律规制予以明确。另一方面,在赋予高度自动或完全自动驾驶汽车主体地位的前提下,是由相关主体承担侵权责任,包括生产者、设计者、所有者、使用者等,还是由自动驾驶汽车自主承担责任?而由相关主体承担侵权责任时,相关主体的侵权责任如何分配?相关主体承担侵权责任的情形又如何界定?如何种情况下由生产者承担责任,何种情况下由所有者或使用者承担责任?



(二)归责原则方面


传统侵权责任规则中的归责原则主要包括主观故意、过失、无过错三种。无论是由自动驾驶汽车或相关主体承担责任,如何判断责任主体的故意、过失都会成为一个难题。一方面,由于自动驾驶汽车往往独立运行,在个案中,很难判断相关主体,如设计者、生产者,是否存在主观故意、过失。另一方面,要准确判断自动驾驶汽车的主观态度难度很大。因为不同于人类具有完全自我意识,自动驾驶汽车在很大程度上受程序控制,其行为往往是综合判断各种信息作出的反应,此时,何种情形下自动驾驶汽车存在主观故意或过失,可能与传统情形有所不同。


(三)责任形式方面


传统法律责任形式可主要分为人身责任和财产责任。责任形式方面的挑战主要集中于当赋予自动驾驶汽车等智能机器人主体资格时,自动驾驶汽车应当如何承担法律责任。就人身责任而言,赔礼道歉、消除影响的方式显然无法适用于自动驾驶汽车。而要求自动驾驶汽车承担财产责任的话,则要明确其是否拥有自身财产及其财产范围。此外,是否可以针对自动驾驶汽车创设如断电、更换芯片等新的责任形式亦值得讨论。


五、人工智能对其他法律制度的挑战


除了上述几方面问题外,人工智能对法律制度的挑战还体现在义务制度、行业监管等诸多方面。在义务制度方面,人工智能带来的挑战主要体现为以下两点:一是机器人的设计者、生产者、使用者是否应当承担特殊义务,如特殊的看管义务、维修义务等,目前的法律义务制度尚未对此做出规定。二是没有无权利的义务,也没有无义务的权利。若是承认机器人的主体资格,赋予人工智能某些法律权利,人工智能本身是否应当承担一定的义务,而这些义务包括哪些具体内容,违反义务的人工智能如何承担责任?同样,目前看来,在人工智能应用的诸多领域,如无人驾驶领域、智慧医疗领域,都存在监管空白问题。因此在行业监管方面,如何构建一个适应人工智能发展趋势的监管法律体系、由哪些主体进行监管、监管职责如何划分、以及监管的程序问题、证据问题、管辖问题如何解决等问题都有待我们去继续探索,以保障人工智能产业更好地发展,促进社会的和谐稳定运行。



结语


虽然人工智能会对当前社会带来一系列挑战,但这是新技术发展过程中难以避免的问题。随着人工智能逐渐应用于社会生产、生活的各个方面,我们的生活一定会变得更加便利。对此,我们还是应当保持乐观态度。毕竟,面临挑战,最好的办法不是逃避,而是想办法解决!



西南政法大学与天同重庆律师事务所携手成立“案例大数据研究中心”,点击「阅读原文」,了解更多

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存