华政学报 | 刘宪权 林雨佳 人工智能时代技术风险的刑法应对
人工智能时代技术风险的刑法应对
刘宪权,华东政法大学教授。
林雨佳,华东政法大学博士研究生。
目 次
一、人工智能时代存在的技术风险
二、人工智能技术风险与克隆人技术风险的差异
三、人工智能时代技术风险的刑法应对理念
四、人工智能时代技术风险的刑法应对措施
五、结语
摘 要 人工智能技术应用过程中的风险是人工智能技术的“内在风险”,包括冲击现有的秩序与制度,侵犯公民个人信息与隐私等。人工智能产品风险是人工智能技术的“外在风险”,其可能对人类社会造成威胁甚至实际的危害。人工智能技术风险不同于克隆人技术风险,因为人工智能技术对人类传统的伦理道德并未造成实际的背离,且是被鼓励和支持发展的技术,其发展趋势具有不可预测性,其对人类社会生活的影响是“渗透式”的。面对人工智能时代的技术风险,应追究人工智能缺陷产品研发者的刑事责任,包括故意和过失。应追究利用人工智能技术实施犯罪行为的刑事责任,同时,在刑法中确立智能机器人的刑事责任主体地位,增设删除数据、修改程序、永久销毁等刑罚种类。
关键词 人工智能 技术风险 克隆人技术 产品责任 刑事责任主体
科技的进步与发展带来了时代的更迭,人工智能技术的快速发展打开了人工智能时代的大门。与此同时,人工智能时代中各种技术风险也可能始料未及。例如,人工智能打码平台可以实现从撞库盗号、破解验证码,到贩卖公民信息、实施网络诈骗的全链条黑产,可见人工智能技术可以被利用于攻击公民个人信息数据库。在这种情况下,刑法应当如何应对这些科技发展过程中所出现的技术风险?对此,刑法学界已有过相关的讨论,例如有学者提出风险刑法理论,对此提倡与批判的声音都有。笔者认为,与其他技术风险相比,人工智能时代的技术风险具有一定的特殊性,所以有必要就人工智能时代刑法应当如何应对技术风险的问题展开专门的讨论。
一、人工智能时代存在的技术风险
首先,人工智能技术应用过程中存在风险,此为人工智能技术的“内在风险”。近年来,人工智能呈现出爆发式的快速发展,这并非是偶然,而是因为人工智能技术所必需的三个要素在近年来已经基本发展成熟了。这三个要素分别是算法、深度学习和大数据。这三个要素的发展推动着人工智能技术的不断完善。然而,笔者认为,人工智能技术对这三个要素的依赖会带来一定的风险。
一方面,人工智能技术通过一定的算法对大数据进行深度学习,该过程的实现最终可能对人类现有的制度造成一定的冲击。简言之,人类生活现有的制度都是基于人类的基本能力而设计的,如果有突破人类极限的“能力”产生,那么人类生活现有的制度也必然被突破。AlphaGo Zero仅通过三天学习即战胜曾经打败世界围棋冠军的AlphaGo,它的出现让我们明白了,人工智能产品可以突破人类的极限,其掌握的规律与规则完全可以突破人类几千年积累下来的经验。在这种情况下,人类社会生活的格局和秩序完全可能被人工智能技术所打破。以证券市场为例,如果人工智能技术可以通过运算完全实现对趋势风险的控制,几乎无误差地计算收益,那么此时证券市场中最基本的“三公”原则就已经被彻底瓦解,证券市场存在的意义以及交易的规则似乎应该被重新思考和定义。
另一方面,人工智能技术对于公民个人信息和隐私的侵犯可能是史无前例的。对于人工智能技术而言,一个强大的数据库是十分必要的,而数据的收集过程可能并不尽如人意。在人工智能时代,许多互联网技术公司通过人工智能技术实现了信息的精准分发。如今许多社交网站和新闻网站,其通过一定的算法了解用户的需求,并根据用户的需求对其推荐信息与新闻。从某种程度而言,在人工智能技术面前,我们人人都仿佛穿上了“透明衣”,被人工智能技术“一览无遗”,数据收集过程中的公开性、透明性和合法性都受到了威胁。在这种情况下,数据的集中和挖掘已经成为一种确实存在的风险,因此,对于数据的集中和挖掘似乎也需要加以限制。身为人工智能技术“门外汉”的普通民众甚至都不知道自己的信息和隐私是在何时何地被泄露的,可能仅仅是在手机上一个简单的操作就暴露了自己想要购买某件商品的想法,从而在接下来信息接收的过程中会不断受到同类商品的广告和宣传。事实上,笔者曾经论述过,数据的集中本身就是风险,因为数据就代表着信息,数据一旦形成数据库就意味着不法分子只需要通过攻击一次数据库就能获得大量信息,从而降低了犯罪成本。随着人工智能的快速发展,脑机技术已经不是天方夜谭了。脑机技术可以实现人脑与计算机或其他电子设备之间直接的交流和控制通道,即通过脑机技术,人可以通过“意念”实现对机器设备的操控,可以与机器、设备直接进行“交流”。目前,脑机技术已经应用于帮助身体严重残疾的患者实现与外界的交流,被认为是身体严重残疾患者的“福音”。但是,人们在享受“福音”的同时,则必须意识到,未来我们很有可能再也无法隐藏内心的想法,因为,我们在操控机器的同时,机器也在“读懂”我们内心的想法。如果人工智能技术可以帮助黑客随时入侵我们的大脑,在这种情况下,我们还有什么隐私可言呢?
其次,人工智能产品存在风险,此为人工智能技术的“外在风险”,即利用人工智能技术生产、研发的产品可能对人类社会生活造成威胁。诚然,人工智能技术给人类的社会生活带来了许多翻天覆地的惊喜变化,我们所向往的“智能生活”实际上已经出现或者近在咫尺。但是,我们应该清楚地看到,人类在享受智能生活的同时,人工智能技术同样有可能被不法分子所利用从而制造出威胁到人类社会的人工智能产品。姑且不论人工智能最终是否会超过人类智能,但时下一些人工智能技术的应用,就足以令人不寒而栗。以“机器人杀手”为例,其可以不经过人类干预,自主选择和攻击包括人员和装备在内的军事目标。包括霍金、马斯克在内的数千名在各自领域享有盛誉的知识分子联名公开警告:必须取缔“机器人杀手”的研发和应用,人工智能方面的军备竞赛可能是人类的灾难,它将助长战争和恐怖主义,加剧世界动荡局势。笔者认为,尽管我们时下尚处于弱人工智能时代,即人工智能只能根据设计和编制的程序内容对外界刺激做出应对方案,我们只需要对人工智能产品的研发者或使用者的行为进行规制即可。但随着人工智能技术的不断发展,未来我们很有可能进入强人工智能时代。在强人工智能时代,人工智能产品可以产生自主意识和自我意志,智能机器人可以在设计和编制的程序范围外实施行为,此时智能机器人完全可能会对人类的社会秩序造成严重破坏,这似乎也并非是没有根据的无稽之谈。无论是霍金,比尔•盖茨,还是马斯克,都多次强调人工智能完全可能对人类造成威胁。无论如何,我们应当认为这些警惕与忠告对于人类社会的发展具有重要的价值与意义。
二、人工智能技术风险与克隆人技术风险的差异
时下,理论上确实有学者认为,我们对于人工智能时代中的技术风险过分敏感了,人工智能并不会对人类的社会生活造成实质性的改变,就像我们在过去所一直担心的克隆人技术,也并没有造成什么实质性的灾难。笔者认为,人工智能时代中的技术风险不同于以往历史进程中所出现的克隆人技术风险。我们所提及的人工智能时代的技术风险实际存在且必须引起我们的高度重视,理由如下。
第一,人工智能技术研发较少牵涉到伦理道德内容,而克隆人技术则从开发和发展的始终都存在对伦理道德背离的问题。由于时下绝大多数人工智能产品与人类从外形到内质实际存在很大的差异,因而现在确实还很难看到或预测到人工智能技术的发展在伦理道德上会给人类带来什么危害。也正是因为这一点,人工智能技术的研发不存在伦理道德上的障碍。但是,克隆人技术对于人类传统伦理道德观念的冲击则十分巨大。人们很快意识到克隆人技术所可能带来包括对人类传统伦理道德冲击甚至颠覆等方面的风险,因而及时通过政策和法律将克隆人技术加以限制甚至禁止。也因此,对于克隆人法律制度的讨论仅仅是“昙花一现”。但是,人工智能技术的研发虽然可能也涉及伦理道德问题,例如,智能机器人的自主学习能力可能会对人类社会带来一定的冲击,但是我们完全可以通过将人类规范和道德价值嵌入智能机器人系统的方式解决这些问题,我们不会因为智能机器人的伦理道德问题而禁止研发智能机器人,相反全球各国纷纷出台人工智能发展战略,人工智能技术已经成为国际竞争的新焦点。
第二,人工智能技术已经给人类社会带来了巨大利益,而克隆人技术所可能产生的利益则十分有限。时下,在语音、视觉识别,智能监控,工业机器人,服务机器人,无人驾驶等众多领域,人工智能技术的运用已经为人类社会注入了发展生机和新鲜血液,人们已经实实在在享受到人工智能技术带来的“福利”,并且在人们普遍接受的基础上,期待在未来过上“全面智能”的生活。可以认为,人工智能技术对人类社会生活的影响是“渗透式”的,覆盖面极其广泛,人工智能技术可以应用于社会生活的方方面面。相比之下,克隆人技术的开发和发展并非能为人们所普遍接受。尽管众所周知,克隆人技术可以应用于器官移植、检测遗传缺陷等多项生物技术领域,但是,这种“利益”并没有实实在在让人看得见、摸得着,从而很难改变人类对克隆人技术“不信任”甚至“排斥”的态度和看法。同时,克隆人技术只能应用于生物医学等领域,其应用范围绝对无法与人工智能技术相比。
第三,人工智能不仅是一项技术,而且还引发一个已经到来并将迅速发展的“全新时代”,而克隆人仅仅只能是一项技术,而不可能成为“一个时代”。克隆人技术的应用范围十分有限,其不可能引发“一个时代”出现,对现有社会生活、法律制度的冲击则不会很大。人工智能技术的快速发展让人不禁联想到互联网技术的快速发展。当互联网技术刚兴起时,我们的法律制度并没有对互联网时代的到来做好充分的准备,也因此当网络犯罪实实在在出现时我们常常遭遇束手无策的困境。如今,又一个崭新的时代到来了,涉人工智能犯罪完全可能像涉互联网犯罪一样生态化,我们应吸取前车之鉴,积极思考人工智能时代可能给我们带来的改变与风险,积极预防涉人工智能犯罪,从而遏制人工智能犯罪泛滥,保护国家利益、社会安全和公众的合法利益。
第四,人工智能技术的研发趋势以及可能给人类带来的危害具有不可预测性,而克隆人技术的开发和发展趋势以及与生俱来的风险完全可以预见。诚如前述,人工智能时代可以分为弱人工智能和强人工智能时代。在弱人工智能时代,虽然人工智能产品对社会所作出的反应均是在设计和编制的程序范围内,但是,其可能被研发者或使用者作为违法犯罪的工具加以利用,则是完全可以想象得到的。另外,人工智能技术对我们而言是完全崭新的领域,即使是在弱人工智能时代的当下,我们都已经明显感到,一些人工智能产品的“智慧”已经并将继续超过人类。可见,人工智能技术未来会发展到何种程度我们都无法预测,人工智能产品会引发不可预知的问题,显然是毋庸置疑的。与此同时,未来人工智能将走向何方仍是个未知数,人类一旦进入强人工智能时代,真的出现了能够做出程序的设计者无法预想和控制的行为的智能机器人,如果他们威胁人类,我们又如何加以应对?但是,克隆人技术的开发和发展趋势则是一目了然,其充其量也就是可以克隆出一个与被克隆人完全相同的人而已,其对人类社会的危害风险也是可以预测和想象的。
第五,人工智能技术是受到国家政策鼓励和支持发展的技术,而克隆人技术则仅是受限制甚至被禁止的技术。人工智能技术已然成为国际竞争与合作中重要的关键点,人工智能技术势必会影响世界各国未来的发展战略。从我国发展政策来看,国务院已经发文明确要举国之力发展人工智能技术。正是由于人工智能技术给人类社会生活带来的进步不可估量,且其研发受到多方鼓励和支持,因而其实际可能存在的风险往往容易被忽视。但是,由于我们从一开始就关注克隆人技术给人类社会带来的危害,因而在世界范围内,时下大多数的国家和组织都明确禁止或严格限制克隆人技术的应用。就此而言,我们完全可以说,克隆人技术所带来的风险是“看得见的风暴”,而人工智能技术所带来的技术风险则是“无形的暗剑”,“看得见的风暴”可以躲避和预防,而“无形的暗剑”则很难应对甚至容易被伤害。
综上所述,笔者认为,正是因为人工智能技术现在已经并将继续给人类社会带来巨大利益,人们普遍不会对这一技术的研发趋势感到“恐惧”,这才是真正的“可怕”之处,如果我们对此不加以高度关注和警惕,后果恐怕难以想象。而克隆人技术的开发和发展,从一开始就让人类感到“可怕”,我们就会在源头上对这一技术加以限制甚至禁止。可见,我们对于人工智能技术可能带来的风险应当更加积极地防范,确保社会生活的安全万无一失。
三、人工智能时代技术风险的刑法应对理念
正如前文所述,人工智能时代的技术风险是确实存在的。我们虽然不能因噎废食,放弃人工智能技术的研发,但对于这些风险,我们应当积极进行防控,否则可能将出现难以控制的局面。那么,刑法在人工智能时代技术风险防控的过程中需要扮演什么样的角色?事实上,风险并不是人工智能时代的专有名词,现代社会本就是充满风险的,各种风险都可能对人类的生存与发展造成一定的威胁。德国著名社会学家乌尔里希•贝克在论述现代性社会特征之时首次较为系统地提出“风险社会”的概念。贝克认为,风险社会是现代社会发展过程中的一个阶段,在风险社会阶段,人类实践活动所导致的全球性风险占据了主导地位,此时,各种全球性风险对于人类的生存和发展都造成了一定的威胁。对于风险社会,有刑法学者提出传统刑法观念需要进行一定的转变,在风险社会中应当倡导风险刑法。风险刑法的倡导者认为,在风险社会的大背景下,刑法作为重要的部门法,应当以积极的方式面对风险,在传统刑法无法应对多种多样的风险时,应当进行一定的变革。从具体主张而言,有学者提出风险刑法下刑法立法的技术有八种:立法拟制,推定,行为范畴的拓展,犯罪标准的前移,责任范围的扩张与责任形式的多样化,犯罪构成要素的增减,因果关系准则的创新,法定量刑情节的设置。也有学者提出建构风险刑法的范式包括五个方面:法益抽象化,行为拟制化,刑罚前置化,罪责功能化和预防积极化。与此同时,许多学者也提出“风险刑法”本身就具有一定的风险,包括难以划定明确的处罚界限,似乎动摇了刑法谦抑主义的价值观念,不利于自由的保障等,同时风险刑法还面临着难以确定罪责主体,容易受政治和政策变化影响等问题带来的困境。因此,风险刑法理论同时也受到刑法理论界一定的批判。
笔者认为,无论是风险社会,还是风险刑法的提出,都具有一定的意义,这种意义不在于我们要急于改造现有的法律体系和传统刑法理论,而在于这些问题的提出有助于我们反思现代科技的进步与发展给人类社会带来的影响,有利于社会秩序的巩固与维护。传统刑法注重实害结果,以保护法益为基本目的。传统刑法背后的公平、正义、谦抑等基本核心价值是我们所必须尊重的。但是,在面对现代社会的种种技术风险之时,刑法不应当无动于衷,对可能威胁社会的风险持漠然的态度。从刑法的功能与价值角度而言,刑法一个重要的功能和任务就是维护社会秩序、经济秩序,保护社会中各项生活的正常进行。因此,刑法应当正视包括人工智能时代技术风险在内的社会风险。但与此同时,笔者也认同在风险社会下,刑法理论不应当动摇刑法的谦抑主义。因此,在风险社会这个特定的时代背景下,一个理想的刑法体系应当是传统刑法范式与风险刑法范式并存的,刑法所扮演的角色应当是在自由与秩序激烈碰撞的社会生活中为民众寻求一个平衡之所。人工智能时代的刑法一方面需要对技术变革带来的风险进行严格防控,另一方面要谨慎设置犯罪圈的大小,遵循刑法的谦抑性,不对人工智能时代的技术创新与科技进步产生负面影响。
应当承认,在这个充满风险的社会中,并不是所有风险都应当交由刑法来应对。要应对社会中出现的各类风险,维护和巩固社会生活的正常秩序,必须依靠系统、全面的风险应对体系。在这个风险应对体系中,包括民法、行政法等前置法在内的其他部门法占有重要地位。同时,刑法作为“最后一道防线”和最为“严厉”的法律,对于技术风险的防控也必不可少。但是,刑法对于后工业时代带来技术风险的应对理念不应一概而论。因为所有的技术都可能带来一定的风险,不同类别的技术应当有不同类型的风险应对机制。笔者认为,在后工业时代技术可以分为三类:一是需要被绝对禁止的技术,二是需要被相对禁止的技术,三是需要支持发展的技术。首先,需要被绝对禁止的技术主要是会给人类社会带来灾难的技术,例如生物、化学武器等。这些技术的发展对人类社会的进步与发展不仅无益而且有害,因此需要被绝对禁止。其次,需要被相对禁止的技术指的是对人类社会具有一定积极意义,但其存在具有十分高的风险性,一旦发展可能弊大于利的技术。例如,笔者在上文提及的克隆人技术,克隆人技术的出现给人类器官移植等领域带来了光明,但与此同时,人们对于克隆人技术可能带来人类社会道德伦理方面的危害存有担忧。正因为如此,世界范围内大部分的国家和地区都明确提出要严格限制及禁止克隆人技术。可见,克隆人技术属于需要被相对禁止的技术。最后,需要支持发展的技术,指的是以互联网技术和本文重点讨论的人工智能技术为代表的技术。这一类技术给人类社会生活注入了新鲜的血液与生命力,是人类社会进步的重要动力。但是,此类技术同样具有一定的风险性,例如互联网技术和人工智能技术同样也会为不法分子所利用,在方便人类社会生活的同时也可能使犯罪行为“如虎添翼”。同时,由于技术发展的未知性和不可预测性,加之对于此类技术的发展往往缺乏必要的“警惕性”,人们往往只看到科技发展积极的一面,而忽略了科技的发展其实是把“双刃剑”。此时,对于此类技术可能带来的风险一旦采取消极的甚至放任的态度,后果可能不堪设想。
事实上,科技与犯罪的结合已经给我们的社会生活带来了许多负面影响。在网络时代利用新型技术盗窃、诈骗、敲诈勒索、侵犯公民个人信息、传播淫秽物品等案件层出不穷。与传统犯罪相比,网络犯罪产业链的上中下游犯罪分工明显,同时跨地域、跨国犯罪的特点十分明显,犯罪证据难以挖掘。在此情况下,《刑法修正案(九)》新增拒不履行信息网络安全管理义务罪,非法利用信息网络罪,帮助信息网络犯罪活动罪等涉信息网络犯罪的罪名用于打击网络犯罪。人工智能技术一旦与犯罪相结合,可能如同甚至超过网络犯罪一样,成为新型超个人法益或集体社会法益的犯罪。因而,在人工智能时代,维护科技发展所带来的不确定风险和维护安全的社会秩序或许就成为刑法的重要使命。利用刑法来防范人工智能技术所带来的风险并非是无端扩大犯罪圈,而是存在积极意义的。
四、人工智能时代技术风险的刑法应对措施
基于上文笔者对于人工智能时代技术风险的讨论,笔者认为有必要采取具体的措施来应对人工智能时代的技术风险。
首先,对于人工智能时代的“外在风险”,追究人工智能缺陷产品研发者的刑事责任。人工智能技术和互联网技术有一定的相似性,但两者也有一定的不同,这种不同主要表现在技术与产品的关系上。互联网技术对于产品的主要作用类似于通讯媒介,其帮助产品扩大传播面积,实现信息互动等。而人工智能技术则不同,人工智能技术对于产品的主要作用在于其可以增强产品功能,甚至可以改变产品的性质。当然,互联网技术与人工智能技术是相辅相成的,很多时候都是相互牵连的。如果说互联网技术扩大了产品的“广度”,则人工智能技术加强了产品的“深度”。“广度”往往不会改变产品的性质,例如,互联网金融平台与传统金融产品平台相比,其增加了中小投资者的投资渠道,但其本质仍然是金融平台,本质上从事的仍为金融业务。互联网金融犯罪与传统金融犯罪相比可能在社会危害性上有所区别,行为本身不可能有“质”的改变,但互联网技术不改变互联网金融平台本身的性质,互联网金融平台应当被视为一项金融创新。但“深度”往往可能改变产品本身的性质,假如未来出现了人工智能金融产品的话,由于人工智能技术的特殊性,其可能很大程度上就突破了现有金融领域的秩序与规则,例如,证券、期货市场上使用人工智能技术可能违反基本的“三公”原则。就此而言,笔者认为,互联网技术或互联网产品本身的研发过程不涉及刑事责任,互联网犯罪主要是互联网技术应用过程中产生的犯罪行为,也即互联网技术只存在“内在风险”而不存在“外在风险”。但是,人工智能技术则不同,人工智能产品更不同于其他技术类产品。在高深的人工智能技术面前,社会民众是“弱势群体”,人工智能产品的研发者有义务保证人工智能产品的安全。人工智能产品的研发者掌握了可能会影响时代变迁的技术,甚至掌握了许多重要的数据和资料,在此情况下,刑法需要对不当利用人工智能产品的行为加以干预才能保证社会秩序的稳定。追究人工智能缺陷产品研发者的刑事责任并非是在妨碍人工智能产品的研发。事实上,现行刑法对于假药、劣药、医用器材、化妆品等产品责任的追究也从未阻碍这些技术与产品的发展。相反,追究人工智能缺陷产品研发者的刑事责任能够引导人工智能技术的健康发展,保证人工智能技术快速发展的过程中社会安全秩序仍然保持稳定。因此,追究人工智能缺陷产品研发者的刑事责任并非是在“危言耸听”,在不同时代产品研发者有不同的义务,在强大的人工智能时代,人工智能产品的研发者作为社会成员有义务保证人工智能产品的安全。为了避免出现因为人工智能产品而导致的“人工智能事故”,我们有必要从源头上进行风险防控,避免研发威胁到人类社会的人工智能产品。就我国目前刑法体系而言,对产品刑事责任的追究针对的主要是生产、销售伪劣商品的故意犯罪,对于过失行为导致的产品责任司法实践中往往只按照民事侵权案件进行处理。由于上述人工智能产品所具有的种种特殊性,似乎仅仅依照生产、销售伪劣商品的故意犯罪来追究人工智能缺陷产品研发者的刑事责任无法完善对于人工智能技术“外在风险”的防控。具体而言,笔者认为,人工智能缺陷产品研发者可能需要承担故意和过失两种刑事责任。
一方面,研发者故意研发对人类社会有危害的人工智能产品,可能包括两种情况:其一是研发者为了实现某个犯罪目的而研发人工智能产品,其二是研发者明知人工智能产品未达到安全标准而放任其投入市场。如果研发者为了实现某个犯罪目的而研发“有害”人工智能产品,此时应将该人工智能产品理解为行为人的犯罪工具。以“机器人杀手”为例,行为人为了杀害某个对象而故意研发“智能杀手”来帮助自己实现杀人目的,此时,“智能杀手”实施的杀人行为应当理解为行为人利用“智能杀手”实施杀人行为,我们应当根据行为人利用人工智能产品具体实施的犯罪行为,依照刑法的规定,对行为人定罪量刑。如果研发者并不是为了实现某个具体的犯罪目的,而是在明知人工智能产品未达到产品安全标准的情况下,仍然研发了该人工智能产品,放任其投入市场,笔者认为,此时应通过新增罪名来对此类行为人进行定罪处罚。新增罪名的主要目的包括以下几点:一是加强人工智能技术的风险防控,可以通过刑法对于行为的警示作用来加强人工智能产品研发者的责任感。刑法以外法律法规的规制不足以威慑到人工智能产品的研发者,无法对人工智能风险起到防控作用;二是现行刑法的罪名设计并不能很好地规制此类犯罪行为,如果仅仅依靠生产、销售不符合安全标准的产品罪等罪名来规制此类犯罪行为,那么一旦发生人工智能产品致人严重死伤的案件,将会造成与故意杀人罪、故意伤害罪等罪名法定刑不均衡的局面。应当看到,滥用人工智能技术生产产品的行为已然触犯了公民最宝贵的核心利益,即人类社会的安全问题,刑法需要对其加以特别规制。
另一方面,过失犯罪以违反一定义务为前提,如果违反了预见义务,即“应当预见但没有预见”或“已经预见但轻信可以避免”,则成立过失犯罪。笔者认为,判断人工智能产品研发过程中是否具有预见义务应当以研发行为发生当时的技术水平为主要标准。如果根据这个标准,研发者在研发人工智能产品的当时是“应当预见但没有预见”或“已经预见但轻信可以避免”产品所造成的危害时,如果人工智能产品最终造成了危害结果,研发者需要承担相应的刑事责任。如果根据研发行为发生当时的技术水平,研发者根本无法预见产品的危害结果,那么法律也不应当强人所难,应当将研发人工智能产品最终造成危害结果理解为意外事件。以自动驾驶汽车的研发为例,在高度自动化的情况下,自动驾驶汽车所作出的驾驶指令主要依靠自动驾驶系统。如果自动驾驶汽车发生了交通事故,此时对于刑事责任的分析似乎就已经不再局限于道路交通责任,我们还需要考虑自动驾驶汽车研发者的产品责任。如果自动驾驶汽车的研发者根据研发当时的科学技术水平对于危害结果具有预见可能性,或没有采取措施尽力避免危害结果的发生,最终自动驾驶汽车发生交通事故造成严重的危害结果,自动驾驶汽车的研发者需要对此承担相关刑事责任。
其次,对于人工智能时代的“内在风险”,追究利用人工智能技术犯罪的行为人的刑事责任。传统犯罪行为与人工智能技术的结合与互联网技术的结合一样,完全可能使传统犯罪行为本身的社会危害性发生变化。例如,利用人工智能技术收集涉国家安全的数据,破坏政府信息系统等行为。面对互联网时代复杂多变的涉互联网犯罪,《刑法修正案(九)》专门设立了非法利用信息网络罪、帮助信息网络犯罪活动罪等罪名,从而有利于实践中预防和惩治网络犯罪。此举可以认为是在互联网技术应用过程中风险防控的一种措施,说明涉互联网犯罪已经得到了立法与司法的双重重视。在人工智能时代同样存在着人工智能技术应用过程中的风险,即行为人通过人工智能技术实施犯罪行为。目前已经出现了包含人工智能技术的网络聊天平台,有行为人利用人工智能程序在该平台设定聊天回复和背景介绍,通过聊天内容分析找出容易受骗的女性,对其发送虚假的慈善信息让其汇款从而获利。未来还将出现其他行为人利用人工智能技术实施犯罪行为的案件,对待不同情况的案件刑法应当有不同的处理措施。如果人工智能技术对于犯罪行为而言只是一个崭新的犯罪工具,例如利用人工智能技术实施侵财行为,虽然一次行为即可能获得较传统侵财行为相比高出百倍的收益,但是该行为从本质上无异于其他各类传统侵财行为,只是利用的工具或者手段不尽相同而已,对其社会危害性程度的评判,我们完全可以用“数额累计”的方式来衡量或体现,而完全没有必要在刑法中针对这种特殊的手段专门设置独立的罪名。但是与此同时,人工智能技术的应用使犯罪行为的社会危害性发生了变化,应当比照传统犯罪,进行“从重”或“从轻”处罚。非法利用信息网络罪、帮助信息网络犯罪活动罪等罪名的设置是为了满足打击网络犯罪的现实需求,笔者认为,随着人工智能技术的不断发展,未来也将出现打击人工智能犯罪的需求,此时可以通过设置新的罪名以满足打击利用人工智能技术实施犯罪行为的需求。此举并非是肆意扩大犯罪圈,而是刑法面对科技发展而作出改变的正当选择。
最后,在强人工智能时代到来时在刑法中确立智能机器人的刑事责任主体地位,并增设删除数据、修改程序、永久销毁等刑罚种类。笔者在上文已经提及,在强人工智能时代智能机器人完全可能具有与人一样的辨认能力与控制能力,其也完全可能通过深度学习,在设计和编制的程序范围外实施严重危害社会的行为。由于我国现行刑法规定的刑事责任能力主体只包括有自然人和单位,显然不能涵盖智能机器人。笔者认为,时下,刑法可以考虑赋予智能机器人刑事责任主体的地位。这是因为:一方面,智能机器人在设计和编制的程序范围外实施行为实现的是自己的意志,而意志存在与否对于刑事责任能力的认定有着重要意义。我国现行刑法已经将单位作为独立刑事责任主体,将智能机器人与单位进行比较,我们可以清楚地发现,智能机器人的意志自由程度比单位更强,智能机器人完全可能脱离人类产生独立的意志。另一方面,智能机器人的行为完全可能成为法律意义上的行为。传统上关于行为的理论包括自然行为论、因果行为论、目的行为论、社会行为论、人格行为论等,这些行为理论无一例外地认为只有“人”的行为才可能成为法律意义上的“行为”。但是这些理论产生之时,人工智能技术尚未崛起,当时的学者无法想象人工智能时代中可能出现如此类似于“人”的智能机器人,它们和人类一样可以在自主意识和意志支配下实施行为。理论随着时代的推演而继续发展,行为理论也应如此,我们应该根据新时代的要求来对智能机器人行为进行定位。依笔者之见,智能机器人和自然人的区别仅仅在于自然人具有生命体,而智能机器人是非生命体,这一区别似乎并不会改变行为人的行为是在自己意识和意志支配之下实施的性质。只不过自然人独立的意识和意志源于生命体,而智能机器人独立的意识和意志源于超越研发者设计和编制程序内容而形成的自主独立的程序。正是由于智能机器人可能在自主意识和意志支配下实施行为,笔者认为,在刑事立法活动中确立智能机器人的刑事责任主体地位固然重要,但是,目前的障碍可能主要来自于如何对智能机器人处以刑罚的问题。笔者建议,针对强人工智能时代可以成为独立刑事责任主体的智能机器人,未来在刑法中增设删除数据、修改程序、永久销毁等刑罚种类,不仅是必要的而且是可能的。
五、结语
诚然,人工智能技术推动着社会发展与时代变革,是科技发展过程中珍贵的宝藏,我们不能因为人工智能技术的风险而因噎废食,放弃发展人工智能技术,我们完全可以在鼓励支持发展人工智能技术的同时重视人工智能技术的风险防范,促使其健康发展。决定科技发展动态的物理原理和数学原理会青睐某些特定的行为,使科技的发展航线驶向某个特定的方向,但并不会主宰那些具体而微的实例。因此,人工智能技术的出现是人类发展史上的“必然”,但人工智能技术的风险却完全可以被我们所防范,而成为“不必然”。在人工智能时代提出利用刑法来防范技术风险并不是一种“威胁论”,而是未雨绸缪的必要准备。事物的发展总是具有两面性,我们无须让今日的松懈与放任成为明日“人工智能灾难”来临的前奏,保持警惕,才能让人工智能技术成为人类社会发展的“助推剂”。
(责任编辑:卢勤忠)
(推送编辑:孙玉婷)
本文原载于《华东政法大学学报》2018年第5期。若欲下载或阅读本文PDF文档,请点击下方阅读原文,欢迎订阅并分享华政学报(微信号ECUPL-JOURNAL)
想法丨发现丨习惯丨人文
让阅读成为习惯,让灵魂拥有温度