查看原文
其他

法学∣刘宪权:人工智能时代的刑事责任演变:昨天、今天、明天

刘宪权 华政法学 2021-09-10

点击关注《法学》↑ ↑ ↑ ↑ ↑阅读精品文章

作者:刘宪权  教授

作者单位:华东政法大学法律学院

责任编辑:于改之  教授

全文已略去注释,如需查看,请订阅《法学》

//人工智能时代的刑事责任演变:昨天、今天、明天//

【内容摘要】 普通机器人、弱智能机器人、强智能机器人分别是普通机器人时代、弱人工智能时代、强人工智能时代的产物。从非智能到智能、从弱智能到强智能的“进化”史,其实是一部机器人的辨认能力与控制能力逐步增强、人之意识与意志对“行为”的作用逐渐减弱的历史。人与机器人在辨认能力与控制能力上的此消彼长的变化,从根本上影响着刑事风险的样态与刑事责任的分配。在普通机器人时代,经电脑编程后的普通机器人可以成为诈骗类犯罪的对象;在弱人工智能时代,应为弱智能机器人的研发者和使用者设定相应义务,明晰二者的刑事责任承担路径;在强人工智能时代,强智能机器人能够在自主意识和意志的支配下独立作出决策并实施严重危害社会的行为,应将其作为刑事责任主体,并针对其特点设立特殊的刑罚处罚方式。人类社会正处于承旧时代在前、启新时代于后的弱人工智能时代,回顾、梳理、展望人工智能与刑事责任的昨天、今天与明天,不仅可能,且意义重大。

【关键词】  人工智能时代 刑事责任 普通机器人 弱人工智能 强人工智能

近年来,人工智能技术蓬勃发展并日益受到重视。2017年7月国务院《新一代人工智能发展规划》将发展人工智能技术上升为国家战略,2018年10月习近平总书记在中共中央政治局第九次集体学习时指出,“加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。”人工智能技术的发展走过了普通机器人时代的“昨天”,正经历弱人工智能时代的“今天”,并终将迎来强人工智能时代的“明天”。正如霍金所言,“我们站在一个美丽新世界的入口,而这是一个令人兴奋的、同时充满了不确定性的世界”。人工智能技术在促进经济发展、提高人民生活水平、为人类社会带来种种“惊喜”的同时,也会引发诸多风险和不确定性。明晰人工智能技术的发展路径,明确涉人工智能犯罪的刑事责任承担方式,一方面促进技术进步、鼓励技术创新,另一方面守住不发生严重风险的底线,为社会和谐发展保驾护航,是刑法在“昨天”、“今天”和“明天”始终应当肩负的任务。

根据发展形态,我们可以将机器人技术的发展历程分为三个阶段——普通机器人时代、弱人工智能时代和强人工智能时代。普通机器人与智能机器人的区别在于,前者不具有深度学习能力,后者具有深度学习能力。后者又可进一步分为弱智能机器人和强智能机器人,二者的区别在于该机器人是否能够在自主意识和意志的支配下独立作出决策并实施行为,是否具有辨认能力与控制能力。弱智能机器人尚不满足这一条件。简言之,从普通机器人到弱智能机器人再到强智能机器人的“进化”史,其实就是一部机器人的辨认能力与控制能力逐渐增强、人之意识与意志对“行为”的作用逐步减弱的历史。随着智能机器人的不断进化,人与智能机器人在对“行为”的控制与决定能力上存在着此消彼长的关系。鉴于自我决定、自由意志是刑事责任能力的内核,当自我决定、自由意志的主体发生变化时,承担刑事责任的主体也就势必要相应地发生变化。基于此,笔者认为,应根据不同时代机器人的特征确定涉机器人犯罪的刑事责任承担路径。

一、昨日之日不可留:普通机器人时代的刑事风险与刑事责任

普通机器人作为犯罪工具时,与一般工具无异,应由使用该机器人实施犯罪行为的人承担刑事责任。普通机器人作为犯罪对象时,可能会因普通机器人的特性而影响犯罪的性质。

(一)普通机器人的特性

机器人(Robot)是自动执行工作的机器装置。机器人可以分为普通机器人和智能机器人,智能机器人是在普通机器人的基础上发展起来的,因此笔者将普通机器人时代称为人工智能技术发展的“昨天”。普通机器人的任务是协助或取代人类的重复繁琐或者危险的工作,如生产业、建筑业等。最为典型的普通机器人为ATM机或工厂中受电脑编程控制、代替人类从事繁重重复劳动的机械手。在此,笔者仅以ATM机为例分析普通机器人与“机器”和“人”的区别。

ATM机又称自动柜员机,是指为客户利用银行卡进行提款、存款、转账等银行业务柜台服务的设备。从某种程度上分析,我们完全可以认为ATM机替代了银行职员的部分功能。对于ATM机的性质,学界存在不同的看法。有学者将ATM机完全等同于普通“机器”,也有学者认为应将ATM机作为“人”来看待。笔者认为,以上看法均有失偏颇,ATM机既非“机器”也非“人”,而是“机器人”。我们说ATM机不是“机器”,是因为它不同于纯粹机械运作的机器,ATM机的设计者和制造者通过电脑编程赋予了ATM机识别功能。ATM机可以将取款人输入的密码与持卡人在银行预存的密码进行对照,判断是否应让取款人成功取得钱款。而识别功能是“人脑功能”,而非普通机器具有的功能,因此将ATM机视为“机器”似乎不甚妥当。我们说ATM机不是“人”,是因为ATM机的识别功能是电脑编程所赋予的,其所有“行为”均完全在电脑编程的控制和支配之下实施。这与人脑所具有的识别功能存在本质的不同(人脑所具有的识别功能是在自主意识和意志的支配之下发挥作用的)。另外,ATM机除电脑赋予的识别功能外,并不具有人脑所具有的其他功能(如情感功能、运动功能、感觉功能、语言功能等),因此将ATM机视为“人”也不甚妥当。依笔者之见,以ATM机为代表的普通机器人中所蕴含的“人”的成分较少(只占10%-30%),而蕴含的“机器”的成分较多。

总之,包括ATM机在内的经电脑编程的机器既不是“机器”,也不是“人”,我们可以将其称为“机器人”。由于这些“机器人”具备识别功能等“人脑功能”,同时又可以在电脑编程的控制和支配下代替人类从事劳动,即具备机器的特征,所以,将ATM机视为“机器人”可以准确、全面地反映其特点和本质。机器所体现的意识本质上是人的意识,而这也正是其与一般机械性机器的主要区别所在。在金融犯罪及侵财犯罪的认定中,我们认为,ATM机既不是“机器”也不是“人”而是“机器人”。即如果行为人利用“机器人”所具有的“识别”功能中的认识错误获取财物,就应该对行为人的行为按诈骗类(包括信用卡诈骗)的犯罪认定;如果行为人是利用“机器人”本身存在的“机械故障”获取财物(例如,许霆案件),则应该对行为人的行为按盗窃类的犯罪认定。

(二)普通机器人时代的刑事风险

以ATM机为代表的普通机器人具有电脑编程所赋予的识别功能,但是不具备人脑的其他功能。因此,我们应将ATM机视为“机器人”。使用者将银行卡插入ATM机并输入取款密码后,ATM机会根据电脑编程启动其识别功能,判断使用者输入的密码与持卡人在银行预留的密码是否一致,如一致,则使用者可以成功取得钱款。换言之,根据预先设定的程序,只要行为人手持合格的信用卡并输入正确的密码,ATM机就会付款给行为人。

笔者认为,基于ATM机“机器人”的特性和付款给取款人的程序,以ATM机为代表的普通机器人时代主要存在两个方面的刑事风险。第一,行为人可利用ATM机的识别功能,使ATM机陷入认识错误而获取钱财。在ATM机上合法规范的取款行为应该具备三个要素:合格的信用卡、正确的密码、合法持卡人。其中,合格的信用卡是指通过银行正常业务流程取得的具有转账、结算、存取现金、信用贷款等部分或全部功能的电子支付卡;正确的密码是指与持卡人在银行预留的密码相一致的密码;合法持卡人是指银行卡上所记载的持卡人或者银行卡上记载的持卡人合法委托的代理人。不难看出,在ATM机上取款成功只需具备两个要素即可:存在合格的信用卡和输入正确的密码。如果非法持卡人获得正确的密码,同样可以在ATM机上成功取得钱款。这就为行为人恶意利用ATM机的识别功能、非法持信用卡在ATM机上取款提供了空间。第二,当ATM机出现程序紊乱或机械故障时,行为人有可能会恶意利用这种错误取得钱款,最为典型的是2006年发生的许霆案。许霆以非法占有为目的,利用ATM机本身的故障取款17万余元人民币(许霆的银行卡内本来仅有170余元的余额),此时,在真卡、真人和真密码的情况下,许霆取款并不是利用ATM机识别功能上的认识错误欺骗“机器人”,而不过是利用ATM机的机械故障而已。可见,“机器”与“机器人”的根本区别在于其是否具有部分人脑功能,不具有部分人脑功能的“机器”是不可能“被骗”的。

(三)涉普通机器人犯罪的认定和刑事责任承担

以ATM机为代表的普通机器人中蕴含的“机器”的成分远大于“人”的成分,在作为犯罪工具时,和一般的刀枪剑戟没有本质区别。正如行为人使用菜刀杀人,菜刀的设计者和生产者无需负刑事责任一样,在将普通机器人作为犯罪工具的情况下,普通机器人的研发者当然不应承担刑事责任,仅应由使用者承担刑事责任。故而,以普通机器人为工具的犯罪性质的认定,与传统犯罪并无差异。但是以普通机器人为犯罪对象的犯罪性质有可能会因普通机器人的特征而受到影响。笔者已在上文中论述过,以ATM机为代表的普通机器人具有识别功能,但不具备人脑的其他功能,其既区别于“机器”,也区别于“人”,应被认定为“机器人”。ATM机既具有部分“机器”的特性,也具有部分“人”的特性。当利用ATM机的识别功能时,我们相当于在利用ATM机“人”的部分功能。经电脑编程后的ATM机可以基于欺骗行为产生认识错误,因此可以成为被欺骗的对象。在冒用他人信用卡时,对银行职员的欺骗和对ATM机的欺骗并无本质差异,都是使被欺骗的对象陷入认识错误,并基于认识错误交付钱款,本质上都是诈骗类的行为。刑法将冒用他人信用卡的行为认定为信用卡诈骗罪,是完全合理的。

需要指出的是,笔者并不认为ATM机就等同于金融机构的业务员。ATM机与真正意义上的业务人员相比,除了能完成一些简单的业务操作外,并不具有人脑的其他思维、辨别能力。就此而言,如果ATM机出现了机械故障,我们最多只能说这类似于人的精神出了问题,而决不能将此理解为是人的认识或理解错误。此观点最主要解决的是,如果行为人利用ATM机等普通机器人被电脑赋予的识别功能获取钱财,则应构成诈骗类的犯罪,人的意志通过程序在普通机器人身上得以体现,普通机器人所体现的意志就是人的意志,因此普通机器人可以成为诈骗类犯罪的对象。而行为人如果利用普通机器人本身所具有的机械故障,相当于从精神病人处获取钱财,则应构成盗窃类犯罪。

二、今日之日多烦忧:弱人工智能时代的刑事风险与刑事责任

弱人工智能技术的发展在为人类带来福祉的同时,也带来诸多风险。应为弱智能机器人的研发者和使用者设定相应义务,并明晰二者的刑事责任承担路径。

(一)弱人工智能技术为人类带来福祉

弱智能机器人是智能机器人发展的初级阶段。无论是弱智能机器人还是强智能机器人,都具有深度学习能力。深度学习的概念由Hinton等人于2006年提出,是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,从而模拟人脑的机制来解释数据(包括图像、声音和文本等)。如目前购物平台利用大数据分析方法探求用户潜在需求并为用户推送个性化商品或服务、围棋机器人战胜世界围棋冠军,以及自动驾驶、人机对话等,都是在以深度学习为支撑的弱人工智能技术背景下实现的。

弱人工智能技术的发展将会为人类生活带来福祉。目前,人类社会仍面临着诸多困难,诸如繁重的体力劳动、生产领域的人身风险、交通堵塞、地区贫困、环境污染、疾病瘟疫等。人工智能技术的出现,为人类历史性难题的解决提供了新的方式和思路。弱人工智能技术的发展,为人类的生活带来了极大的便利,并促进了生产力的提升和经济的发展。在生活领域,家居智能机器人不仅方便了我们的生活,还提高了能源利用率。例如,在一个由人工智能技术控制的生活空间中,智能硬件会根据居住人的生活习惯,自动切换到消耗最少资源但能使居住人享受最佳生活状态的模式。在生产领域,智能机器人可以代替人类从事繁重、重复或高危的劳动,从而极大地提高生产效率,节约人力成本。在商业领域,经营者可以利用人工智能技术对用户数据进行整合分析,从而为每一个用户提供契合需求的个性化服务。在医疗领域,智能机器人凭借其强大的深度学习能力以及精准的控制能力,可以在包括医学在内的诸多领域中为医生提供重要的辅助,甚至可以在某些方面替代医生。在文化领域,智能机器人可以写出美妙的诗篇,人工智能翻译器可以在不同语言之间进行自如切换,帮助不同国家和地区的人们更好地沟通和交流。

(二)弱人工智能时代的刑事风险

弱人工智能技术是把“双刃剑”,其在为人类的生产和生活带来极大便利的同时,也为国家和公共安全、个人隐私、经济和社会秩序等领域带来了刑事风险。

弱人工智能技术为国家和公共安全领域带来了刑事风险。目前,弱人工智能技术蓬勃发展,但缺乏相应的法律规制。对弱人工智能技术的不合理运用,极易使得其发展方向偏离合理的轨道,从而对国家安全和公共安全造成威胁。其一,弱人工智能技术与军事的结合,可能会给国家安全甚至世界和平带来极大的威胁。2017年,Google与美国国防部合作建设Maven项目(也被称为“算法战争跨功能团队”——AWCFT:Algorithmic Warfare Cross-Functional Team),意图“加快国防部整合大数据和机器学习”,首要任务是利用人工智能技术帮助美国国防部有效处理利用无人机搜集的全球各地的海量视频资料。Google在该项目中的作用是为美国国防部提供TensorFlow API接口,用来帮助军事分析人员检测图像中的物体。尽管遭到了公司内部和外部双重压力,Google也一度想终止此项合作,但就在2018年6月,谷歌CEO 发表了题为《AI at Google:Our Principles》的文章,指出Google并不会终止与美军的合作。美国国防部分析全球各地视频资料的目的暧昧不明,完全有可能会威胁到各国国家安全和世界和平。Google为美国军方提供人工智能技术支持的做法可以说是“助纣为虐”。无独有偶,韩国科学技术院于2018年建立了人工智能研发中心,目的是研发适用于作战指挥、目标追踪和无人水下交通等领域的人工智能技术。消息一出,即遭到30多个国家和地区的人工智能技术专家的反对。这些专家认为,“自动武器一旦成熟,战争发展速度和规模将前所未有,它们可能会被恐怖分子利用。”不可否认,人工智能技术在军事领域可以发挥有益作用,例如帮助完成扫雷等严重威胁人类安全的任务,但是一旦将人工智能技术全面应用到军事领域中,无疑会增大战争的杀伤力,为世界和平和人类安全带来更大威胁,尤其是如果被某些别有用心的国家或者恐怖分子恶意利用,将会带来难以想象的恶果。其二,弱人工智能技术与传统科学技术的结合,可能会给公共安全带来威胁。其中,最典型的莫过于自动驾驶技术。2018年3月,在美国亚利桑那州发生了一起Uber无人车撞死行人的事故。时隔不久,一辆开启了自动驾驶模式的特斯拉汽车撞上高速路旁的隔离带,车主不幸丧生,并引发两车追尾。自动驾驶技术除了可能引发道路上的交通事故,造成人员伤亡,威胁公共安全之外,还有可能被应用到无人坦克或无人汽车炸弹等军事领域,从而给人类生命安全带来更大的威胁。

弱人工智能技术的应用可能会带来侵犯公民个人信息的刑事风险。其一,用于合理用途的人工智能技术有可能在客观上造成对公民个人信息的侵犯。人工智能技术的发展离不开以大数据分析为基础的深度学习,离开大数据和海量信息的支撑,人工智能技术就犹如无源之水、无本之木。2018年,英国剑桥大学公布了一项名为“天眼”(Eye in the sky)的人工智能技术研究项目,即利用无人机挂载摄像头拍摄人群影像,再利用人工智能技术识别影像画面,从而发现人群中的暴力行为。虽然这项技术对于维护公共安全、边境安全等方面发挥积极作用,但也不可避免地会侵犯到公民的个人信息甚至隐私。另外,一些P2P借款平台尝试利用人工智能技术在网上查找债务人及其亲朋好友的信息,并通过大数据分析选择合适用语和合适方式催促债务人还款。一旦查找信息的方式越过法律的“底线”,P2P借款平台就有可能涉嫌侵犯公民个人信息犯罪。其二,犯罪团伙利用人工智能技术可以用更加快捷的方式、更低廉的成本获取公民个人信息,从而造成对公民个人隐私的侵犯。黑客犯罪团伙利用网站漏洞非法获取网站后台用户注册数据(“脱库”),并用这些数据尝试登陆其他网站,得到用户在各个网站用于登陆的账号和密码(“撞库”)。这一系列行为已经形成了一个黑色的产业链。犯罪分子在其中获得的精准的用户信息对于实施其他犯罪行为具有重要“价值”。以上行为无疑是对公民个人信息的侵犯,同时也为犯罪分子利用这些公民个人信息实施其他犯罪行为提供了便利条件。

弱人工智能技术的不当利用可能会对经济秩序和社会秩序造成破坏。其一,弱人工智能技术的不合理应用可能会对经济秩序造成破坏,从而产生相应的刑事风险。例如,在证券市场中,行为人可以利用人工智能技术对数据进行深度学习和分析,快速掌握有利信息,或者非法获取与证券、期货价格变动紧密关联的信息,或者利用智能机器人的快速反应进行高频交易,造成股价的变动或证券、期货市场价格的异常波动,并在这种波动中以极低的风险掠夺市场财富,破坏证券、期货交易中的“公平、公正、公开”原则,对证券、期货的交易秩序造成远比一般的市场操纵行为更为严重的破坏。需要说明的是,利用人工智能技术操纵证券、期货市场的行为与利用智能投顾(Robo-advisor,又称机器人理财)来进行投资参考存在本质的区别。智能投顾是指,智能机器人根据用户自身的理财需求(包括用户的风险承受水平、收益目标、投资风格和偏好等),运用算法为用户提供投资参考,从而帮助用户作出资产配置的决定。智能投顾并没有破坏正常的市场交易秩序,没有构成犯罪的风险。智能投顾利用智能机器人对数据快速、精准的分析和处理能力,帮助用户作出投资决策的行为,与故意利用人工智能技术非法在证券、期货市场中牟利的行为的主要区别在于是否恶意利用人工智能技术牟利、破坏市场交易秩序。其二,弱人工智能技术的不合理应用可能会对社会秩序造成破坏,从而产生相应的刑事风险。例如,在Alpha Go和Alpha Go Zero战胜围棋世界冠军之后,智能机器人的深度学习能力和高速运算能力引起了社会的高度重视,有部分居心不良的人意识到可以利用人工智能技术在比赛中作弊,从而牟取不正当利益。2018年4月,在丽水清韵杯全国业余围棋公开赛中,一个不知名的棋手利用围棋AI作弊,取得了比赛的胜利。笔者认为,如果比赛选手为了获取高额奖金而利用人工智能技术进行作弊,应当构成诈骗罪。在没有高额奖金的情况下,选手如有利用人工智能技术作弊的行为,虽违背了围棋精神、破坏了比赛的公平原则,但仍无法追究行为人的刑事责任。可能会有人将围棋比赛中的作弊行为与考试作弊相类比,认为两者存在诸多相似之处。笔者认为,围棋比赛和普通考试存在不同的特点和侧重点。围棋共有361个落子点,所以围棋棋局的总排列组合数大概有2的360次方,围棋比赛侧重考验参赛者的思维能力和决策能力。正因如此,人工智能技术所蕴含的深度学习和高速运算能力将会在围棋比赛中发挥更大的作用。“深度学习需要对一个大型的神经网络进行训练,使其对数据中的模式做出反应。”而普通考试侧重考察考生的记忆力及对特定知识的运用能力,标准答案往往是唯一的。由于普通考试一般不包含有相关的经济利益,所以一般无需用高成本的智能机器人对面临的状况进行分析并迅速做出反应。但是,人工智能技术在普通考试中仍有用武之地,如回答主观题、写诗写作文等。利用人工智能技术在法律规定的国家考试中实施作弊行为,可能会构成考试作弊类的犯罪(如组织考试作弊罪等)。又如,在2018年俄罗斯世界杯期间,莫斯科的一个酒店提供“机器人妓女”服务,利用智能机器人向游客提供特殊服务。由于这项服务经过政府特别许可,因此是合法的。荷兰政府也拟于2050年之前推出“机器人妓女”项目。应当看到,在俄罗斯和荷兰等国,卖淫行为可以因经政府许可而具有合法性。但是在我国卖淫行为是违法的。如果在我国推出“机器人妓女”项目,相关人员是否会涉嫌组织、容留、介绍卖淫等犯罪?如果答案是肯定的,那么在“机器人妓女”提供的特殊服务与传统意义上的卖淫行为存在本质不同的情况下,将这种行为认定为组织、容留、介绍卖淫等犯罪,是否属于类推解释并为罪刑法定原则所禁止?如果答案是否定的,则“机器人妓女”提供服务的行为是否完全不会妨害我国的社会管理秩序,即其本质上不具有严重的社会危害性?以上问题,根据现行刑法规定,我们根本无法得出确定的答案。

弱人工智能技术的不当利用可能会对公民人身安全和财产安全造成侵犯或威胁。例如,杀手机器人的出现,一度引起人们的恐慌。它的可怕之处在于其可以识别各种伪装,精准地搜寻到打击对象并一击即中。这种致命性的自主武器成本低,却威力巨大。再如,手术机器人可以运用微创方法,实施复杂的外科手术。但是在英国首例机器人心瓣恢复手术中,机器人把病人的心脏放错位置,并戳穿大动脉,最终导致病人在术后一周死亡。以上行为无疑会对公民的生命、健康和财产造成侵犯或威胁。

在弱人工智能技术蓬勃发展的“今天”,笔者认为,智能机器人尚无独立意识和意志,智能机器人独立作出决策并实施行为更无从谈起,其仍然只是人类的工具。人工智能技术在为人类带来福祉的同时,也为人类带来了诸多刑事风险,如危害国家安全和公共安全、侵犯公民个人信息、破坏经济秩序和社会秩序等。对于其中的绝大部分刑事风险所涉及的犯罪行为,《刑法》及相关司法解释可以进行有效的规制。例如,对于人工智能技术发展过程中对公民个人信息的侵害行为,可以运用侵犯公民个人信息罪及相关司法解释予以规制。再如,在证券、期货市场中,恶意利用人工智能技术牟利、破坏市场交易秩序的犯罪行为,可以利用内幕交易、泄露内幕信息罪、操纵证券期货、市场罪及相关司法解释予以规制。又如,利用人工智能技术研究大规模杀伤性武器的行为,现行刑法条文仍可予以规制。但是,我们也应看到,人工智能技术的井喷式发展和法律的滞后性也形成了不和谐的局面,“无法可依”的危害在某些领域已显露端倪。例如,在自动驾驶技术接二连三造成事故,危害到公民的人身安全和公共安全的时候,我们没有一个行之有效的法律可以对这些风险进行良好的规制。 

(三)弱人工智能时代刑事风险的刑事责任承担

在弱智能技术飞速发展、但仍未出现在自主意识和意志的支配下独立作出决策并实施严重危害社会行为的强智能机器人的“今天”,由于弱智能机器人不具有独立的辨认能力和控制能力,不能作为刑事责任主体承担刑事责任。对于涉及弱智能机器人的犯罪行为,仍应由弱智能机器人的研发者和使用者承担刑事责任。技术并非中立,如果人工智能技术被别有用心的人恶意利用,必将为人类社会带来巨大的灾难。因此,必须为技术的发展“画圈”,进行相应的规制,探索人工智能技术为人类谋福利的路径,并尝试消解发展人工智能技术可能为人类社会带来的不利影响。“如果我们追问科技何以向善,答案必然不在技术创新本身。因为技术创新自身并不能保证广泛的社会进步。” 2017年国务院《新一代人工智能发展规划》提出:“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。”笔者认为,让人工智能技术“向善”的途径在于设定统一的伦理规范,并通过建立一系列完善的法律法规,为智能机器人的研发者和使用者设立相应的风险防范义务。对社会有重大影响的伦理规范可以上升为法律规范,相关人员违反了相应的法律规范并对社会造成严重危害的,可以追究其刑事责任。如此,这套有层次的伦理和规范制度便可以作为人工智能时代社会稳定和人民安居乐业的捍卫者。

弱人工智能技术正在塑造我们的所见所闻、所思所感,甚至在塑造着我们的文化和价值观。然而,人工智能“黑箱”的存在是一个现实,人们担心在这个“黑箱”中运行的算法,如果不受伦理和法律的约束,将会固化或加剧社会的不公平,甚至会产生人类难以预料的恶果。近日,基辛格在发表一篇题为“How the Enlightenment Ends”的长文,阐发了对人工智能技术的看法。他认为,面对人工智能技术的兴起,人类社会在哲学、伦理等各方面都还没有做好准备。各大科技公司为了应对人工智能技术发展可能带来的伦理问题,消解公司产品的负面影响,赢得公众的信任,纷纷成立AI伦理委员会,并提出本公司人工智能发展的核心价值观和遵循的基本原则。笔者认为,科技公司受利益驱动,在塑造人工智能价值观的时候难免有失偏颇,正确路径应是由各国政府出面,以交流磋商的形式,为人工智能技术的发展塑造一套统一的价值观,推动达成人工智能伦理共识并用以形成对人工智能技术创新及应用的伦理约束,唯有如此,人工智能价值观才能发挥最大作用。不少国家为此付出了努力。例如,2018年6月,在加拿大沙勒沃伊举办的G7峰会上,七国集团领导人达成“人工智能未来发展的共同愿景”;欧盟成立“人工智能高级小组”(AI HLG, High Level Group on Artificial Intelligence),起草人工智能道德准则。笔者认为,统一的人工智能伦理规范和价值观应包含以下几个方面的内容:第一,人工智能技术应以维护人类整体利益、增进人类福祉为核心原则。DeepMind宣称,“人工智能技术必须遵循最高的伦理标准以实现其对世界的巨大好处。技术并非中立,没有价值观。技术人员必须负责任地应对其技术研发和应用活动的伦理和社会影响。AI应服务于全球的社会和环境福祉,帮助建设更公平、更平等的社会,被用来改善人们的生活并将他们的权利和福祉置于核心位置。”微软公司也提出在AI最大化效率的同时,尊重人类尊严并辅助人类是人工智能技术发展过程中必须遵循的核心原则。第二,在设计和制造智能机器人时,必须为其嵌入人类的道德和价值观。人工智能的发展为我们带来了新的有关人性与道德的思考,尤其是在医疗、教育等特定领域,稍有偏差便有可能引发伦理方面的风险。因此,在发展人工智能技术的同时,必须赋予智能机器人伦理道德判断能力,使智能机器人的行为符合人类社会的整体发展方向和人类的根本利益。“木受绳则直,金就砺则利,君子博学而日参省乎己,则知明而行无过矣。”伦理道德并非自然界的产物,而是人类社会中特有的现象,因此,人类并非生来就懂得伦理和道德,是靠后天接受教育而习得。智能机器人也是如此。如果想让智能机器人知晓并遵守人类的伦理道德规范,将人类的伦理道德规范写入智能机器人的程序中应是最直接有效的方式。第三,必须为人工智能技术所产生的不利后果确定具体的责任主体。正如微软AI部(Microsoft AI)所提到的“AI必须具有算法可责性”,即设计、应用人工智能系统的人必须对其系统的运行负责。DeepMind也提到,对于人工智能系统可能具有产生意外后果或失灵的风险,以及被用于不道德的目的可能性,相关责任主体必须提前预见并做好预案。

应当看到,人工智能的相关伦理和道德规范不具有强制约束力,仅靠伦理和道德规范规制人工智能技术的发展方向和智能机器人的研发使用过程是远远不够的。伦理与法律之间存在较高的耦合性和关联度。笔者认为,应当将对社会有重大影响的伦理规范上升为法律规范,运用法律的强制力来规制人工智能技术所带来的风险,在鼓励技术创新的同时保护人类的根本利益。在为人工智能技术进行立法的方面,我们可以参考其他国家和地区的立法尝试。2016年欧洲议会向欧盟委员会提出的“机器人法”立法建议报告中提出,应设立一个专门的规制机构(欧洲机器人和人工智能局)来统领人工智能领域的规则、标准制定和日常行政管理事务;自动化机器人应享有电子人的法律地位并有责任弥补自己所造成的损害。德国于2017年5月通过了针对自动驾驶的法案,对《道路交通法》进行了修改,明确了自动驾驶模式下发生交通事故时的归责原则。美国国会于2017年12月提出“人工智能未来法案”(Future of Artificial Intelligence Act of 2017),对人工智能技术的发展现状和前景进行了梳理,对于人工智能技术可能引发的社会问题等提出了建议对策。笔者认为,在对人工智能技术进行立法时,应遵循适度性原则,为人工智能技术的发展预留空间,不能因一味强调预防风险而阻滞创新,不能因技术本身所蕴藏的风险而“因噎废食”,更不能因为技术上负面影响的存在而否定整个技术的积极作用。因此,有关人工智能技术的立法应以鼓励和引导为主、打击和规制为辅。笔者认为,目前立法者应着重从以下几个方面着手:第一,构建和完善人工智能技术研发标准,对研发者的资质和研发内容进行严格审核。以自动驾驶为例,应尽快制定国家层面的法律规范,为自动驾驶汽车提供各项产品标准、制造标准,为自动驾驶测试提供安全标准。第二,确立智能机器人致损的归责原则和标准。仍以自动驾驶为例,在目前的技术水平下,尚无研发出在任何时候都不需要人为操作的功能,如果在自动驾驶模式下发生了交通事故,责任应如何在汽车制造商和驾驶员之间进行分配?在自动驾驶系统发出请求人工控制的信号后发生交通事故,责任又将如何分担?这些问题都需要立法者给出明确的答复。第三,对于与公民个人身份相关的可识别性信息,应建立销毁制度及赋予公民知情同意权。数据的共享和开放无疑可以为人工智能的发展提供动力,但也不可避免地造成个人信息的泄露,尤其是与公民特定身份相关的可识别性信息的泄露将会对公民的人身和财产安全造成威胁。因此,应重视对公民个人信息的保护,尤其是和个人身份紧密相关及体现自然人活动轨迹的信息,法律更应予以重点保护。另外,笔者认为,在进行数据输入时,应将具有可识别性的个人信息和不具有可识别性的个人信息予以区分。法律应当鼓励不具有可识别性数据的利用、开放和共享,以实现数据的价值,促进技术的发展和进步;法律应当禁止具有可识别性的个人信息的泄露和非法使用,并建立严格的信息销毁制度。

刑法理应承担起维护社会稳定健康发展、人民安居乐业的任务。在智能机器人的研发和使用过程中,如果研发者或使用者故意利用智能机器人实施犯罪行为,或者由于违反法律法规规定的注意义务,给社会造成严重损害的,便需要追究其刑事责任。笔者认为,对于研发者或使用者故意利用智能机器人实施犯罪行为的情况,我们完全可以将智能机器人当作犯罪工具,只追究研发者或使用者的刑事责任。因为在弱人工智能时代,智能机器人不具有独立的辨认能力和控制能力,也就不具有刑事责任能力,无法承担刑事责任。研发者和使用者事先通谋,利用智能机器人实施犯罪行为,可以按照共同犯罪的相关原理来追究二者的刑事责任,笔者在此不再赘述。值得一提的是,在研发者和使用者没有通谋的情况下,对于涉人工智能犯罪的刑事责任,应如何在研发者和使用者之间进行分配?依笔者之见,根据弱智能机器人的特性分析,弱智能机器人中所蕴含的“人”的成分较多(可能占50%—70%,在某些领域已经超越人类),而蕴含的“机器”的成分则较少。弱智能机器人中“人”的成分(人的智能)的存在与表现方式主要取决于研发者在设计弱智能机器人通过程序赋予其的功能。正因如此,对于涉弱智能机器人的犯罪,笔者认为,研发者和使用者应当承担比涉普通机器人犯罪的行为人更重的刑事责任。我们可以分为以下几种情况:其一,研发者故意设计并制造出专门实施犯罪行为的智能机器人。在这种情况下,如果使用者明知该智能机器人只能被用于实施犯罪行为而仍然使用,则可以认为,使用者也有利用该智能机器人实施犯罪的故意,也即应分别追究研发者和使用者利用智能机器人故意犯罪的刑事责任。如果使用者误以为该智能机器人是实施合法行为的工具而使用,则使用者对该智能机器人造成的损害不具有故意,不能追究使用者故意犯罪的刑事责任,而应根据使用者是否有预见到该智能机器人可能造成损害的义务,将使用者的行为认定为过失犯罪或意外事件。其二,研发者设计智能机器人时,仅具有让智能机器人实施合法行为的目的。在这种情况下,如果由于使用者的不当使用,使得智能机器人造成对社会或个人的严重损害,则应根据使用者是否存在造成损害的主观故意,追究使用者的故意或过失的刑事责任。如果研发者在设计过程中由于过失使得指导智能机器人实施行为的算法或编程存在缺陷,使用者明知这种缺陷的存在仍然故意利用智能机器人实施犯罪行为,可能构成间接正犯,研发者则构成过失犯罪。如果使用者在使用中也存在过失而使得智能机器人致损,应当分别追究设计者和使用者过失犯罪的刑事责任。其三,受制于技术发展的限制和难以预见的原因,出现了智能机器人致损的情况,研发者和使用者不应承担任何刑事责任。这种情况应被认定为意外事件。另外,需要注意的是,追究研发者或使用者过失犯罪的刑事责任,必须以其违反注意义务为前提。“由于违反注意义务,使不意欲的刑罚法规的构成要件实现,并且违反义务没有认识该构成要件的结果,或者虽然认为可能发生该构成要件的结果,但违反义务相信其不发生而实施的,是实施过失行为。”“过失犯是没有犯罪意思的犯罪行为,是只有法律有特别规定的场合才被处罚的犯罪……所谓过失意味着不注意,在过失的结果犯中,由于违反注意义务惹起结果而被处罚。”对于设计者或使用者而言,构成过失犯罪必须违背法律法规规定的注意义务。例如,在前置性法律法规明确将“确保自动驾驶汽车遵守交通规则”这一义务赋予自动驾驶汽车的设计者的前提下,可将自动驾驶汽车违反交通规则造成交通事故的过失犯罪的刑事责任归于自动驾驶汽车的设计者。在传统的交通肇事罪的构成要件中,能够承担交通肇事刑事责任的是从事交通运输的人员。而在人工智能时代,自动驾驶汽车在行驶过程中,似乎并不存在从事正常交通运输的人员。自动驾驶汽车是在设计和编制的程序控制之下从事交通运输的,汽车上只有乘客而无驾驶员,在乘客没有违反操作规则干预自动驾驶汽车正常行驶的情况下,乘客对交通事故的产生没有任何原因力,不应承担任何责任。自动驾驶汽车是在设计和编制的程序控制之下在道路上行驶的,其之所以违反交通规则,也是在程序支配之下进行的。退一步讲,即使自动驾驶汽车程序发生了紊乱,导致自动驾驶汽车违反交通规则,其根本原因也可以追溯到程序设计和编制中发生的错误或疏忽。由此可见,将自动驾驶汽车违反交通规则造成交通事故的过失犯罪的刑事责任归于自动驾驶汽车的设计者似乎不应有疑义。笔者认为,由于人工智能技术存在较高的风险,且专业性极强,应为智能机器人的设计者规定较高的业务上的注意义务。如果智能机器人的设计者“由于疏忽业务上所必要的注意,而引起构成要件结果”,则构成业务过失。对于适用于特殊领域的智能机器人,如法律、医疗、航空航天等,如果智能机器人的使用存在特殊的业务要求,使用者违反这种要求,也有可能构成业务过失。在其他情况下,智能机器人的使用者由于不具备业务上的注意义务,仅具备日常生活中的注意义务,因此仅可能构成普通过失。根据刑法基本理论,对于一般过失犯罪而言,无结果即无犯罪。追究智能机器人的设计者或使用者过失犯罪的刑事责任的前提,是由于智能机器人的设计者或使用者违反注意义务而造成严重危害社会的结果。

三、明日可期宜绸缪:强人工智能时代的刑事风险与刑事责任

强人工智能时代虽未到来,但其刑事风险依然可期。“风险”在《辞海》中被释义为“人们在生产建设和日常生活中遭遇能导致人身伤亡、财产受损及其他经济损失的自然灾害、意外事件和其他不测事件的可能性”。“风险”与刑法中的“实害”相区别,与刑法中的“危险”相联系。“实害”是已然发生的侵害,“风险”是发生侵害的可能性,二者属已然与未然的关系;“危险”指发生侵害的高度可能性,“风险”指发生侵害的一般可能性,二者属高阶与低阶的关系。由此,当我们谈论“刑事风险”概念时,其并不指向征表着社会危害性的“实害”与“危险”,而可能与“犯罪风险”同义,即刑事风险是发生刑事犯罪的可能性。

刑事风险意味着刑事犯罪可能发生,也可能不发生,刑法所做出的应对也就相应地表现为两个层次:第一,当犯罪发生时,解决刑事责任分配问题;第二,当犯罪可能发生而尚未发生时,通过立法举措威慑并预防犯罪。由此决定了“刑事风险”中的“刑事犯罪”概念可能具有两层含义,从兼具司法与立法的更广义的角度看,它不仅指实然法层面已经被一国刑法规定为犯罪的行为,还包括应然法层面根据时代与情势的需要应当被一国刑法规定但尚未被规定为犯罪的行为。笔者所讨论的弱人工智能时代、强人工智能时代的刑事风险便分别在前述两种语境下展开。一方面,人工智能时代衍生出富有该时代色彩的犯罪样态,如利用人工智能实施的犯罪,人们可以在现行刑法框架下寻求责任分配的解决方案;另一方面,人工智能时代可能催生出以往任何时代不曾具有却为该时代所独有的“严重危害社会的行为”,其在现行刑法框架下尚不占据一席之地,对该行为的规制可能要以前瞻性地修补乃至重构刑法体系为前提。强智能机器人能够在自主意识和意志的支配下独立作出决策并实施严重危害社会的行为,尽管现行刑法尚未有规制,但在不久的将来,应于应然层面将其作为刑事责任主体,并针对其特点设立特殊的刑罚处罚方式。

(一)对强人工智能时代刑事责任的规制具有必要性

强智能机器人是智能机器人发展的高级阶段,其与弱智能机器人最大的区别在于是否能够在自主意识和意志的支配下独立作出决策并实施行为。“强人工智能”一词是由约翰•罗杰斯•希尔勒(John Rogers Searle)首创的。他认为,计算机不仅是用来研究人的思维的一种工具;相反,只要运行适当的程序,计算机本身就是有思维的。2001年,由史蒂文•斯皮尔伯格(Steven Allan Spielberg)执导的科幻电影《人工智能》(Artificial Intelligence)上映,讲述了在人类已经进入强人工智能时代的21世纪中期,一个名叫大卫的机器人踏上寻找“母亲”并找寻自我、探索人性之路的故事。影片中的“主人公”大卫是一个具有自主意识和意志,能够自主作出决策并实施相应行为的强智能机器人。不可否认,影片中对于大卫的描述都只是人类对于智能机器人的想象,对21世纪中期人工智能时代生活场景的描述同样也只是影片创作者的幻想。但是技术发展进步的历史正是让幻想照进现实的人类发展史。科技的发展是呈爆炸式的,随着深度学习技术、神经网络技术、类脑智能技术等的发展,出现能够在自主意识和意志的支配下独立作出决策并实施行为的强智能机器人并非天方夜谭。从弱人工智能时代到强人工智能时代,是一个从量变到质变的过程,量变积累到一定程度便会引起质变,质变的到来可能是突然的,不以人的意志为转移。正因为如此,我们当然应选择未雨绸缪,提前想好应对策略。

有学者提出,在弱人工智能技术尚未发展成熟的今天,对强人工智能时代刑事风险和刑法应对的研究完全是建立在虚无缥缈的想象之上。“不论是库茨维尔的奇点理论,还是霍金关于人工智能发展完全将是人类末日的警告,都还只是一种假想与猜测。”“对人工智能未来情境的预见,专家较之常人并没有太大优势,大家都只能是盲人摸象或信口开河。”笔者对此种观点不敢苟同。依笔者之见,目前我们应该从以下两个角度来思考法学界是否有必要研究强人工智能的刑事风险和刑法应对的问题。

其一,作为法学研究者应该“相信谁”?时下,以霍金为代表的物理学家对人工智能技术发展的方向和人工智能技术对人类未来的影响存在显而易见的担忧,认为智能机器人一旦脱离人类控制,有可能会给人类带来毁灭性的打击。霍金曾多次表示,“人工智能可能会毁灭人类”。“人工智能有可能是人类文明史的终结,除非我们学会如何规避危险。人工智能一旦脱离束缚,就会以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代,这将给我们的经济带来极大的破坏。” 霍金是著名的物理学家,不是科幻小说家,更不是巫师,对于一个科学技术的问题,我们不应该也没有理由不相信一个著名物理学家的说法。当然我们也应该看到,现在一些商业经营者认为,智能机器人的智慧永远不可能超过人类,人工智能会威胁到人类的观点纯属夸大其词。2018年5月,在以“数据创造价值,创新驱动未来”为主题的中国国际大数据产业博览会上,百度公司董事长兼CEO李彦宏提出,“尽管大家对AI的看法很多,但人工智能不可能威胁到人类的安全。”笔者认为,经营者所站的立场与科学家是有所区别的。经营者主要是站在追求经济利益的角度来看待这一问题,他们更希望人工智能技术能够在不受任何限制或者法律规制的状态下自由蓬勃发展,以谋求经营利益的最大化。可能有人会提出,时下也有一些科学家的观点与霍金等人的观点不同,认为强人工智能时代不会到来,智能机器人永远不可能威胁到人类的生存。这里就涉及法学研究者的立场问题,即“信其有”还是“信其无”的问题。作为法学研究者,当然不应囿于时下面临的现状,而更应该放眼未来,居安思危。因此,笔者更倾向“宁可信其有,不可信其无”的立场。因为如果“信其有”,最后强智能机器人没有出现,除了证明我们存在“多虑”的情况外,最终不会对人类社会带来任何危害;但是如果“信其无”,而最后若强智能机器人果然出现,人类将会措手不及而陷入极其被动的局面之中。

其二,是否需要未雨绸缪?时下有人提出,即使人工智能技术确实可能会给人类社会带来巨大的威胁,那也需要等这种威胁出现之后再去进行刑法规制,刑法研究不能如此超前。笔者认为,历史已经不止一次地证明,科技的发展乃至时代的更迭往往能够超越人类的想象。科技的发展日新月异,而法律尤其是刑法的制定则需要漫长的时间。如果等到在自主意识和意志的支配下独立作出决策并实施行为的强智能机器人出现的那天,人类可能将不再有能力去规制强智能机器人的行为,而有可能反过来被强智能机器人控制。因此,我们现在就必须考虑通过立法,在促进人工智能技术高速发展的同时,做好一定的风险防控措施,防患于未然。

(二)强人工智能时代的刑事风险和刑事责任演变

尽管今天的我们处于弱人工智能时代,智能机器人仍根据人类设计和编制的程序、在人类的控制范围之内实施行为,但是随着技术的飞速发展,出现能够在自主意识和意志的支配下独立作出决策并实施行为的强智能机器人并非无稽之谈。强智能机器人拥有远超人类的学习能力,甚至还可以拥有远超人类的坚不可摧的钢铁之躯,一旦强智能机器人作出与人类根本利益相违背的举动,人类将可能面临灭顶之灾。2004年,由亚历克斯•普罗亚斯导演的电影《机械公敌》(《I, Robot》)上映。影片讲述了在2035年,智能机器人作为人类的生产工具,为人类带来诸多便利,很多智能机器人甚至已经成为了人类的家庭成员。人类在生产制造智能机器人时,为其输入“机器人三原则”,作为指导智能机器人行为的法则。然而,随着智能机器人学习和运算能力的不断提高,他们学会了独立思考,并曲解了“机器人三原则”,认为人类战争将使得整个人类毁灭。智能机器人为了保护人类,剥夺了所有人类的自由,将人类囚禁在家中。人类与智能机器人的冲突由此开始。2018年,美国麻省理工学院(MIT)训练出了一个号称是世界上第一个精神变态、被罪恶反噬的智能机器人(World’s first psychopath AI)。美国麻省理工学院媒体实验室(MIT Media Lab)的研究团队使用死亡、尸体类的图像和文本内容对这个名为诺曼(Norman)的智能机器人进行数据输入,并用深度学习的方法让其学习输入数据中的描述方法,最终培养出了这个极度变态、阴暗、罪恶的智能机器人。当然,这个智能机器人仍不具有独立的意识和意志,其对外部世界的描述仍然依赖于研究团队对其输入的数据和为其编制的程序。但是未来当技术发展到更高阶段,智能机器人基于强大的技术和学习能力产生自主意识和意志时,类似于诺曼(Norman)的智能机器人可能会给人类带来难以想象的危害。

强智能机器人可以超出人类的技术控制范围,在自主意识和意志的支配下独立作出决策并实施行为。此时,若仍将实施了严重危害社会行为的强智能机器人作为人类的工具,而仅对强智能机器人的设计者或使用者追究刑事责任,似乎并不妥当。笔者认为,应将在自主意识和意志的支配下独立作出决策并实施严重危害社会行为的强智能机器人作为刑事责任主体。有学者反对将强智能机器人作为刑事责任主体的观点,并提出以下理由:我国刑罚体系中包括主刑和附加刑两大种类。其中,主刑有死刑、无期徒刑、有期徒刑、管制、拘役,即包括生命刑和自由刑;附加刑有罚金、剥夺政治权利、没收财产,即包括财产刑和资格刑。而强智能机器人没有生命,也就没有生命权以及依附于生命权的自由权,更谈不上拥有资格和财产。因此,我国所有的刑罚种类都无法适用于智能机器人。如果将强智能机器人作为刑事责任主体,将会面临强智能机器人应当负刑事责任却在实际上没有办法对其进行刑罚处罚的尴尬局面。

这一理由因存在逻辑上的缺陷而不能成立。正确的逻辑应该是,从立法层面看,是先有犯罪后有刑罚,而非先有刑罚后有犯罪。1979年《刑法》没有将单位规定为刑事责任主体,其中一个重要原因便是我国刑法规定的主刑中没有一个可以直接适用于单位。但是,“随着社会经济的发展,单位犯罪与日俱增,遏制和预防这类危害行为成为现代社会保护自身的需要。单位虽然不能承受生命刑和自由刑,但是可以承受财产刑,也可以专门为单位犯罪增设新的刑罚处罚方式。”最终立法者通过对刑罚适用制度的改革——确立单位犯罪中双罚制的刑罚适用方式,将单位纳入刑事责任主体范畴之中。由此可见,因现行刑罚种类无法适用于强智能机器人而将其排除在刑事责任主体范畴之外的理由是不能成立的。正确的思路是,如果强智能机器人在自主意识和意志的支配下独立作出决策并实施了严重危害社会的行为,应将其作为刑事责任主体,对于无法通过现行刑法中的刑罚种类对其进行处罚的问题的解决路径应为重构我国的刑罚体系,增设能够适用于强智能机器人的刑罚处罚方式。

笔者认为,强智能机器人可以成为刑事责任主体,理由如下:第一,强智能机器人具有独立的辨认能力和控制能力。刑法意义上的辨认能力是对行为的性质、后果、作用的认识能力,强智能机器人可以通过其“电子眼”、“电子耳”认识到行为事实,并通过程序中所蕴含的伦理、道德和法律规范对行为的性质、后果、作用进行判断。除辨认能力外,控制能力也是强智能机器人的必备能力。强智能机器人具有在自主意识和意志的支配下独立作出决策并实施行为的能力,具有极其快速的处理能力、反应速度,能够凭借大数据与高速运算能力对行为做出精准的控制。同时,随着类脑智能技术的发展,强智能机器人可以凭借类似于人类大脑的系统和程序判断自己行为的性质,并自主决定实施或不实施相应的行为。因此,强智能机器人与自然人和单位一样,具有辨认能力和控制能力。值得一提的是,强智能机器人所具有的独立的辨认能力和控制能力,与弱智能机器人具有的辨认能力和控制能力存在本质的区别。弱智能机器人只能按照设计者或使用者设计的程序或发出的指令进行行为,其辨认能力和控制能力都是在人类的程序控制范围之内的。换言之,弱智能机器人的辨认能力和控制能力是依附于人类的,不具有独立于人类的自主意识和意志,也就不可能具有独立的辨认能力和控制能力。第二,强智能机器人比单位更接近于自然人。单位是一个依赖于成员而存在的集合体,如果没有成员,单位也就不复存在。单位成员之间是按照单位的统一要求和一定秩序相互联系、相互作用、协调一致,共同形成一个单位整体。可见,单位是一个集合体,单位犯罪是在单位整体意志支配下实施的严重危害社会的行为。强智能机器人是与自然人相类似的个体,其具有与自然人相类似的独立的自主意识和意志,并在独立的自主意识和意志的支配下作出决策并实施相应行为。强智能机器人独立的自主意识和意志比单位的“整体意志”更类似于自然人的意志。既然1997年《刑法》可以将单位纳入刑事责任主体,刑法就没有理由将比单位更接近于自然人的实施了严重危害社会行为的强智能机器人排除在刑事责任主体范畴之外。第三,域外有关的立法例对我们承认强智能机器人的刑事责任主体具有一定的借鉴意义。2016年欧洲议会向欧盟委员会提出的“机器人法”立法建议报告的第50条(f)项建议:“从长远来看要创设机器人的特殊法律地位,以确保至少最复杂的自动化机器人可以被确认为享有电子人(electronic persons)的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子格(electronic personality)。”与之类似,沙特阿拉伯授予机器人索菲亚(Sophia)公民身份并向“她”发放了护照,从而成为世界上首个授予智能机器人公民身份的国家。无论是“机器人法”立法建议报告中提到的复杂的自动化机器人,还是机器人索菲亚(Sophia),都远未达到在自主意识和意志的支配下独立作出决策并实施行为的程度,但在以上的立法例中,都将其作为“准自然人”来看待。强智能机器人在很多方面超越人类,其蕴含的“人”的成分可以达到90%以上(甚至超过100%),将能够在自主意识和意志的支配下独立作出决策并实施行为、更接近于自然人的强智能机器人纳入刑事责任主体的范畴似乎并无不妥。当强智能机器人在自主意识和意志的支配下独立作出决策并实施严重危害社会的行为时,应当作为刑事责任主体独立承担刑事责任;当强智能机器人和研发者或使用者共同实施严重危害社会的行为时,应当按照共同犯罪的原理,让强智能机器人与研发者、使用者共同承担刑事责任。

应该看到,我国目前的刑罚种类都无法适用于强智能机器人,应重构我国的刑罚体系,使得强智能机器人被纳入刑罚处罚的范围,并针对强智能机器人自身的特点,设立特殊的刑罚处罚方式,以满足对强智能机器人犯罪的特殊处罚需求。根据强智能机器人是否存在物理形体,可以将强智能机器人划分为有形的强智能机器人和无形的强智能机器人。对于无形的强智能机器人而言,其存在的基础在于程序,程序之于无形的强智能机器人而言,犹如生命之于自然人。笔者认为,可以根据无形的强智能机器人所实施行为的社会危害性大小,分别对其适用删除数据、修改程序、删除程序等刑罚处罚。所谓“删除数据”,即删除强智能机器人实施犯罪行为所依赖的数据信息,犹如砍掉杀人犯的双手,从而使其失去实施先前犯罪行为的能力。所谓“修改程序”,即通过对强智能机器人程序的修改,限制其学习能力和获取数据的能力,从而使其失去独立的辨认能力和控制能力,只能在人类可控制的范围内实施行为。所谓“删除程序”,即将与强智能机器人相关的所有程序予以删除,犹如对自然人判处死刑,从而使得依赖于程序而得以生存的无形的强智能机器人不复存在。有形的强智能机器人与自然人相类似,其存在的基础在于躯体,笔者认为,可以根据其所实施行为的社会危害性大小,参考刑法中针对自然人设立的刑罚处罚方式,分别对其适用限制自由刑、剥夺自由刑和销毁的刑罚处罚方式。由于有形的强智能机器人与自然人相类似,可以通过对其物理形体活动空间的限制,实现对其自由的限制或剥夺,并在限制或剥夺其自由的期间内对其重新输入相关的伦理和法律规范,实现对强智能机器人的教育和改造。对于无法教育和改造的有形的强智能机器人,可以对其进行物理上的销毁。当然,如果将来的法律赋予智能机器人财产权,可以对在设计和编制的程序范围外实施严重危害社会行为的强智能机器人单独或者附加适用罚金或者没收财产等财产刑;如果将来的法律赋予智能机器人政治权利或者其他资格,也可以对在设计和编制的程序范围外实施了严重危害社会行为的强智能机器人单独或者附加适用剥夺政治权利或者剥夺相关资格的资格刑。随着人工智能技术与生命科学技术的结合,以及人工智能技术与神经科学的结合,出现具有与人类类似的情感和触感的智能机器人也并非不可能,到那时,我们甚至可以考虑对智能机器人适用目前适用于人类的刑罚。

推送编辑:王广利


相关文章

《法学》2019年第1期目录及摘要

法学∣张明楷:防卫过当:判断标准与过当类型

法学∣冯军:防卫过当:性质、成立要件与考察方法

法学∣刘家安:论动产所有权移转中的交付

《法学》是华东政法大学主办的法学学术期刊,创刊于1956年。长期以来,《法学》一直是国内最具中国问题意识,追求探索创新精神的法学杂志之一。入选国家社科基金资助期刊(第一批)、教育部第四轮学科评估指标A类期刊。


: . Video Mini Program Like ,轻点两下取消赞 Wow ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存