范忠信 | 人工智能法理困惑的保守主义思考【人工智能专题】
◆ ◆ ◆ ◆
上海社会科学界联合会主办主管
有学术的思想 Exploration And Free Views
◆ ◆ ◆ ◆
人工智能法理困惑的保守主义思考
范忠信 | 杭州师范大学法学院教授,西南政法大学博士生导师
本文原载《探索与争鸣》2018年第9期
非经注明,文中图片来自网络
人工智能问题是近年学术界空前热议的话题之一,法学界一些同仁也情不自禁置喙其中或略表忧虑。人工智能即将带来人类生活空前巨变, 是福是祸都不能不承受,谁也无法置身事外,大家都预感无可逃于人工智能巨掌魔力之间。古谚云“人无远虑必有近忧”,哲学、伦理学、宗教学、社会学、法学界一些有“远虑”倾向的学人率先涌起一些忧虑感是正常的。有学者曾呼吁“全世界的自然人联合起来”应对人工智能潜在威胁,可惜言者谆谆听者藐藐。
在人工智能技术突飞猛进已经兆示巨大潜在威胁面前,全世界自然人仍一盘散沙而不能同心同德;IT技术精英们更不以为然,认为谈其潜在威胁是杞人忧天。天下熙熙皆为利来,在人工智能的可预期利益——获得未知神秘王国的钥匙,突破人类自然能力局限,实现财富空前爆炸性增长——真金白银丰硕无比的反衬下,任何主要凭着逻辑推论大多无法马上验证的忧虑质疑当然显得苍白无力。当此之际,虽千万人吾往矣,负有捍卫“人类文明大防”责任的法学人尤其是法史学者不能不持更加审慎的态度,格外注意人工智能的潜在危险,注意未雨绸缪防患之方,特别注重防范人工智能异化的法律机制建构。本文谨持着这样的保守主义立场,就时下人们已经开始觉察到的人工智能法理问题做一点个人思考,以就教于方家。
面对人工智能的激进保守两种态度
人工智能是人类文明有史以来最大的新事物,是影响人类社会秩序的最大变数。过去多少万年人类文明发展中的重大革命因素加起来,也许不及人工智能的力量和影响大。关于人工智能无节制发展的利弊,关于人工智能对现存法律秩序的挑战,有识之士不能不有所思虑。目前人们的态度,总起来说,有激进主义和保守主义两种态度,也有悲观主义和乐观主义两种态度。保守还是激进,是从对人工智能无节制研发运用所持赞否态度的强弱来讲的;悲观还是乐观,是从对人工智能无节制研发运用将招致人类不可控危害的担忧程度来讲的。在这里,保守主义不一定对应于悲观主义,激进主义不一定对应于乐观主义。
所谓激进主义态度,就是支持积极研发运用人工智能,认为不必过忧其未来潜在危险的态度。这种态度,乐见人工智能技术高速进步,不怎么在乎它对现存伦理和法律秩序的挑战。人工智能专业技术精英们大多是这种态度,对时下技术功利的关注也许胜过了对潜在风险的担忧。在他们看来,忧虑人工智能的潜在危险,多为杞人忧天,或为时过早;即使有这些危险,也必将车到山前必有路,届时人类自会找到解药,坚信“生命总会找到出路(Life finds a way)”。
持激进主义态度者认为,人工智能既然有那么大的发展潜力和空间,将来赶上甚至超越人类智能当然有可能。他们认为,如果仅仅在智力层面讲,人工智能早就达到或超过人类了,未来全面赶上和超过人类也指日可待,将来让人工智能成为法律主体享受权利承担义务责任自是题中应有之义。即使人工智能对现存法律秩序有挑战,人类也应该能找到应对办法。
所谓保守主义态度,就是更注意人工智能所面临的伦理法理问题,对人工智能发展持更加谨慎的态度,更担忧人工智能对现存伦理和法律秩序的威胁。持这种态度者,或多或少将人工智能视为《一千零一夜》里的瓶中怪兽,认为必须将防患未然赶快提上科学和法律日程。
英国著名物理学家史蒂芬·霍金博士认为:在初级发展阶段,人工智能科技的确为人类生活带来了便利。不过我们要警惕其过度发展,因为得到充分发展的人工智能或许预示着人类最终被超越。人工智能的崛起,可能是人类文明史上最糟的事件——人工智能会以不断加快的速度重新设计自己,而人类由于受到缓慢的生物演化的限制,无力与人工智能竞争,最终将会被人工智能代替。
他告诫我们,除非人类社会能够找到控制人工智能发展的方法,否则后果不堪设想。“短期来看,人工智能产生何种影响,取决于谁在控制它;而长期来看,这种影响将取决于我们还能否控制它。”霍金先生的意思是,现阶段的问题是人工智能是否控制在有良知和责任感者之手,但将来的问题就是整个人类还能不能控制人工智能了。到了整个人类都不能控制它的时候,我们的灭顶之灾就来了。因此他甚至预言“人工智能的全面发展将宣告人类的灭亡”。为应对挑战,我们必须未雨绸缪。
保守主义者的态度主要是从两个方面展开的。一方面,他们认为人工智能客观上不可能获得人类的全部智能,即使将来在专业能力上超过了人类也没有关系,因为人类的优势是我们的人性:我们的直觉、想象力、判断力、同情心这些我们与生俱来的能力或人类特有禀赋,不可能也不应该被人工智能真正获得或超越。另一方面,他们主观上不愿意看到人工智能超过人类,如果有一天人工智能在这些领域也超越人类,那么人类文明或许就真的走到终点了。这实际上是认为,即使人工智能技术发展客观上有可能超越人类,人类仍应主观努力阻止这样的文明毁灭结局——这才是应对人工智能对现行秩序挑战时所应秉持的正确态度。
关于人工智能问题态度的激进与保守,多取决于对人工智能是否能超过人类这一问题的基本认知判断。有人把人工智能发展水准分为弱、强、超三个等级,以便判断它是否可比肩或超过人类。在“弱人工智能”等级,即在经验、技术、资讯、信息量方面,人工智能已经超越我们了。一个人工智能可能超过千人万人的知识量、逻辑推理能力、抉择能力,战胜世界围棋冠军李世石的“阿尔法狗”就是典范。但这只是机器产品的超强功能运用而已,尚不是对人类法律秩序的真正挑战。在“强人工智能”等级,也就是全面达到人类智能水准的等级,目前人工智能在部分方面,比如辨别力、判断力、选择力方面,已经达到了人类水平。
但在更多方面,比如在直觉、想象力、见识、胆识、睿智方面,在性情即同情心、情感、偏好、审美能力、性格缺陷、社会文化习染等方面,仍没有达到甚至永远也达不到人类水平。至于“超人工智能”等级,即超过人类智能千万倍的那个等级,许多人认为人工智能永远达不到这一等级。这三个等级划分实际上表达了一种保守主义判断,认为人工智能在客观上不可能超过人类,在主观上也不应纵容其超过人类。持这一立场者,更重视应对人工智能的新挑战,防范人工智能发展的潜在威胁。
人工智能对现存法律秩序的挑战
面对人工智能的激进主义与保守主义态度,其实建立在关于人工智能对人类现存秩序挑战的不同认知之上。关于人工智能对人类现行文明秩序特别是法律文明秩序的挑战,我们大致只有从以下三个层面去特别思考才能有充分的认识。
首先,从人类文明的整体视角看,我们不能不注意人工智能对现行人类文明秩序的挑战。人工智能的出场,绝不只是机器更新或技术提高,而是一场前所未有的巨大社会革命。此前地球上只有一元智能即天工智能(人类智能),人类文明大体上仍处在一元智能时代;但人工智能出场以后,就可能开启天工、人工两种智能并立的二元智能时代,整个人类文明都可能要推倒重来,因为文明的基础和格局都变了。以宗教文明为例,从前是没有人工智能情形下的宗教,是只由自然人创设、只对自然人创设的宗教。有了人工智能后,会否产生由机器人类创造、为机器人类服务的宗教形态?神造人类、众生平等、意志自由、灵魂永存、轮回转世、极乐世界、千年王国等宗教学说是否都陷入了困境?没有生老病死之忧的人工智能是否与我们自然人一样有宗教需求,要不要与我们共享宗教或如何共享宗教?这些突然都成了严重问题。
再以社会构成为例,有了人工智能主体后,就不能不承认一种新型的人机并存社会秩序开始了,不能不重构自然人类和机器人类和谐共处的伦理和法理,原有的人类社会(自然人组合)形态、社会关系、社会伦理、社会公益、社会管理、社会自治等学说都陷入了前所未有的困境。
其次,从法律文明的整体视角看,我们不能不注意人工智能对现行法律秩序的挑战。现行法律秩序仅仅是人类法律秩序,是天工主体(人)主导的法律秩序。人工智能主体出场后,就进入了人类、机类共生的法律秩序,或人机复合社会的法律秩序,甚至可能变成人工智能主体主导的新型法律秩序。无论如何,在人类主体之外新增一种人造法律主体,单类主体法律秩序变成双重主体法律秩序,这当然可能导致现有的人类法律秩序基石动摇。
现有法律文明无法诠释这种新格局,无法为二元智能(二元主体)下的法律问题提供现成解决方案。具体地说,人工智能主体出现后,原有的人格独立平等、理性人假定、天赋人权、主权在民、权利让渡、社会契约、契约自由、意思自治等原有法律文明的基石性学说均陷入了困境。比如人工智能应否享有基本人权特别是人身权和财产权?应否享有公民权利、政治权利和社会文化权利?人类与人工智能两种法律主体可否完全无条件平等?人工智能行使权利有哪些特殊性以及如何有效保障?
再次,从法律制度的具体视角来看,人工智能的出场引发了很多新的法学问题,引发了原有法律关系和权力义务格局的变化,引发了原有法律责任学说和原则的变化。这些问题可以分为法律问题和法理问题两方面,其实都是人工智能对我们现行法律秩序的挑战。关于这一点,我们在下一节再详述。
对于人工智能将要导致的人类文明秩序特别是法律文明秩序的空前巨变,我们做好了应对准备没有?这一准备,应包括心理准备和方法准备。若是尚未充分准备好,那么尽可能采取保守主义态度应该是更明智的。未获有效防弊之方之时,当然就应更审慎于创制兴利,就如造汽车必先设计制动系统,建高楼必先设计消防系统一样。造车不能只考虑驱动和导向系统,而不考虑减速停车;造高楼不能只考虑上接天庭风光无限,而不考虑万一失火怎么办。
对人工智能超常发展带来的潜在危险,高度警惕并预为防范,持这种保守态度当然更合理一些。对于人工智能,就如对待核能一般,不可盲目乐观。不可过于自信人类对自己创造物有控制和回收的能力,因为人类不同个体、群体间各自为政、分散盲动才是常态,在面临威胁时全人类“心往一处想”常常是不可能的。人工智能魔力玩弄者若一不小心造成《水浒》第一回“洪太尉误走妖魔”那种效果,那对全人类来讲就是一失足成千古恨了。
人工智能的法律问题和法理问题
与人工智能研发运用有关的法学问题很多,先可粗略分为法律问题和法理问题两大类。所谓法律问题,就是人工智能运用导致的法律关系变化,尤其是权利义务变化问题。近两年法学人讨论提及的具体问题,大致有人工智能应用所生权益的法律归属(如人工智能独立智力创作的知识产权归属)问题,人工智能应用(如用于无人驾驶汽车)致人损害的责任归属问题,黑客篡改人工智能导致使用者或第三方损害的责任归属问题,人工智能技术黑箱化(算法或程序的隐蔽性)与公共秩序透明性要求冲突问题,人工智能应用引发大规模技术性失业防范问题,人工智能产品新型版权专利权的特别保护问题等一系列问题。
更具体一点讲,还有下面这些问题,比如人工智能用于司法时,其代码编程技术的专深隐蔽性与公共司法的透明化要求之间的冲突如何解决?人工智能裁判软件(人工智能法官)程序出错导致错判应由谁来负责任?人工智能法律助手(如人工智能数码律师和智慧法务)参与审查合同、回答咨询如发生错误导致损害应由谁承担责任?对人工智能所作裁决不服者应如何寻求救济?还有人工智能对大数据的运用涉及人类个体集体有关数据隐私保护的法律问题,如人工智能用于图像识别、人脸识别、声音识别,涉及肖像权、隐私权保护许多方面的问题;人工智能运用中可能涉及的性别歧视、宗教歧视、政见歧视的预先防范问题(比如有的国家规定人工智能收集或运用数据不应涉及人种或种族起源、基因、生物特征、健康状况、性生活、政见、宗教或哲学信仰、商会会员等特殊类别的个人数据);人工智能的各类标准(技术、数据使用、安全等标准)协调统一以避免碎片化和相互抵牾的问题;人工智能型“预警式刑事侦查”与人权保护界限问题,等等。
法律问题之上是关于人工智能的法理问题,就是与人工智能研发运用有关的一般性、根本性法学问题。主要法理问题有以下几个方面。
第一是人工智能研发运用的伦理法理限制问题。新技术研发运用有时不得不考虑伦理问题,有些领域应是人工智能研发运用的禁区。比如可否研发人工智能男女娼妓?可否研发人工智能与人共同生育(代孕)?可否允许人工智能永续个人大脑以实现“永生”?是否可放任人工智能升级到再造自我或制造新物种?可否允许研发人工智能版历史人物(如希特勒)?可否研发人工智能杀人机或堕胎机?可否研发人工智能杀手、奴隶、赌棍、残疾人、代考枪手、受气包?可否人工智能仿真出特定个人(比如仿真亲人、仇人)?如此等等,要不要有所限制,这当然是很严重的伦理法理问题。
第二是人工智能致害归责的一般原则问题,这包括民事、刑事两个方面。前面讲法律问题时说过的人工智能运用致害的法律责任归属问题,向上追问就必然引出有关人工智能法律责任的一般原则问题。具体些,就是与此有关的归责基础、规责依据、规责原则、责任履行、责任阻却等一系列问题。
第三是人工智能的法律关系主体资格问题。人工智能可否视为法律关系主体,包括成为民事法律主体(民事权利义务主体)和刑事责任主体,以什么理由或依据认定其有法律关系主体资格,这样的认定对人类原有法律秩序有什么样的挑战,这都是法理学要解决的问题。比如不久前沙特阿拉伯政府率先授予美国制造的女性机器人Sophia以公民身份,第一个有法律人格的机器人由此诞生,这对传统法理学的法律主体学说提出了挑战。又比如,不久前美国发生过一起无人驾驶车与公共汽车碰撞事故,警方最后认定人工智能为“司机”,应承担责任,这也涉及传统法律主体、法律责任理论的革命性转变问题。
第四是人类与人工智能情感的伦理法理问题。随着技术进步,人工智能可能会拥有人类一般的情感,势必会与自然人之间发生感情乃至其他共同生活问题。于是,法律应当如何调整两者间情感,是否应允许人机婚姻,如何解决人机之间其他权利义务关系或特有纠纷,就是法理学不能不考虑的问题。
第五是人工智能运用引发新的不平等问题。未来,掌控人工智能魔力者,其实际力量(能力)和权益(权力、权利、利益)自然远远优于他人,这就势必造成新的不平等。若以人工智能为法律主体,那么人工智能掌控者就等于掌控一支“铁票选举部队”,那么未来国家政治选举就变成人工智能掌控者之间斗法了;即使不视人工智能为法律主体,其掌控者仍易于凭借巨大拟人化技术力量去奴役其他人。对于IT精英权力膨胀威胁他人权益和公共秩序的潜在危险,法理学不能不有所考虑。
当然,有些问题是无法片面视为法律问题还是法理问题的,它们本身有双重属性。比如吴汉东教授曾撰文提及关于人工智能的六类法律问题——机器人法律资格的民事主体问题、人工智能生成作品的著作权问题、人工智能系统致人损害的侵权法问题、人工智能运用时的人类隐私保护与数字化人格权问题、智能驾驶系统的交通法问题、机器“工人群体”的劳动法问题等,其实都有法律和法理两个方面的意义。所以,我们在思考与人工智能有关的法学问题时,要注意到问题的全局性和贯通性,不要先入为主地设定人为界限。
人工智能可否成为法律关系主体
人工智能的诸多法理问题中,最为关键的是它的法律主体资格问题。这一问题是目前大家关注到的最大法理困惑。作为一个保守主义的思考者,我们的法理思考就应该还从这个问题入手。人工智能作为一个比肩人类的智慧主体,到底有没有人格,有没有主体性,能不能成为法律关系主体(包括私法和公法主体),这是时下现实委托给法理学界的一个时尚课题,也是关于人工智能的法哲学核心问题。
在现在的法律秩序中,自然人和自然人组织体,是两种法律关系主体。自然人之所以有主体性,是因为他有独立人格,有自我意识。从法治的伦理法理上讲,一方面,每个个体人格独立自主才是正义,人身人格受制或依附于他人乃不正义;既自主,当然该为自己行为自享其利、自负其责;另一方面,任何人只有在能辨别自己行为(即有自我意识)的前提下才应为自己行为负责。人工智能能否视为法律关系主体?当然也只能依据此种原理来判断,关键以其有没有独立人格和自我意识为准。这是确认主体性的前提,也是解决人工智能其他法律问题(如前述法律权益责任归属问题、人机情感婚姻问题等)的前提和基础。这里说的“有没有”,一方面是指“可不可以有”,另一方面是指“能不能有”。前者是主观上应不应该(通过积极研发)让人工智能拥有独立人格和自我意识的问题,后者是客观上有没有可能让人工智能完全达到人类般独立人格和自我意识的问题。
一般认为,人工智能研发的终极目标是要设计一个真正能在人类所处环境中表现出像人类一样智能行为(思维、行动)的计算机,也就是使计算机能“综合模拟人类的智力活动”。这一基本目标,正是人工智能科学区别于其他计算机科学分支的地方。若以此为目标,就不必考虑“可不可以有(该不该有)”的问题,只需考虑“能不能有”的问题。
为了检验人工智能客观上“能不能有”主体性(独立人格和自我意识),被誉为计算机之父的英国学者图灵曾设计了一种人工智能主体性测试(后被称为“图灵测试”)。在无直接物理接触的情形下,让一个隐藏的人工智能连续接受很多人的长时间考问,最后让考问者辨识对方是人还是人工智能。如果考问者“足够多”,考问时间“足够长”,仍无法以“足够高”的正确率辨别对方是机器还是人类,那么这个人工智能就算是通过了这一测试,即可认定它已经达到人类主体性水准。测试结果是,直到2013年仍没有任何机器人能够通过严格的图灵测试,即使仅仅在纯粹智力层面也通不过。这就是说,迄今为止,人工智能在客观上还无法获得人类的主体性。我们在考虑人工智能的主体性问题时,不能不以这类测验结果为参照。
於兴中教授认为,人之所以为人,本质上是智性、心性、灵性三者合成。心性是感情、情绪、感觉的发源地,不同于智性。机器人虽可仿及人的智性,但不能仿及人类心性(尚未闻人工智能有感情,未闻有机器人为情所累)。至于灵性,与人的精神世界、崇拜及信仰有关,现在尚看不到机器人有灵性。因为人工智能无法复制人的历史、经验、兴趣爱好,所以心性、灵性是他们无法具备的。这就是说,人工智能因为在心性、灵性两方面无法企及人类,故不可能达到人类一般的“主体性”。若是哪一天真的达到了,人工智能占领世界的预言就可能会成为现实。他的本意是,人工智能目前尚不可能有人类一般的主体性。
也有学者认为人工智能将会发展出完全的独立性。原因是,人工智能代码编程的作用,类似于人类的DNA或基因。基因对生命体行为的控制只限于DNA事先部署,而对于一个生命体事后的独立运作,基因只能袖手旁观,不可能完全直接有效控制。同理,计算机编程员也不可能像手牵木偶那样完全控制人工智能的行为,他对于人工智能的后续独立运行也可能无法控制。随着学习能力的完善,人工智能可能会具有越来越高的自主性,制造者对人工智能的控制也会越发减弱;两个初始状态相同的人工智能,因后天学习接受的信息不同,可能会具有完全不同的“性格”。这样一来,让人工智能作为独立主体承担法律责任就不再是天方夜谭了。
关于人工智能是否具有独立性或主体性的问题,综合各家认知,参以个人拙见,我们的法理思考无非是应全面考虑以下几个方面的问题。
第一,人工智能是否可能具有意识?也就是说,制造者们能否将人工智能制造得具有人类一般的思考能力和独立意识?目前一般认为是造不出来的,但未来是否能造出来就难说了。不过,即使未来能造出来,那时人工智能的思考能力和意识就不过是人制造出来的机器性能而已,就不再是人类独有之异能了。
第二,就算可能将人工智能制造成拥有意识者,但它终将被别的智能机器所模拟,这又说明“拥有意识”并不能给人工智能带来额外的“行为能力”。也就是说,这样一来,自我意识仍属于人工智能可以仿及的人类行为能力范畴,仍不属于不可仿及的人类行为能力范畴。于是,拥有意识仍不是人工智能已企及人类的关键标志。
第三,人工智能虽能模拟人类的智能活动,但能不能模仿人类全部脑力活动?人类之所以为人类,不仅仅因为有智能,还因为有情感、审美能力、性格缺陷、社会文化习惯等一系列“非智力特征”,其分量和重要性甚至超过智力特征。人类脑力活动的这些非智力特征,人工智能也许是永远无力模仿获得的。这里有一个问题需要我们特别思考:那些“非智力特征”是不是人类智能的必然衍生物?如果证明是,那当然就得承认人工智能最终能与人类齐等;如果证明不是,则人工智能永远不可具有独立性或主体性。到目前为止,科学尚无法证明这一点,因此也无法肯定未来人工智能永远不能获得独立性或主体性。
第四,关于人工智能是否可以比肩或超越人类,以及是否可以获得独立性或主体性的问题,归根结底要从三个层级认识。一是知识(经验、记忆、资讯或信息)层级:人工智能目前已初步超越人类(天工智能),并将更大更深地超越。二是判断或睿智(直觉、想象力、辨别力、选择力、判断力、见识、胆识)层级:人工智能可能在初级水准上获得局部睿智(如阿尔法狗,属于弱人工智能),但不可能获得人类高级水准的睿智或全部睿智,不可能真正超越人类。三是性情(同情心、情感、偏好、审美能力、性格缺陷、社会文化习染)层级:人工智能根本不可能真正获得或拥有,性情不可能由人工制造而成。所以最后结论是:只具备“知识”和局部“睿智”的人工智能,不可视为等同于人类的主体,不可作为独立法律主体。
关于人工智能的保守主义法理观
上述讨论也许体现了保守主义者关于人工智能问题的一些特有偏好,这种偏好使笔者未能平等充分地列举激进主义者的主张和理由。之所以如此,既因本文宗旨和使命所限,也因篇幅有限。作为一名理论法学思考者,笔者对人工智能法理问题的困惑和思考,最重要者,谨总结为以下三点保守主义认知和主张。
第一个是保守主义的研发利用观。未来人工智能的研发利用,应该特别顾及人类文明价值共同底线,应坚持捍卫人类文明伦理大防、防止人类文明毁灭的保守主义立场。法律法学,从其本性上讲,对新奇事物一般应先持保守主义立场,而不是闻魔笛奇音起舞。这个保守主义立场,当然不等于完全消极被动,而是强调在防范人工智能潜在危险这一问题上更主动积极。要努力通过法律工具尽力延缓危险到来或减少其损害,而不是以立法推波助澜促使危险早来或危害扩大。过去在对待一些高科技带来的新现象时,各国法律一般是采取保守主义态度的。比如对于人工代孕、性别选择、机器生育、器官供体、换头手术、合成生物、转基因、比特币等许多问题,除极个别国家的激进立法外,各国法律起初一般采取视而不见的态度,在法律上久久不加回应。这种态度其实是更加明智的,符合法律的本性。在人工智能问题上,当然仍应该采取类似的保守主义态度。
人工智能研发运用不应该超越人类文明价值底线,不应该伤害作为文明秩序基础的伦理。依笔者的认知,与人工智能发展相关的文明价值底线主要有:人是目的,不得作为人工智能的手段;人格平等,不得受人工智能奴役;基本人权自由,不得以人工智能程序侵害;不得设计损害个体正当权益去满足公共利益的人工智能程序;人类自然天性不得通过人工智能加以限制和改变;善良风俗不得以人工智能程序损害;人工智能应用必须考虑防止公共权力滥用。因此,人工智能娼妓或奴仆、人工智能衔接人脑永生、人工智能与人共同生育、人工智能自我生产新物种、人工智能杀手、人工智能人脑操控术等研发应坚决阻止,不能开启“潘多拉盒子”。
我们尤其特别应该从“公共权力必须被防范和限制”这一公共伦理和法理出发,坚持我们对人工智能潜在危险必须未雨绸缪、主动防范的立场。人工智能发展及广泛应用,使得未来公共权力可以更方便地利用人工智能肆意侵入私人生活领域,侵害人民的自然权利和法律权利,这必然大大增加公共权力的滥用机会,使国家机器更加超常超强地“利维坦”化,这一点足以让我们不寒而栗。为了限制公共权力滥用,我们必须对人工智能在公共管理中的应用持特别谨慎或警惕态度。公共权力本来就有容易异化变质的天然危险倾向,人类自创的国家机器结果常常异化为严重危害人类自身、剥夺人类起码幸福的恶魔。
因此,对于人工智能在大数据和人口管控方面的高超能力,不要太不知深浅地津津乐道。不久前在深圳的一次人工智能研讨会上,有位学者津津乐道地介绍利用人工智能进行“主动式预警性刑侦”,说人工智能以后可以深入到社会的每个微小细胞,可以形成对违法犯罪的提前预警,以便制止犯罪于萌芽或预备状态。那样一来,将来我们坐在家里或睡在床上,就可能被预警或刑侦了,这比“文革”时的“群众专政的天罗地网”“狠斗私字一闪念”“大义灭亲揭露坏人”还可怕百倍千倍。为了维护法治,保障人权,我们不能任意扩大人工智能的使用范围或领域,私人场合要坚决制止使用,公共场合使用也应该更加规范化,要不然后果就不堪设想。
第二个就是保守主义的法律主体观。人工智能到底能不能成为法律主体,笔者与罗思荣教授私下讨论过,意见比较一致。目前所有法律主体都是自然人或自然人联合体。若要在自然人、个人联合体这两种主体之外再加一类人造主体,也许很多现行秩序就乱套了。在人工智能尚未获得比肩人类的独立性和主体性之时,在尚未承认人可另造一种新主体的前提下,我们只能将人工智能排除于法律主体之外,不要因热衷时尚而自酿祸患。人工智能是人造的,那么顾名思义,人工智能所引发或产生的一切问题,都应该由制造它、使用它、占有它或者因为它而受益的人类主体来担责。即使原编码程序客观上不可能完全控制人工智能的后续全部行为,其制造者或受益者仍要负全责。谁制造谁负责、谁受益谁负责的原则,在这里不可动摇。
关于这一点,我们可以类比民法中动物致人损害的责任来理解。我们豢养宠物狗变成了一条疯狗,出去咬人了,谁也不能以“我控制不了”而免责。民法上,动物致人损害的责任是由动物的所有人、控制人来承担的。我们还可以与未成年人致人损害时监护人责任类比一下。比如某个未成年人,即使父母或监护人因年龄或身体状况实际上已经控制不了他(她),但仍不能以“孩子大了我管不了”来主张免除监护责任。人工智能的法律责任问题,本着这样法律基本逻辑来推论,结论是很简单清楚的,没有必要早早将人工智能认定为法律主体而自贻祸患。一旦以人工智能为独立主体可承担法律责任,则等于承认操控人工智能的精英们增享了更多权利,减少了许多义务(责任),那么人类法律秩序也就彻底乱套了。
第三个就是保守主义的法律责任观。承前所述,人工智能不能独立承担法律责任,必须由其制造者、使用者或受益者承担有关责任,不能给玩弄人工智能高端技术魔力的少数精英们留下危害人类、逃避责任的任何机会。在这样的认知前提下,目前阶段人工智能的法律责任问题,其实还只是一个产品法律责任问题。所有已发生的人工智能产品责任问题,现有的几部法律如《产品质量法》《消费者权益保护法》《侵权责任法》等基本能够解决。如果实在有其他更复杂情形,这三部法律解决不了,还有其他的民事法、刑事法、行政法可以适用。
人工智能的制造者是人,他既是自然法的主体,也是人定法的主体。制造者即使不能完全控制人工智能的后续自主行为,但因为他仍可控制自己的设计和生产行为,故仍对自己制造的人工智能产品引发的一切责任无可推诿。在人工智能生产完成投入使用之后,不能因为其内置程序无法保证能完全控制其后续行为,不能因为它实际上已经获得了比肩人类的某种独立性或主体性,我们就该把人工智能当作一种独立承担法律责任的法律主体,而让它的设计者、制造者、使用者逍遥于责任之外。不久前沙特政府给机器人索菲亚授予了国籍或公民身份,美国的无人驾驶汽车与公共汽车发生碰撞后官方认定其人工智能系统为“司机”,笔者认为这些尝试都是危险的。对于与人工智能有关的法律责任问题,如人工智能产品致人损害之民事责任问题、利用人工智能违法犯罪之行政与刑事责任问题等,在确定法律责任有无时应标准从宽,在追究相关个人责任时应从严不贷;应尽可能适用“无过错责任”原则,使欲逃避责任者绝对无可推诿其责。在立法司法上应采取更加积极的态度,不要拖到积重难返时再去“临时抱佛脚”地找解决办法。
结 语
关于人工智能相关法理问题,本文就目前人类已遭遇的主要法理困惑,即人工智能研发运用的伦理限制、人工智能是否具有法律主体属性、人工智能引发相关法律责任等三个方面,本着保守主义的立场进行了初步探讨。本文的探讨贯穿了捍卫人类主体性和基本权利、捍卫人类文明基本价值道义、防止技术精英滥用技术威力、防止假借人工智能滥用公权力等基本理念。这种理念,应是今日法理学、法史学的“标配”。放弃这种理念,也许就背离了我们学科的本原及初始使命和责任。在科学技术突飞猛进的今日,我们仍要有清醒的头脑,要尽可能防止科学狂人、恶棍和骗子利用人工智能得售其奸,肆意扰乱市场秩序、法律秩序进而危害整个人类文明秩序;还要尽可能有效防止人工智能技术的巨大魔力被滥用。这两个方面都是最要紧的事情,还是早点考虑、早些防范为好,防范方案还是越严密周到越好!
《探索与争鸣》人间体
联络员小探
xiaotanxiaosuo
转载 | 合作 | 咨询 | 建议
长按扫码加好友
END
人文社科学者的平台
《探索与争鸣》
唯一官方微信平台
联系电话:021-53060418
投稿邮箱:tansuoyuzhengming@126.com
版权所有。欢迎个人转发,媒体转载请联系授权