查看原文
其他

论人工智能法律主体的法哲学基础

青苗法鸣 2022-10-02

编者按:人工智能法律地位的讨论并非杞人忧天,而是基于智能机器深入社会场景的前瞻性思考,对此,主张客体者有之,强调主体者亦有之,答案不同,制度设计、立法样态与法律效果自然迥异。骁克博士从法哲学视角对人工智能法律主体资格的相关问题进行了理性回应,同时在主体论、目的论、哲学史三个维度明确了赋予人工智能法律主体资格的可能,这将为人工智能立法提供有益的思想借鉴。


文章来源:本文来源于公众号“政治与法律”。


作者简介

骁克,华东政法大学法律学院博士研究生。


目  次

一、人工智能法律主体学说检视

二、人工智能法律主体的本体论分析

三、基于客观主体性的人工智能法律主体目的论

四、人工智能法律主体的哲学史确证

五、结论


摘要:当下人工智能主体学说面临诸多问题,需从法哲学视角予以审视。就人工智能本体而言,其行为具有自主性,不宜纯粹以客体相待;从他者期望视角观察,人工智能拥有道德责任能力,系道德主体。法律主体理论经历了由自然人有限人格到全面人格,再到自然人、法人综合人格的演化过程,呈现客观化趋势,不唯理性、意志等主观要素论,其为人工智能法律主体提供了栖居空间。在目的论意义上,人工智能能够推动积极向善,助力美好生活,实现显著的经济社会价值,作为法律主体具有合目的性。在当代,传统主体哲学转向,人的哲学危机引发新思考,尤其是人类中心主义的主体-客体范式发生变化,客体主体化的历史经验及当代实践显现一种哲学可能性,即主体不限于人,从而强化了人工智能法律主体的可能性。


关键词:人工智能;法律人格;主体哲学;主体客观化;目的论


目前法学界关于人工智能的研究主要面向其风险防范与化解。法律如何规制这些未来的“最强大脑”,必须首先回答它在法律中何以安放的问题,即人工智能可否拥有法律人格,能否作为法律主体。随着实践中有国家授予机器人“公民身份”, 并且相关立法草案或建议也拟赋予机器人“主体性”之后,该问题在赞同者那里似乎已消解。当前理论界赞同人工智能应被赋予法律主体资格的观点一般均认为,自主性是人工智能的核心特征,人类已经失去将其继续看作仅供人类驱使的被动性工具或受动客体的理由,而应给与其主体资格,让其享受特定的权利,负担相应的义务,并对行为承担责任。然而,否定论者认为,人工智能缺少意向性,无自主意识,不具备主体条件,其是人类开发利用的工具,仍属客体范畴。面对迥然不同的两种主张,为全面超脱地认清问题实质,有必要从法哲学层面,探寻人工智能置于法律主体的哲学基础,从而为人工智能立法提供思想借鉴。


一、人工智能法律主体学说检视

目前,人工智能法律主体学说主要包括权利主体说、拟制主体说、有限法律人格说、电子人格说等。这些学说为清晰认识人工智能法律主体问题提供了有益智识,但仍不圆满,仍须从更加抽象的哲学层面予以深刻剖析。


(一)人工智能法律主体学说概要

1.权利主体说。有学者认为,人工智能机器人已广泛运用于社会,并逐渐体现出自主性和社会化优势,机器人应享有权利,正如在权利主体的发展历程中,奴隶、妇女、黑人以及法人和动物等主体取得权利主体地位或权利得到扩张,均体现了群体“实力”变化对法定权利的重要影响,机器人权利主体地位的取得符合“实力界定权利”理论。因此,在机器人社会化应用不可避免的情况下,我国应当肯定机器人的法律主体地位,赋予机器人必要的权利,并积极顺应人工智能时代的社会发展趋势。其同时认为,机器人权利有别于人类的“自然权利”。也有学者认为,智能机器人具备了权利主体的智能性这一本质要素,将智能机器人“人格化”不存在法律方法论上的障碍,相反具有适应社会发展的正向功能性。


2.拟制主体说。有学者认为,人工智能具备了人类的思维能力,因而超越了传统意义上“物”的范畴,但人工智能摆脱不了为人类服务的工具性附庸角色,所以其非物也非人,人们可以向拟制法人一样,从法律上拟制一个新的主体,赋予其与法人一样性质的法律地位。也有学者认为,人工智能的主体地位依赖于自然人而非独立于自然人,只是法律的拟制,因而其会基于拟制的目的而受到必要性和有益性限制。在现阶段,我国对机器人法律人格的讨论应以实定法解释论为基础,运用拟制的法律技术,将特定情形下的人工智能认定为法律主体。另有学者认为,自古罗马以来,从法律拟制的角度出发解决人类与其他事物的关系就是法律人最重要的技术之一;可以将这种立法技术运用到人工智能上,赋予人工智能独立的法律人格,为处理人类和人工智能之间的复杂关系提供依据;应从人工智能发展的现实要求出发,将人工智能的法律人格定位为独立的拟制法律人格。另还有学者指出,虽然在这种拟制主体的前提下,与自然人主体相比,其会有一些权利上的限制,但拥有拟制人格的人工智能仍有自己的权利和义务,可以承担责任。


3.有限法律人格说。有学者认为,从人工智能的特性分析,其具有独立自主意识的智慧工具属性,享有权利并承担责任的独特特点决定了其具有法律人格。因此,人工智能应当具有法律人格。然而,由于人工智能承担行为后果的能力有限,人工智能适用特殊的法律规范与侵权责任体系安排,其具有的法律人格是有限的法律人格。另有学者认为,智能机器人所享有的法律人格为有限的工具性人格。智能机器人法律人格的有限性主要体现在以下方面。其一,行为能力的有限性。工具性人格首先意味着智能机器人的行为能力是有限的,其行为应当受到使用者或占有者的最终控制。其二,权利义务的有限性。智能机器人作为工具性主体并不享有伦理性的人格权或身份权,而是享有经济性的财产权利以及承担义务。其三,责任能力的有限性。智能机器人的责任能力与自然人、法人、非法人组织的独立责任能力不同,虽然其可以独立自主地参与民事活动,但是其承担责任却是有限的,这就表明智能机器人只具备有限的责任能力。


4.电子人格说。该说源于2016年5月31日欧洲议会法律事务委员会发布的《关于机器人民事法律规则立法建议致欧盟委员会的报告草案》。2017年1月12日,该草案由该委员会表决通过成为决议;2017年2月16日,欧洲议会通过该决议。该决议第59段建议,当对未来法律文件的影响进行评估时,应探索、分析并考虑所有可能的法律举措的意义和内涵,其中举措之一就是:从长期着眼为机器人创立特定的法律地位,以致于至少明确最精密的自主机器人拥有“电子人”地位,能够承担弥补其引发的损害的责任,并可能把“电子人格”适用于那些机器人自主决定或其他独立于第三方交互的案件。


二)反思人工智能法律主体学说

人工智能法律主体学说众多,但总体而言,不外乎从赋予人工智能法律主体地位的必要性、人工智能具有独立的或者一定的自主意识,以及人工智能享有权利等方面展开论证。笔者认为上述观点仍存在不足。首先,“权利主体说”所依据的原则是“实力界定权利”,但这不是导致权利发生变化的根本原则,换言之,“实力”并非权利变化的一个决定性因素,奴隶、黑人、妇女等法律主体权利的变迁和扩张是社会经济和文化多种因素共同作用的结果,并且这些主体的变化仍局限于自然人范畴,并未扩充至非自然人领域。其次,“拟制主体说”虽然回避了对机器人智能性强度的讨论,但其拟制的结果却是机器人意愿的形成和表达仍需要通过自然人的意愿来决定。“有限法律人格说”认为人工智能的本质依然是工具,既然是工具,则并不能具备主体资格地位。与此同时,其立论基础限制了人工智能作为法律主体的权利,这种限制将导致人工智能与人类在法律关系中处于不平等地位,特别是在极其注重主体平等的民事法律关系中,这种有限人格与自然人的关系展开面临重大问题。最后,“电子人格说”认为人工智能法律主体资格并非甫一产生就自动获得,而是需要有关机关颁发资质执照从而取得法人资格,但该资格的申请人又是谁、是否需要自然人为其申请?从主张赋予人工智能法律主体地位的种种观点来看,人工智能法律人格的获取均建立在自然人法律人格的基础之上,甚至离不开自然人的支持,因为最基本的逻辑是此刻所有的讨论,无论主张何种观点,均是人类在为人工智能赋权,而非其他主体在为其赋权。


总之,智能机器人为人类所创造,为人类所用,其行为在本质上是受自身算法驱动的产物,在其不完全具备人类所拥有的自主意识和能力时,如何将其认定为具有独立人格的法律主体呢?在智能机器人造成他人损害时,如何因其法律人格承担义务?面临种种人工智能法律主体性疑问,必须回归逻辑的开端和理论建构的基点,从人工智能本体、作为主体的价值功用等层面进行探析。


二、人工智能法律主体的本体论分析

人工智能法律主体的确立与人工智能的自主性特征密不可分,恰恰是其本体特点使之与其他纯粹受动客体产生实质区分,无法简单地归入客体范畴。在人工智能深度嵌入社会系统之际,因其自主性、智慧性,从他者视角观察,应承认人工智能的道德责任能力。


(一)人工智能自主性及主体意义

与无生命体或传统机器相比,人工智能机器最显著的特点是自主性(autonomy),亦称自治性。本义上,自主是一种独立状态。欧洲议会《机器人民事法律规则》决议AA段论及,自主可定义为,进行决策并在外部世界不受外界控制或影响实施决策的能力,或“一旦机器被启动且至少在某些运行领域,在真实世界的环境中不受任何形式的外界控制而长时间运行的能力”。可见,自主即不受外部控制、能够自我决定并付诸行动。当前,人工智能系统已经能够执行复杂任务,如驾驶汽车、构建投资组合,无需积极的人类控制或日常监管,自主性很强。就整个机器谱系而言,按照机器运行与人类之间的关联性可分为三种类型。第一,人类控制型。该类型包括直接控制型与间接控制型。前者由人类直接操作控制,完全受人类支配,如传统机械设备,此类机器不具有任何独立性、自主性,其运行纯粹是人类意图和行为的表征。后者依然受人类控制,但并非直接由人类操作,而是按预设之技术路线、通道、方法、程式运行,具有自动化特点,典型如早期生产线上的工业机器人。第二,混合型。该类型分为两种情形:一是在人类控制之下仅加入些许人工智能因素,未脱离人类控制,更接近人类控制型;二是人类辅助自主型,即机器的运行和操作由机器自己完成,但特殊情形下偶尔需要人类接管,如上述有条件的自动驾驶。人类辅助自主型接近自主型,但最终需要人类接管,仅具相对独立性,在根本上并非真正的自主。混合型属于由人类控制到机器自主的中间形态,是人工智能技术阶段性的体现。第三,自主型。该类型包括部分自主型和全面自主型。部分自主型,即在特定领域或事务中,机器自主运行、自己操作,无需人类接管。若于特定领域或事务的整个范畴内,无需人类则属于完全部分自主型,如上述完全自动化自动驾驶。若在特定领域或事务的下一层级、子领域或细分事务层面,无需人类则系高度部分自主型。全面自主型,是一种通用人工智能或强智能机器,它意味着机器享有和人类相同的自由、自主,其主体能力不再局限于特定领域或事务,而是在社会生活各领域均能胜任,或经培养、学习能够自主从事社会活动。


与自主型机器相比,传统汽车、船舶、机械装置等人类控制型机器,完全受人类控制支配。即使是自动化机器,也只是按照人类设置的固定程序与步骤运行,一般不会超越人类预期,更无自主性可言。自主性的人工智能伴生着不预见性、不可解释性问题。尤其深度学习算法令人工智能产生了自主学习能力,远远超出人工智能设计者开发者的预期。此时,人工智能行为不可预测性大增,行为后果控制难度加大,若仍沿用过往以人工智能为客体,由其设计开发者、所有者或使用者等承担全部法律责任的做法,有违公平正义,也将严重制约人工智能的应用普及。欧洲议会《机器人民事法律规则》决议第AB段指出,机器人自主性越强,作为人类控制的简单工具的可能性就越小。该决议建议承认人工智能的电子人主体资格并构造新主体类型。


总之,人工智能机器具有自主性,无法以工具对待。自主性又衍生了不可预见性及失控风险,若固守法律客体定位,人工智能的设计者、编程者、生产者、使用者等于其致损时承担法律责任,既不正义,又妨碍技术进步与创新。人工智能机器不宜纯粹作为法律客体。


(二)人工智能本体的主体性要素

客体作为规范性主体的历史经验,表明人工智能作为一种新的生命形态及法律主体的可能性。在现实层面,因人工智能对社会系统及社会关系的形塑力量,从与之交往的第三人角度,应承认人工智能具备道德责任能力,系道德主体。


1.人工智能是一种新型硅基生命形态。在历史上,人之外的事物被赋予主体资格者比比皆是。古罗马时期的寺庙、中世纪的宗教建筑曾被视为权利主体。古希腊法和普通法曾经甚至把物体如船只作为义务主体。历史上曾发生过对物品的审判。从9世纪到19世纪,西欧有两百多件记录下来的对动物的审判案件,被放上被告席的动物多达数十种,如苍蝇、蝗虫、老鼠、猪、象鼻虫、蜗牛、狼、黄鳝等。野生动物由宗教法庭管辖,家养动物则由世俗法庭管辖。在审判中,法庭为动物指定辩护律师,保障其诉讼权利;在结果方面,有判令动物承担刑事责任的,也有考虑动物自然权利的。持续近千年的动物审判与宗教神学、政治权力密切相关,虽被认为荒诞不经,但其法律价值和历史意义不容忽视,它蕴含着西方传统法律主体观念,历史上的特殊法律主体由无生命的寺庙、宗教建筑延伸到动物,承认动物的义务主体性。


近些年来,随着环保主义盛行,动物保护、自然环境保护获得大量民众认可。针对动物保护,动物权利论支持者多,反对者亦众。大多数国家的法律赋予动物独特法律地位,但认为动物不能作为法律主体。实践中,有些国家承认动物权利,如1991年瑞士苏黎世州已立法规定受虐动物有权获得律师的帮助。1992年瑞士修宪正式承认动物是“存在体”或“类”(being)。此外,2017年3月,新西兰旺格努伊河(Whanganui River)被新西兰国会赋予法律人格,成为世界上第一条具有法人地位的河流。2014年新西兰国家公园Te Urewera已经获准为法人。有关动物、河流等非人类事物的法律实践,在当下主客体二元范式下虽然仍属少数,但已反映出人类中心主义的消解。


在人类碳基生命之外,人工生命体亦有可能存在。“一旦技术能发展成更明敏的东西,于是它就会像大脑一样成为精神的更好载体。”人工智能显现出犹如人类的行为反馈、情感认识、精神意识,即使那不是人类大脑神经活动的产物,而是硅基信息机制的体现,但生命“通过实在化能量流动,通过跨越复杂肉体的、文化的、技术的网络系统的活力信息符码来表现自身”, 人工智能以信息符码展示出生命状态,可考虑承认一种与碳基生命相异的生命形态的诞生。


2.应承认人工智能的道德责任能力。究竟能否赋予人工智能主体性,必须考虑现有法律主体由事实存在到规范主体的决定因素。从主体性的要义而言,主要在于可否对其行为负责,即是否具备道德责任能力,是否为道德主体。就此而论,法人是否系道德主体,争议也非常大。否定论者多从法人与自然人的密切关系入手,把法人道德问题溯源至自然人。米尔顿·弗里德曼认为,只有人才有责任,而作为一个整体的企业和公司并非严格意义上的人,在此意义上,它或许具有非自然的责任,但作为一个整体的企业,不能说负有一般人承担的责任。肯定论者认为,法人有能力影响社会公共利益、道德伦理秩序,应承担道德义务,必须履行社会责任,是道德主体。法人作为道德主体,主要是承担道德义务与道德责任。在道德主体、道德权利与法律主体、法律权利之间,不存在一一对应的关系,是否赋予法律人格、承认法律主体地位,与其是否系道德主体没有内在联系;有法律权利不意味着享有道德权利,有道德权利不必然享有法律权利;赋予法律权利须考虑道德权利,但两者不存在简单的包含关系。


按照传统理论,人工智能能否作为道德主体,根本在于自主意识、理性能力,而在当下弱人工智能阶段,人工智能缺少相应的主观能力,无法承担道德责任,不能作为道德主体。对此,应转变视角,从他者期望型道德主体角度来认知。近年来,人工智能机器开始具有自我意识并表现良好,人工智能独立判断和应对非结构化情景的失误率明显下降。人工智能对于人类而言之所以智能、智慧,在于其行为外观给人留下的主观印象。在人与人工智能的关系结构中开展道德考量,需要从社会系统、社会场景出发,根植于人工智能的外在行为,开展“社会关系解释”(social-relational justification), 发掘人工智能的外在道德性。此种道德性在他者视角下得以全面呈现。所谓主体,在社会关系意义上,核心在于以其责任能力承担责任,指向外部主体。因此,从第三人视角观察,人工智能行为富有道德价值,产生道德责任,也应具有他人所期待的责任能力,即“被期望的能力”、“他者期望型责任能力”。在“心灵缺失的道德”(mind-les smorality)层面,人工智能成为道德能动者,具有道德责任能力,负担道德义务。最终,可通过构造自然人与人工智能的双层关系(犹如社团法人与其股东,或监护人与被监护人),从而令人工智能取得完整的责任能力。


三、基于客观主体性的人工智能法律主体目的论

当下法律人格大大扩张,法律主体理论已充分突破理性意志之藩篱,以理性为核心的传统主体哲学基础弱化,法律主体客观化,不太注重意志意识等主观要素的作用。这为人工智能法律主体构建起理论空间,合目的论更加凸显了人工智能法律主体的意义及必要性。


(一)客观主体性为人工智能提供栖居空间

自古罗马到法国民法典,法律完成了自然人全面人格的确认。在此种演进过程中,关于人的传统主体哲学发挥了极为重要的奠基作用,至今延绵不断。到了19世纪,第二次工业革命发生,推动了社会变革。商业组织法人化,新型法律主体社会需求强烈。在法律上,除自然人之外,法人主体得到认可。自然人和法人生物性存在实质差异,限于自然人的人格或主体制度难以含盖两者。德国法采用技术性的权利能力概念,统摄自然人以及基于自然人的法人或社会团体。在人的概念之下,德国法用权利能力描述权利主体,将抽象的人之理性转换为权利能力,并与行为能力、责任能力一起构造出完整的主体制度。由此,在法律上,人包含自然人与法人,不再限于自然人,其伦理性弱化,技术性浓厚。


自此,法律人格的主体范围由自然人扩展至法人,脱离了与自然人的内在密切关系。“法律人格不是自然人本身,也非内在于自然人,而是人(Person)与人之间存在的特殊外部关系。”因法律平等价值的注入,法律人格被普遍赋予自然人、法人。只是在私法上,法律人格以权利能力表征。最终,法律人格指向法律上作为人或主体的资格,是“人之为人的资格或必要条件”, 在私法及公法中均有体现。由此,应将法律人格与民事主体资格、权利能力区分开来。民事主体资格作为民事主体的资格,是法律人格在私法上的体现。权利能力是下位概念,侧重于享有权利、承担义务的主体能力,更为具体实定,技术性强,“权利能力仅仅意味着成为权利义务载体(即‘法律主体’)的能力,不再负载伦理观念”。


自然人与法人虽均为法律主体,但存在本质区别。自然人的法律主体性根植于康德哲学。“无论人的行为是对自己的或是对其他有理性者的,在他的一切行为上,总是把人认为目的。”作为目的存在的自然人系理性人,具有自我意识、意志、智慧,能凭借自主意思决策,实施行为,对外支配世界,并承担行为后果。自然人因其理性而作为法律主体。法人与自然人相比,非碳基生命构造,而是基于法律规定之规范体;虽关于法人本质的主流学说为实在说,认为其系社会有机组织,但此类实体在伦理性、道德能力等方面与自然人有实质不同。法人主体主要因其与自然人的内在密切联系,被视为人的意志的延伸和体现。


从法律人格取得的角度讲,自然人一律享有法律人格,无需特定的批准等外部行为介入;法人则须依据法定条件经相关程序经登记甚至批准方能设立。自然人具有的先验道德属性非法人所能比拟。“毫无疑问,从价值的角度说,法律承认人类有法律人格的立场与赋予法人有法律人格的立场之间存在重要差别:人类法律人格基于现行人道主义的法律道德观念而确立,它是人类尊严和人类有受尊重权利的必然产物。法人法律人格是一种法律技术机制,是一种模式,一种方式,籍此开展各种法律关系,以达到某一集体目的。”即使在权利能力这一同一概念下,自然人权利能力表现出浓烈的伦理性,而法人权利能力仍系技术性概念。法律理论试图以统一的主体理论及制度含盖自然人和法人,使得自然人主体立足的主体哲学在法律领域滑向离散状态,这主要表现在以下两个方面。


其一,自然人法律人格的确立虽然多数以理性意志为基础,但除此之外,存在大量的非理性、精神紊乱、意志力低下的人群。并且,在自然人处于婴幼儿阶段时,其理性能力意志力尚未完全展现,亦无碍于认定他们属于法律主体。一律承认自然人法律人格,并非完全基于其应有的主体能力,而是道德伦理考量。婴幼儿虽然没有行为能力,但可成长为完全行为能力主体,其成长性、无能力的阶段性都需要主体制度保护。那些陷入昏迷、植物人状态的自然人,不具有自我意识、理性能力,无论其是否能够恢复,出于伦理考量,都不能将其作为客体对待,毕竟人人可能因特定情形陷入此种困境,以客体论之将深深损害人之尊严自由。在此,笔者无意否定自然人法律人格的普遍性,只是揭示其并非完全基于主观能力而被赋予法律人格。由此,可以发现,自然人法律主体不只在于理性、意志、意思、智慧等,而是还蕴含重要的伦理性考量。


其二,法人主体理论深度消解了法律人格的主观能力要素。按照传统分类,社团法人乃自然人的集合,由自然人构成法人运行的基础。财团法人以财产为基础设立,但其运行依赖自然人构成的法人机关。因此,无论是直接或间接依赖人运行的法人,皆因与自然人的密切关系,被视为人类意志的延伸,其存续目的、功用等无法脱离人类之需。就意志力而言,社团法人意思来自于意思机关或曰意思机关中自然人依据特定规则决策,财团法人意思由设立人确定。法人本体若无人的介入,恐将失去自己意思。这也暴露出法人与自然人在主观能力上的本质区别,法人根本无独立的意志力,这也是拟制说较有说服力的原因之一。基于此,法人法律人格不需要理性、意志等严格的要件,只要与自然人存在关联关系,甚至因自然人意志设立,并有人类控制运行即可。


可见,当代法律主体理论已经与理性意志等主观要素逐渐脱离,承认新型法律主体不一定需要该主体具有精神能力和意志力。人工智能体基于人类意思创立,具有一定的自主性,即使当前依赖于人类,应当说也不构成赋予其法律人格的理论障碍。由此,无论人工智能的技术路线如何,或其精神能力大小,都无碍于赋予其法律主体资格,承认其权利能力,并开展相应的制度设计。


(二)人工智能法律主体的合目的性分析

为人类社会秩序建构、人类利益所需,以法律拟制方法赋予客体主体性,应无大碍,既有的哲学范式不应成为否定的根由。自我意识、意向性等人类主体特质,无法延伸至其他事物,但也不妨碍赋予它们法律人格。人工智能的自主性、初级的意识表现,对客体论提出挑战,主体哲学应当予以回应并有所发展。在此意义上,是否赋予人工智能法律人格,不在于其与人类的相似性,而在于人类需要,若赋予人工智能主体性有助于人类社会向善发展,即可赋予其主体资格。


具体而言,可从两个方面入手判断是否赋予人工智能主体资格:一是就赋予本身,证明其正当性,说明这样做的优劣;二是就赋予的后果而论,以良善的效果或价值证明赋予本身的正当性。前者系义务论,后者乃目的论。义务论认为正当独立于、优先于善,善依赖于正当,义务论通过考察行为本身来确定行为的好坏;目的论认为善独立于、优先于正当,正当依赖于善,目的论通过考察行为的结果来确定行为的好坏。由于义务论基于行为正当本身,后果附属于行为,故难以用于人工智能主体性的论证,毕竟人工智能主体与自然人本质有别。目的论在法人主体论证中得以普遍运用,法人这一非生物体之所以能被赋予独立主体资格,相当大程度上是从目的论角度而言的,基于其经济与社会价值,而非类人性或理性能力。对于人工智能而言,其主体性得以确立,必须具有社会认受性,符合一般道德伦理观念,有益于人类,这可以由目的论分析。


依目的论,人工智能作为主体能够产生良善效果或积极价值,即可承认其主体地位。当下,人工智能主体可否衍生此类效用呢?在弱人工智能条件下,虽然其拥有自主性,甚至可以主动学习,自我进化,具有不可预见性,存在失控的可能,但是人工智能对人的依赖度非常高,无论以客体或主体待之,人工智能都可能被人利用作恶。自初始设计开发,人的意图目的注入算法及智能体,人工智能首先体现了这些人的意志。此时,不符合道德伦理的坏的人工智能也会被开发出来。因此,人工智能本身仅就其自主运行对人的影响而言,存在善恶之分。对于恶的人工智能,法律当然采取禁止态度,更不能赋予其主体地位。只有符合技术伦理,满足人们道德责任预期,才有可能取得主体地位。可见,在人工智能主体条件中,积极向善是必要的,必须把那些无益于人类的人工智能自始禁绝,确保人工智能契合人类社会发展需要。


人工智能蕴含巨大的技术及社会风险,运用主体论有利于风险责任分担。依客体论,人工智能的开发设计者、生产制造者、销售者、购买者、使用者等主体之间,需要划分人工智能的风险责任。然而,人工智能因算法黑箱存在不可解释性、不可预见性;机器学习算法令其自我进化,不完全依赖人类既有的知识。“人工智能程序比人类能够在给定的时间内搜索更多的可能性,从而使得人工智能系统可以分析潜在的人类未虑及、更少尝试实施的方案。当可能性所在领域足够集中,人工智能系统甚至能够产生最优方案而非仅仅满意的方案。甚至在更复杂的环境下,人工智能系统的方案会偏离人类认知过程。”相同型号的机器人会在几天或几周后出现完全不同的表现,这取决于人类扮演其看管人角色的方式。归责难题由此产生,人工智能行为后果并非单一主体可预先设定,无法为人全面掌控,故需要将风险及责任分散。以主体方式,为人工智能设定财产、责任保险或基金,构造与风险相适应的责任机制,从而发挥避险功能,使人无惧于承担无法预期的不确定的无限责任,有利于人工智能的开发、普及和利用。


那么,人工智能主体会否导致上述主体滥用其主体人格,逃避个人责任呢?这是有可能的。鉴于人工智能主体背后的主体对人工智能实施不正当行为,违反其法定义务,可仿照法人人格否认理论,构造人工智能主体资格否认制度。一旦被否认,人工智能背后主体须承担无限责任。由于人工智能的技术路线、结构功用、运行状态等存在显著差异,因此需要在类型化基础上规定主体条件,赋予主体资格,构造责任制度,保障人工智能主体不损害他人合法利益和社会公共利益。一种妥当的综合化的主体制度设计,能适度分配人工智能风险,推动人工智能技术发展、产业应用,满足各方主体的需求。在社会层面,人工智能主体契合人工智能技术由弱至强以至于超级人工智能的发展趋势,符合人类向智能社会迈进的动向。人机混合、人机交互的生产生活场景将非常普遍,智能体的行为、反应等类似于人,尤其人形智能机器人,犹如人类伙伴、伴侣,深深嵌入人类社会系统。人工智能取得主体地位颇具社会价值。


四、人工智能法律主体的哲学史确证

法律主体在人类社会发展进程中的意义和内涵历经变化,而背后是关于人的哲学思想的变迁。通过发掘法律主体的哲学根基,可为人工智能法律主体地位的判断提供哲学思想支撑。


(一)人的传统主体哲学演化

从哲学史的角度看,人并非初始即作为主体而存在的,在人类社会早期只是人格神在自然的被摄物,人的主体性意识显露乃至人作为主体的存在历经了一段漫长而又迂回曲折的历程,以下笔者仅论述与法律人格密切相关的内容。


1.人格自神格独立。15世纪、16世纪欧洲的文艺复兴和宗教改革运动如火如荼地开展,造成中世纪神学—哲学体系的历史终结。文艺复兴重新燃起了对古代世界的兴趣,这一时期的成果是“人的发现”和“世界的发现”两大主题。这提出了一个冯·赖特称之为“人在自然中的地位”的新问题。这一时期的人文主义学者皮科·德纳·米兰多纳认为,在上帝的造物中,独有人在事物的伟大秩序之中没有固定的位置,人成为何种东西取决于人本身对自己位置的选择——这是一个有关人类自由的公式——在人身上存在先于本质。


于是,作为当时社会文化主要思潮的人文主义思想家从哲学和神学的角度论证了人的崇高价值,即尊严、才能和自由;人不再是匍匐在上帝之下的可怜被造物而是上帝创造的杰作。“所有的人都同样是上帝的子孙,每个人都具有他自己的独特意志。”此时高度繁荣的自然哲学发现了和谐能动经验的自然,阿尔伯蒂甚至认为和谐的数学比例使得自然变得完善和神圣,从而感叹“自然即上帝”。


可见,这一时期新兴的哲学也自觉或不自觉地以中世纪哲学观点为前提,人文主义的哲学家并不拒绝宗教,而是仅仅断言在人的本性的范围内,通过并非直接得自宗教的方法和假设就可以得到丰厚的研究成果。


2.人由实体跨越至主体。自然科学在17世纪、18世纪得到空前的发展,宣示着一个理性时代的到来。哲学为适应科学发展的需要,发生了“认识论转向”,人的主体性开始显现。作为近代主体哲学之父,笛卡尔试图寻觅一种自我的明证性和确定性。他为主体“我”之存在的证成觅得了一个出发点即怀疑,并开始了他特有的“笛卡尔式的沉思”。在他的普遍怀疑之下,思想可以怀疑思想的一切对象和内容,包括外在的和内在的对象世界,却无法怀疑自身——“我在怀疑”。“我在怀疑”必须有一个怀疑主体——“我”,否则怀疑就无法进行下去。这样,通过“我在怀疑”这个不可怀疑的第一原则,笛卡尔确认了“我”之存在。在笛卡尔看来,因为“我”仅是一个思维或精神性实体——心灵,所以“我”不能证明“我”关于物质“广延”的观念与它是一致的,只有“上帝”才能保证我们心中清楚明白的观念的真实性,进而保证外在事物的实在性,同时保证了心灵与物体的一致性——上帝一方面把自然规律建立在自然之中,另一方面又把它们的概念印在我们的心灵之中。最终,笛卡尔确立了自我(心灵)、上帝和广延(外在物质的本质)三个实体。笛卡尔的“自我”实体依然是一种思维实体——人因为有了“我思”的本质而呈现出主体性,虽然笛卡尔没有使用“反思”或“自我意识”等概念,但“我思”其实就是后来哲学家所说的自我意识和反思,这就终结了近代哲学以前只有实体而无主体观念的历史,“人”开始了从实体到主体的跨越,哲学也开始了向“主体性哲学”迈进。


3.人是目的而非手段。康德哲学奠立了人之主体性的综合思想基础。康德把人类知识分为感性和知性两部分,感性提供直观对象,知性则以概念思考为对象。知性的纯形式即是范畴。知性纯范畴是人类思考经验对象的先验条件。康德在《纯粹理性批判》中通过先验演绎中的客观演绎说明了知性范畴对经验的客观有效性——知性范畴作为先验自我之综合统一功能的体现乃是自我与对象之间的“中介”,在综合统一杂多表象的认识活动中,它一方面把先验自我的同一性带给了对象,另一方面又把综合而成的对象带到了先验自我之中。因此,自然界的法则源于我们的知性范畴,知性决定自然的规律。


然而,与纯粹理性相比,实践理性更具有优先地位。“自由即自律”,唯有在实践理性之中,唯有在意志自由之中,方能体现出人之为人且不同于任何自然存在的价值和尊严。自然是一个从低到高的目的系统,自然人是知性的合规律性,文化人是判断力的自然合目的性——人的文化是自然的最高目的,是整个自然这个目的系统进化的最高层次,自然在人的文化之中得到充分的自我体现。“一切事物都应该为之存在的就是人、自我意识”, 人既是自然的存在物又具有不受自然限制的自由,就被康德作为创造的“终极目的”——“只有在人之中,但也是在这个仅仅作为道德主体的人之中,才能找到在目的上无条件的立法,因而只有这种立法才能使人有能力成为终极目的,全部自然都是在目的论上从属于这个终极目的的。”


康德作为主体哲学的集大成者,在对理性进行批判的过程中,以先验论的方式论证了不仅体现在纯粹理性认识功能之上,而且体现在实践理性的道德自由之上的主体能动性。知性为自然立法而理性为自身立法,作为自然存在和作为理性存在的人具有了自己为自身立法、完全由自身决定自己存在的真正自由,从而具有了不同于任何自然存在的价值和尊严。


综上所述,(自然)人的主体性哲学至康德得以确立,由此为近代民法上自然人普遍法律主体地位奠定了深厚的哲学思想基础。以人为中心、为目的的主体论持续至今。然而,在当代,以理性能力、自我意识为基础的传统主体哲学发生变化,令非人类主体得以栖身于哲学。


(二)传统主体哲学转向

随着19世纪以工业革命为始端的自然科学的革命式跨越发展,科学技术统治了整个自然世界,哲学关于自然物质世界的一般性原理被自然科学对具体物质现象的研究取而代之。而20世纪初开创的实验心理学则取代了哲学的认识论,对人的精神现象的研究逐渐从形而上学中分离出来。与此同时,达尔文主义的生物学开始研究人的本质和起源,进化论使“人”从形而上的思辨回归到世俗的血肉鲜明的动物形态。这样,哲学彻底失去了自身的研究对象,因为甚至连思索哲学的“人”自身都要被其他学科所无情“解剖”。


然而,胡塞尔通过现象学还原,使意向性(意向活动)的自我有了明见性,并在此基础上进行主体能动的意向性构造和意义赋予活动。先验自我作为现象学还原的剩余,是一种超验和无限的绝对主体,超越时间和历史的共时性而凝视、统摄和构造意识对象,并在意识性构造对象中实现自我生成。也正因为这种先验转向,胡塞尔“自觉地把现象学归入到主体主义哲学之中”,现象学也最终“将终极基础置于主体性之上”。然而,胡塞尔的主体超越于笛卡尔、康德和黑格尔——他不仅完成了从经验主体到先验主体的转向,并且继而在此基础上走向了主体的多数——主体间性,亦即交互主体性。胡塞尔借助莱布尼茨的单子多元论且在克服单子差异性和封闭性的基础上形成“单子共同体”理论,并进而阐述主体间性。


在胡塞尔看来,自我单子通过“移情”于他我单子而与其“结对”,把他作为我来理解,“他人在我之中被构造为他人,这是惟一可设想的方式,就像他人可以作为存在着的和如此存在着的而为我所具有的意义和有效性那样”。如此,他我就是自我通过结对联想和类比统觉所形成的外在投射,是自我在不同层面和时段的显现和变体,即他我是被自我意识为一个身体之后并能够自身意识到自己是支配身体全部行为的“中心极”的另一个自我。这种先验主体演化而来的主体交互需要在一种前谓词自明的“生活世界”中进行方显示意义,即把作为世界“视域”的逻辑支点并意向性地构造了对象的主体重新置入世界中交互而实现生成与演进,“只有主体间的互动的世界才是真正现实的生活世界,也只有在现实生活世界之中相互影响的主体间性才是真正的主体间性”。


毫无疑问,胡塞尔主体主义哲学的“‘交互主体性世界’理论为当代西方人学奠定了方法论的基础”, 同时也为主体性和能动性的人之位格——“人格”——“人的主体性要素的整体性结构”, 纳入了理性、精神性和伦理性的元素。


(三)主体哲学史对于人工智能主体的启示

传统主体哲学在当代发生转向,人的哲学危机引发新思考新认知,尤其人类中心主义的主体-客体范式遭受质疑。法律为什么赋予特定对象法律人格,不再受制于和人类相同的主体能力,更多地表现为满足人类社会需求。断然以人类为准,否定人工智能的主体性,实际上则落入人类中心的主客体范式窠臼。


以理性、意向性、自我意识等为由否认人工智能主体性不具有充分的哲学正当性。恰如主体哲学史、法律主体史所示,能否作为法律主体不只在于人类级的主观能力要素,最主要的因素与一国的经济、政治、科技、文化等密切相关。主体哲学思想乃诸多因素在哲学领域综合作用的凝结。主体哲学在当代的变化,主客体基本范式的松动,都进一步揭示了人工智能法律主体的哲学思想空间。特别在法人主体获得普遍认可的社会环境下,以人工智能为法律主体不存在过多的障碍。试想当年法人面临的质疑及立法承认过程,人工智能主体性问题几乎是历史的重现。


在哲学层面,需要从人类社会变革与社会关系重塑的角度,深刻认知新技术的意义与功用。新技术不仅导致物质层面的力量变化,而且带来更深层次的社会系统及社会关系变革。基于新技术的人机关系、人际关系不同以往,社会利益结构、运行机制等均发生剧烈变化。新技术当然不限于人工智能,也包括区块链、大数据等技术,它们构造出不同于工业时代的新型社会关系。在微观层面,以新技术为底层或聚合体,新人际关系得以生成深化,呈现间接性、匿名化、远距离等特点。此种新技术体或平台可否作为法律主体,成为热点问题。哲学上从“单向度的人”、“神圣人”、“微粒人”等角度作出有益阐释,对于认识主体问题颇有启发。


在弱人工智能时期,人工智能虽然能够实施看似智能的类人行为,但无法充分理解符号意义、行为属性,故而被认定无心灵、无意向性,进而主体性难以得到认可。归根结底,这种观点除了固守人类中心主义外,还因为缺乏一种深邃的哲学眼光,从发展性、未来性的视角看待人工智能。主体哲学史早已表明,一个时代的风尚与价值偏好或判断仅仅具有当地的、有限时段的特定意义,在历史长河中既受限于历史环境,有所不能,又深具开创力,无所不能。在量子计算发轫、算法精进、数据喷涌的迅猛态势下,人工智能正在迈向通用型。无论是主观能力方面,还是行为外观方面,人工智能愈加逼近于人,也更加能够为人类接纳,从而深度嵌入人类社会关系,成为关系型主体。


五、结论

人工智能法律主体地位争议颇大,否定论者更加强调人工智能缺乏理性意志等主观能力,难以作为权利义务的载体,肯定论者从各个角度试图强调赋予其主体地位的正当性。就本体而言,人工智能具有显著的自主性特点,且因不可预见性、不可解释性产生“责任缝隙”,需要以主体方式衡平各方权益。从他者期望的视角看,应承认人工智能的道德责任能力,其无疑可作为道德主体。从法律人格的历史演化可知,由部分自然人到全体自然人,再到法人,法律主体范围不断扩大,主体性呈客观化,法律主体理论的传统哲学根基已松动,不再唯理性、意志等主观要素论。在目的论意义上,人工智能主体对与其直接密切相关的主体,对于人工智能技术及产业发展,对于推动智能社会发展,具有重大价值,能够成为积极向善、助推实现美好生活的友好力量,赋予人工智能法律主体资格颇合目的性。而今,传统哲学转向,人类中心主义的主客体二元结构逐步消解,客体主体化的历史经验与当代实践表明,所谓客体完全可以主体化,主体不限于人,人工智能也可以作为法律主体。哲学认知的演化及转向过程,隐藏着人工智能法律主体的密码。笔者撰写本文仅属初步尝试,尚待结合社会变迁、智能社会结构调整、人工智能技术进步,进一步深入探寻人工智能法律主体的法哲学基础。


本文责编 ✎ 清风

本期编辑 ✎ 倩妹



推荐阅读

论不道德的自由

论不自由的道德——答徐舒浩《论不道德的自由》

《人工智能“入侵”法学?2017-2020年论文盘点》

智能机器人法律主体地位探究:以强、弱人工智能对比为视角

人工智能汽车交通肇事的刑法应对:以Uber交通肇事案为研究视角


联系我们

长期收稿邮箱:qmfmbjb@163.com


社群交流请添加公共微信:

公共微信1:qmfmggwx  

公共微信2:qmfmggwx2


付费咨询与讲座请添加小助手微信:qfxzsggwx


商务合作请添加微信:Fuermodian


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存