华政学报 | 王春梅 冯源 技术性人格:人工智能主体资格的私法构设
技术性人格:人工智能主体资格的私法构设
作者简介
王春梅 天津师范大学法学院教授,法学博士
冯源 天津师范大学法学院副教授,法学博士
本文系国家社会科学基金项目 “人工智能的主体性及其私法规制研究”(项目号 18BFX113)的阶段性研究成果
目次
一、祛魅:人工智能体主体资格的三种基本结构
二、反题:人工智能主体资格与自然人法律人格的切割
三、正题:人工智能主体资格对物格的超越
四、合题:人工智能的主体类型、财产与责任
五、结语
摘 要
就方法论而言,人工智能体的主体资格完全可以在与自然人法律人格相切割,并在与物格相区隔的基础上得以证成,也即反向验证,人工智能作为技术造物,可以从自然人人格中分解出技术性人格,借助于法律拟制技术获得相应的法律位格;正向验证,人工智能的自主性和社会性使其难以 被融入物格层次结构,从而应当纳入主体范畴。在具体制度构设时,可以在规范称谓上以“技术人”称 之,以保持与自然人、法人的名称同构,并对其主体资格的取得和终止设置登记要求;在财产—责任机制上,不设主体资格准入之财产强制,但对其所有人或管理人配置以补充连带责任,求得交易安全与 产业发展之平衡;在权利能力范围上,严格限定为财产法领域,以维护自然人在亲属法和身份法领域之伦理性、目的性,并由此揭示出人工智能体人格之有限性。
关键词
人工智能 “技术人” 技术性人格
伦理性人格 有限人格
在社会不断走向智慧变革之当下,不仅人工智能体在特定行业、特定领域的表现日趋卓越和令人惊叹,智能技术水平及其应用范围不断提高与扩大,在机器学习、知识图谱、自然语言处理、计算机视觉、人机交互、生物特征识别等相关技术方面已经取得了重大突破。凡此种种,给人类社会带来全方位而深刻的冲击、影响与挑战。
在法律领域,人工智能技术的发展不仅将改变人们对法律的认知,重塑法律的规则形态,乃至法律的价值导向,更是带来了无可回避的人工智能体的法律地位问题。在21世纪之前,人工智能的法律地位问题似乎微不足道,纯粹的主体与客体、支配与控制成为人与机器关系之当然与主导。但是,伴随着21世纪第二个十年的来临,人工智能技术再度崛起,并获得了前所未有的发展与关注。人工智能体不仅开始进入和参与人类社会生活乃至家庭生活,替代人类从事曾经一度专属于人的各种工作,甚至获得了人之身体外形,未来甚或可能拥有人之“情感”,而其深度学习能力更是使得人的意志无法绝对覆盖人工智能体之“意志”,从而使得人工智能体在一定空间范围内无可预知性地行动。那么,这样一种机器之客体躯壳却拥有犹如甚至高于人之智慧“大脑”的“狮身人面像”,其在私法上的法律地位开始变得混沌不明。
揭开神秘的面纱,人工智能体那个“人”之面具下真的是一副清晰可见的人脸吗?我国有学者曾经敏锐地预测,“鉴于智能机器人自主意识方面的技术飞跃和它在商业活动及社会文化生活中越来越重要的角色,智能机器人摆脱人类的纯粹工具地位而获取主体身份,将是一个必然的趋势,相关的法律关系主体制度设计也将面临重大变革。”抉择于主体与客体之间,人工智能体的法律地位如何安放成为本文讨论之命题。
一、祛魅:人工智能体主体资格的三种基本结构
较之自然人主体原型,人工智能主体资格认识的主要观点无异相当于自然人人格之逐渐“减等”, 并可在各国人工智能法案中略见端倪。
(一)人工智能逐渐“减等”的主体资格
在人工智能主体资格认识的三种结构中,将人工智能与自然人进行主体性等同是对人工智能法律地位承认最彻底的一种方式。该种“全有”式结构在论证进路上分为两步:第一步是将人工智能与人的表现结果进行比较,弱则减等,等同或者超越则承认其具有类人的主体性;第二步是将人工智能与人的主体性构成要素进行一一对照,以确认和验证人工智能具有主体性的结论无误。
人工智能主体资格的“部分”式结构属于中间路线,认为人工智能具备不完全的主体资格,即“准主体”。可以说,人工智能主体资格纷争中的代理人说、法人说、有限人格说、电子人说等都可以被涵盖于“准主体”架构之下。大体而言,“部分”式结构论证中所秉持的差异型逻辑,从本质上看是一种“近人型”或“类人型”逻辑,人工智能能否成为主体,以及何时可以发展成为主体,完全取决于由人工智能技术发展所决定的其与人类相近似的程度。
“全无”式结构将人工智能法律地位仍然保留于客体领域,作为与主体相对的“物”的存在,是最大的减等方式。工具说、动物说、产品说可以被涵射于客体的框架结构中。可以说,“全无”式结构完全坚持和彻底贯彻“人类中心主义”视角,秉持否定型逻辑,以非形式化的论证进路,企图釜底抽薪式地解决人工智能体的法律地位问题,从而使人工智能主体资格的讨论成为无源之水、无本之木。但是,如果着眼于人工智能技术的未来发展,着眼于人工智能应用对人类社会生活参与度之拓展,尤其是着眼于人工智能发展应用给人类带来的伦理和价值上的挑战,对人工智能的主体资格与法律地位进行未雨绸缪地思考与审视亦可视为对发展理念的另外一种解读与诠释。
(二)不同国家人工智能法案的视角
2017年2月16日,欧盟议会通过了《就机器人民事法律规则向欧盟委员会提出立法建议》。该法案认为机器人自主性越强,越应当更少地被认为是其他行为者手中的简单工具,并首创“电子人”概念,为机器人创设特殊的法律地位,以解决其致害责任和交易主体资格问题,但亦将其自主性限定于较为狭隘的视野。韩国、俄罗斯紧随其后,其法案基本精神与欧盟基本一致。韩国2017年提出的《机器人基本法案》对机器人的主体性借鉴了欧盟“电子人”表达,确定了机器人相关伦理和责任的基本原则,明确了机器人的设计者、制造商和用户的行为边界。俄罗斯人工智能法案则走民间路线,其民法学者起草的《格里申法案》(2017)对人工智能体进行二元定性:一方面遵循传统人机关系的主客框架结构,承认机器人具有财产本质属性,将其定性为民事权利的客体;另一方面又在一定程度上突破传统人机关系认识与定位上的主客结构,从而在逻辑体系架构、术语表达和机器人的法律地位定位,以及类推适用法人法规范等方面展现出对“机器人—代理人”主体属性和主体地位予以肯定的倾向。其他各主要国家亦制定和出台有相关的人工智能发展战略、规划或研究报告等政府性文件,如美国的《国家人工智能研发战略计划》、英国的《机器人学与人工智能》报告、我国的《人工智能发展规划》与《促进新一代人工智能产业发展三年行动计划(2018—2020年)》等,只是这些文件中尚没有直接涉及人工智能的主体性和法律地位问题,而是更多倾向于推动人工智能产业的发展,以期享受人工智能产业发展所带来的重大利好价值,将人工智能的主体性和法律地位问题交给未来。
二、反题:人工智能主体资格与自然人法律人格的切割
人工智能主体资格的人类中心主义视角可以体现于人工智能的判定标准:人类思维、人类行为、理性思维和理性行为。著名的图灵测试核心即在于“计算机能否在智力行为上表现得和人无法区分”。即便如此,人工智能就能拥有如同人一样的法律人格了吗?若从人类中心主义的角度加以证成,至少应该从康德哲学两大方面架构人工智能的主体性:其一,在人工智能与大自然的关系上,证成其是认知主体,具有为自然立法的能力;其二,在人工智能与社会的关系上,证成其是伦理主体,具有为自己立法的能力。若排斥人类中心主义的视角,则需要证成算法具有独立存在的价值,从而可以使人工智能被升格为目的而非手段,但如此将悖于人之目的性与目的价值。故此,从价值角度考量,人类中心主义视角可能更为妥当,在论证路线与论证方法上,可诉诸“非人可人”的拟制技术,并从本质上对人工智能的技术性人格与自然人的伦理性人格进行彻底切割,以求得在法律实证主义占据主导之当下,人工智能体私法主体地位之妥当性。
(一)“技术性人格”与“伦理性人格”的关系
在近代之后的法学范畴,人格、主体资格、权利能力于自然人而言已无任何差别;在哲学范畴,人亦早已成为“灵”与“肉”、身体与意识二元统一的有机体。职是之故,自然人法律人格的形成基础,与形而下的身体外观、形而上的内在意识密不可分。在身体与意识二元分立的历史阶段,人格可以被身份计量,故可被否定或者减等,不免因带有强烈的工具性色彩而被技术化了,身体的不受尊重成为表象。最早于柏拉图而言,身体是不可信赖的,“保证身体需要的那一类事情是不如保证灵魂需要的那一类事务真实和实在的”。中世纪的神学传统亦体现出对身体的压制,奥古斯丁眼中的上帝之城与世俗之城顾宁说,后者是被上帝抛弃之人的处所。尼采和德勒兹将历史看作是一个不断地对身体惩罚或者编码的过程,而福柯则认为历史体现为权力向身体的进犯。无论如何,这些人眼中的身体都是没有灵魂和意识的基础本体。当身体作为手段时,自主的意识难以发挥,处于沉睡状态;身份的差别成为人格区分的理由,于是“人可非人”,如古罗马的奴隶、美洲的黑奴。
当意识在身体中被唤醒,身体便获得了解放,此时才有了意识和存在的伦理关系,人格中的伦理性要素方才逐渐显露。笛卡尔提出的“我思故我在”,说明“人从自己那里找到世界的根基且这样的根基必须能得到思维的确信”。人的理性智慧作为认识自然的真正工具始于文艺复兴,这样的人文主义“关注人的命运、自由意志问题以及人在宇宙中的地位,强调个人生存的权利、价值和尊严”。通过宗教改革运动,理性被视为具有普遍性,“宗教存在于人的精神之中”。而后启蒙哲学承继了理性与自由的基本传统,“高举理性的旗帜、树立理性的权威,以理性的激情、态度和精神引导人们向着自由的目标前进”。理性作为主体最高的认识能力,是主观意识作用于客观存在的过程。依据理性法则,人成为自由、自律的伦理主体,成为目的而非手段。至此,在身体与意识二元统一之际,由于身体伦理的建构,技术性与伦理性两种人格要素在自然人身上无缝衔接、水乳交融,“技术性人格”甚至转而退居幕后,使得自然人法律人格以有机建构的方式出现,勾勒出了人光辉灿烂的主体形象。
“技术性人格”与“伦理性人格”在人工智能体之上显然是互相排斥的。人工智能产生于对人身体和大脑功能的取代,仅仅涉及人格形成的“身体要素”。据我国学者考证,Robot(机器人)词汇最早来源于捷克作家卡雷尔•卡佩克创作的《罗素姆的万能机器人》,词源是波兰语中的强迫劳动(Robota)和工人(Robotnik)。故而人工智能产生的主要价值在于替代人类的体力劳动以及脑力劳动,解放人的身体,从机器和形而下的身体之间替代与被替代的关系出发,人工智能的“技术性人格”获得了有效的支撑。人工智能具有理性吗?理性和人工智能体之间能建立意识与存在的有效对应吗?两个证成的方向都不乐观,证成路径也很周折。一方面,由主观主义出发,由人证明人工智能具备近人的“理性”,即便人工智能与人思维方式一致,通过结果比对已然没有差距,人造物的“理性”也无异于东施效颦;另一方面,由客观主义出发,证明人工智能所支撑的算法规则是一种客观“理性”,但缺乏上帝视角,从人类中心的经验出发,只能是一种“伪客观主义”。
(二)“技术性人格”与法律主体资格的相容性
对于自然人,在身体被解放、意识与存在的辩证关系建立之际,“技术性人格”和“伦理性人格”便休戚与共了,推动自然人主体性伦理的形成,这样有机的人格体现在法律上为自然人的法律人格或主体资格。如著名学者乌尔特尤斯的经典论断:“奴隶是‘homo’,但不是‘persona’。在市民法上,自然意义上的‘homo’被称为‘persona’。”立法上的人格最早源于1804年《法国民法典》第8条:“所有的法国人都享有民事权利”。据此,自然人的法律人格作为适用法国民法,享有民事权利、成为权利主体的区分标准。
人工智能体作为只具有“技术性人格”的人造物,自然无法类推适用自然人的主体性伦理,但这并不构成人工智能体获得法律主体资格的障碍。人和人造物存在“碳基”和“硅基”的云泥之别,建构自然人主体性自始便是“技术性人格”和“伦理性人格”二元合一的,故而人工智能体在过去、现在和未来也不可能获得类似自然人的法律人格,但立法基于政策或者现实的考虑却可以赋予人造物以技术性主体资格。我国学者通过对“位格”概念的考证为这种理解找到了历史渊源:罗马法上的奴隶是自然之“人”,却没有法律位格,一个没有生命的人为设置物尽管不是人,却可以因为法律拟制而具有法律上的位格。位格制度只是为人际关系的多样性和复杂性在法律上找到更多解决的可能性,具有法律实证主义的精神。从人类命运共同体的情怀出发,人和人造物都可以覆盖于主体资格的表述之下,只不过前者是人格,后者是位格。
人造物拥有主体资格(位格)这种解决问题的思路是非常务实的,这可以有效地回应很多学者的困惑,例如,一些国家立法将特殊之物赋予主体资格。从主体开放性的角度,首先可授予为人之发展目的所必要的工具以主体地位,例如法人。法人作为成员或者财产集合体,基于民事交易的需要,可授予独立的法律地位,令其具有独立名义、行为和责任。特殊之物的主体资格无须满足普适性,国家基于特定政策、需求也可为之,例如,新西兰国会于2017年3月授予旺格努伊河主体资格。再则,可基于人类命运共同体之同理心,提高动物的法律地位。动物作为义务主体、责任主体早已进入法律诉讼,1991年瑞士苏黎世州已立法规定受虐动物有权拥有律师,瑞士1992年修宪正式承认动物是“存在体”或“类”。虽然,某些存在当然不具有任何的意识、情感和理性,不符合传统法律主体要素,但因对于人类社会的重要意义,为更加周全地保护它们或附加义务于他人,法律视之为“人”,系旨在推动人类社会进步之法律拟制。至此,人工智能体从“法律位格”的角度获得主体资格是现实的,毕竟法律位格的赋予纯粹成为法律技术运用的产物,与法律主体是否为生命有机体并无必然联系。学者已提出,“机器是否应该拥有法律人格,可以借鉴历史上法人被赋予法律人格的理由”,即赋予法律资格处理和持有财产的便利,且发挥“社会组织在商品经济社会的实际作用”。
三、正题:人工智能主体资格对物格的超越
在私法的范畴内,不仅存在人与人格的世界,也存在与之相对应的复杂而多元的物的世界。故而,为应对当代市民社会物的多极化、复杂化的现状,民法应当提出物的类型化的具体制度,来概括不同类型的物的结构体系,杨立新教授提出和创设了“物格”概念和物格制度,从而使民法体系中物的世界展现出一定的发展性、包容性与开放性。由是,人工智能体是否能够被涵射于物格层次中某一类型而无缝对接地融入私法的客体世界,就是一个值得深入论证的问题。
(一)从“物格”的差序格局验证人工智能体的地位
平等是人类永远的价值诉求,但差序或许是无法回避又永远无法消除的现实。费孝通先生曾以差序格局比拟人情厚薄:“以‘己’为中心,像石子一般投入水中,和别人所联系成的社会关系,不像团体中的分子大家立在一个平面上的,而是像水的波纹一般,一圈圈推出去,愈推愈远,也愈推愈薄。”不唯人与人之间的关系如此,人与物之间亦会因与情感关联紧密与否而显现出某种差序状态,从而使物格的层次具有差序性。具体而言,在物格体系中,与人情感层次越近之物,无可避免地带有伦理色彩,越易在法律上取得特殊地位,反之则作为一般物格予以一般对待并赋予一般物的法律地位。据此,杨立新教授具体区分出“伦理物格”“特殊物格”“一般物格”三个层次。而人工智能体则可以超越于这三者之外。
一般物格作为民法最一般、最普通的物,以传统的有体物为代表,与人的情感层次较远,在一般物格的范畴之内讨论人工智能体的法律地位具有不恰当性。而特殊物格作为晚近民法规范体系发展变迁的结果,即是由于“社会经济与科学技术的飞速发展,以农业社会、有体实物为调整对象基本模型的传统物权法的许多法律规则,已经无法直接或者全部适用于新的物种类”而出现的,其虽然较一般物格与人的情感距离稍近,但仍然更重物的“使用价值”,并较高依赖人的指令,绝对适用财产法律规则无可争议。人工智能体虽然在时间轨迹上亦属于晚近之物,但其未尽然排除其他可能性。也就是说,虽然在1956年达特茅斯会议上,人工智能的发展目标停留于机器“描述和模拟”人类的学习和其他智能,但如今的人工智能已具备发达的语言系统,从工具本身不断进化,已在各类软件系统如专家系统、知识图谱和人机对话等领域大放异彩,进化的手段也是依赖自身学习而完成,早已远远偏离特殊物格。
较有争议的是人工智能体是否具有伦理物格。因为,在人工智能技术发展及应用中,人工智能伦理问题开始受到越来越多的关注,很多学者开始通过“关系论”的范式反思人工智能体的伦理问题,如考科尔伯格认为,“事实上我们对很多物体包括机器人赋予伦理关怀,不是因为我们相信他们有权利或者知觉,而是我们拥有他们或者我们在关系的层面赋予价值”。但是,人格财产因具备人格利益的要素而被赋予伦理物格,其出发点在于尊重生命有机体的价值。而且,即便从“生态中心主义”的视角,人和动物皆是生态系统共同体的成员,甚而证成动物的道德权利,但无可忽视伦理物格以人或者动物的自然存在为基础的事实。人工智能体不仅不具备获得伦理物格的组织基础,而且由于发展速度尚未可知,人工智能体是否能以独立存在获得伦理价值至今无法被证成。即使涉及对人工智能伦理命题的讨论,也基本在于反映社会需求和价值观,或者对开发者课以伦理准则,或者在于敦促机器人“尊重人类的总体原则”,“以对待宠物的方式对待机器人同伴可能会逐渐被认为与我们的社会价值观不符。”
由此,在绝对秩序上,物格的概念及其层次设计并未脱离私法中主体和客体二元世界的基本图景,无论何种物格仍然是对“不拥有法律权利资格实体”的描述,而人工智能体已然具有了超越于物格而向主体发展的极大可能。
(二)人工智能体算法的“超越性”与“相对独立性”
人工智能体无论是否具备人类的外观,其本质的运行规律是算法,并决定和代表着人工智能体处理信息的能力。算法停留于技能层面,属于个体运用已有的知识、经验并通过训练形成一定的“行为方式”或“智力活动”。以哈耶克的规则类型定义算法,算法属于典型的内部规则,是人工智能体采取特定行动策略而自发形成的自生规则。例如,alphago和李世石对战时采取的暴力搜索法,这种方法全面生成所有可能的算法,选择其中最优的一个对博弈树穷尽搜索。正是由于算法规则的支撑,人工智能体才得以创建规则和行动,进入权利要素的核心,并最终获得超越物格的法律地位。
算法规则对人工智能体的支撑及其内部规则体系的确立源于人工智能体的深度学习能力,并最终使其完成由“工具”向“智能体”的进化。在工具强制执行人的指令阶段,工具的运行策略在于人输入规则,工具输出结果,是单纯的功能性存在,此阶段的人工智能体与传统的有体物没有任何差别,其存在意义就是满足民事主体的各种需求。至深度学习阶段,人工智能体的行动策略在于人制定框架结构,智能体自身形成内部规则,并在分析、计算、处理海量数据的过程中不断推演出新的规则,完成自我输出,从而变被动为主动。奇点是否会到来尚未可知,但蒂姆•厄班在《AI革命:通向超人工智能之路》中的判断显然是有道理的:人类科技的发展是越来越快的,呈现出不断加速的势头。人工智能体的深度学习能力极可能在某个时刻实现质的飞跃。
完成质的跃升后的深度学习能力可以在自主性和社会性两个方面推动人工智能体完成超越物格的进化。就自主性而言,由于“深度学习就是把计算机要学习的东西看成一大堆数据,把这个数据丢进一个复杂的、包含多个层级的数据处理网络(深度神经网络),然后检查经过这个网络处理得到的结果数据是不是符合要求——如果符合,就保留这个网络作为目标模型,如果不符合,就一次次地、锲而不舍地调整网络的参数设置,直到输出满足要求为止”。从这个角度出发,人工智能体相对于一般工具,能够适应变化做出反馈式改进的策略,实现对物格的非自主性超越。就社会性而言,在算法规则的支撑下,人工智能体披上了各种各样的外衣,日益获得和扮演着类似人的社会角色,成为机器警察、法律专家,甚至人的伴侣等,与人进行有效的互动。从符号互动的角度看,人工智能体几乎被完全“社会化”了,这些“社会机器人能够通过社交暗示进行交流,展示其自适应学习行为,并模仿人类的各种情绪状态”。社会化的机器人在与人的互动中不仅要遵循一定的社交行为模式,而且可能会越来越获得如同人一般的对待与法律地位。
不过需要注意,人工智能体自主性的本质在于“技术理性”,社会性则体现了人工智能体在未来参与社会交往的时间和空间可能性,二者为人工智能体超越物格、拥有主体资格,获得独立法律地位提供了有力的基础,但即便如此,“技术理性”仍然迥异于“人的理性”,将“技术理性”等同于“人的理性”从而支撑人工智能体能够获得类人人格属于失之毫厘、谬以千里。以智能投资为例,可以简单描述和证明人工智能之“技术理性”与“人的理性”之差异。具体而言,人工智能仅能通过神经网络等方法进行数学建模,引入其历史开盘价、收盘价、最高点、最低点、过去N天的股票均值、成交量等信息,利用历史数据训练模型,然后对当前股价进行上涨或者下跌判断。人拥有个性化的意识与智能,例如通过公司内部信息(是否有投资并购、是否发生了重要岗位人员变动、是否有负面新闻报道,以及国家政策支持此行业发展或抑制行业发展等方面)综合判断当前股价进行上涨或者下跌的情况。
由此可见,虽然强人工智能并非简单应用人类设计的算法,而是产生自己的算法,并可以通过模块、神经元、子程序相互作用的深度学习进程,获得优化适应环境、解决问题的策略,甚至可能给困惑人类的命题一个答案,但这样的技术理性是机械的、程式化的,是“脱离了个体情绪的系统化、模式化、步骤化的操作”。这种技术理性在执行任务时虽然表现良好、达到专家标准的 “训练式的操作模式”,但却并不能完全等同人类理性。人的理性虽然是“有限的理性”,但人工智能体对“人的理性”中的非常规化、非逻辑化和个性化的意识与智能等方面仍然无能为力。
另一方面,“人类理性的运作是心智的整体活动的一部分,其中有逻辑推理的影响,但也不可避免地与情感欲望相关,三者混杂在一起,无法截然分开。”作为有限理性的法律主体,人以“权利—义务”结构约束自身,以“利己—利他”的利益平衡与他者互动,以善恶之分的人性勾勒一般人的图景。而人工智能体却排除了情感欲望,沦为单任务绝对理性的象征符号。人与智能存在数理逻辑与思辨逻辑的差异性,人工智能难以胜任不可计算类问题的解决,也难以兼顾人文关怀和伦理。
总之,支撑人的有机人格的理性内核永远是掺有杂质的,尊重、承认、宽容这样的有限理性是尊重人之存在的基本伦理。人工智能体对人的理性的复制和模拟只是冰山一角,其可以在人类看不见大手的指挥下一直追求卓越,但却永远无法真正达至“人的理性”,唯有以无限度接近完美的表现和社会性来证成自己的主体性,这样的“相对独立性”谈何类人人格。
四、合题:人工智能的主体类型、财产与责任
人工智能体是工具性和手段性的存在,不具有自然人的理性、情感,也不具有自然人人格的伦理性与目的性,就此可以认为是作为物的存在,在传统法律关系架构中归于客体范畴。但是,人工智能的深度学习能力既可以为自己生成内部规则而“思考—行动”,又可以扮演社会角色,参与和创设民事法律关系,甚至以算法决策创设外部规则,影响和规范人类行为乃至为人类决策。“主体—客体”“物格—主体资格”的界限或许在逐渐模糊中终将迈过奇点,要求在实证法层面对人工智能体的主体资格、财产及其责任做出构设与安排。
(一)人工智能的主体类型
人工智能在我们身边几乎无处不在,对其定义亦有不同的认识,主体资格意义上的人工智能,在内涵上虽然可以意指“观察周遭环境并做出行动以达至目标的系统”,但因民事主体及其法律资格都是处于法律关系架构之下的概念,不仅需要该主体能够自主行动,而且需要具有与其他民事主体进行交互的能力,故宜将主体资格意义上的人工智能体在范围上限定为能够进入人类社会生活领域,具有物理实体的、与人类进行互动的高度人工智能体,从而排除了仅仅替代和解放人类身体的工业机器人,以及诸如自动驾驶汽车等精密机器。该种人工智能体可以具有人形,亦可不具有人形,但均如自然人一般以个体形式进入和参与人类社会生活,既是个体存在,亦是社会存在。如果说社会性决定了对人工智能体进行立法之必要,而个体性则涉及其主体资格的类型定位问题。
在人工智能主体资格的三种基本结构中,除“全无”式结构遵循否定路线,将人工智能留于客体领域外,其余两种结构都涉及人工智能体的主体类型问题。“全有”式结构基于肯定路线,将人工智能与人全面等同,从而在承认人工智能主体资格的同时,理所应当地将其归入自然人主体之中,这是一种很危险的认识和定位。在人工智能研究领域中,模拟人类大脑和人类的思维方式、行为方式是一种很重要的研究方法与研究路径,“图灵测试” “中文屋测试”等测试也基本以“人脑”为审查标准。实践应用领域更是将人类形体、语言,乃至情感等运用到人工智能中,使人工智能从外在形态到内在智慧都趋向于“人”。但是,“大脑中心论”将因人类大脑的复杂程度使这种模拟永远在路上,且人工智能虽然可以执行一度归属于人类执行的任务,但非人类行为本身,如果“用身体来定义人类”,又可能将人工智能引入“人形机器人陷阱”。也就是说,无论人工智能在智能与外形上如何与人近似,在本质上仍然不过是非自然的技术存在,与人在价值上、目的上存在本质差异,在私法上亦不宜将人工智能体等同于自然人而赋予自然人的主体资格。
在“部分”式结构中,“代理人说”虽然得以借助于人工智能的行为反推出其主体性,但却无法反推出其主体人格的类型,因为自然人、法人或者非法人组织均可为代理人,故无法据此确认人工智能的主体类型;“法人说”找到了人工智能与法人在财产本质上之共性,似乎逻辑性地证成了人工智能之法人人格,但人工智能不仅实体基础迥异于法人的团体基础与组织形态,而且其借助于算法实现的“思考—行动”模式也迥异于法人由特定个人以特定的程序实现法人的权利和义务模式,将人工智能定位为法人过于牵强;“有限人格说”和“电子人格说”均在肯定人工智能主体面向的同时,关注到了其与自然人、法人之本质差异,从而将其定位为自然人与法人之外的独立主体类型,具有可取之处,且“电子人格说”还获得了欧盟议会《机器人民事法律规则》的支持,但该法案并没有对人工智能作出明确定义,只是认为“需要制定一个被普遍接受的机器人和人工智能的定义,这个定义是灵活的,且不妨碍创新”。而我国学者对“电子人”的概念厘定,侧重以“电子”为基本单元和技术名称予以定位,在范围上既包括具有物质实体基础的机械人工智能,还包括具有自主性的电子系统,这似乎超越了法律赋予某类社会存在民事主体地位的功能考量,过于扩大了赋予主体资格的人工智能范围。相较而言,“有限人格说”基于现实条件,将人工智能定位为具有智慧工具性质并具有独立意思表示的特殊主体更为妥当。
综上,基于人工智能体的技术存在和个体存在基础,同时考量其相对于自然人的工具性与手段性,宜将其作为自然人、法人和非法人组织之外的独立主体类型予以定位与确认。在规范称谓上以“人”为中心语,可以将人工智能体与自然人、法人等主体名称保持同构而谓为“技术人”。
当然,基于人工智能体之“技术人”特质与交易安全、交易秩序维护之考量,需要对其主体资格的取得和终止设置登记的要件与程序要求,即该“技术人”自登记时取得权利能力,其权利能力终止时亦需要办理注销登记。此外,“技术人”主体资格之赋予和取得完全是基于其社会性而进行功能考量之结果,私法宜将其权利能力限定在财产法领域,仅应允许其进入和参加财产法律关系,享有相应的权利和承担义务,不宜允许其进入亲属法和身份法领域参加法律关系而享有和承担相应的权利义务,以维护自然人主体之伦理性、价值性与目的性,维护良善社会的基本伦理秩序。
(二)人工智能的财产、责任与有限人格
法学创造法律人格的概念意在于将现实实体与法律主体分离开来,并根据一定标准挑选应予法律人格化的社会实体,建立以之为中心的法律秩序。综观近代之后各国立法,挑选社会实体进入法律世界的标准区分自然人与否而异,即自然人权利能力的赋予更多的是受人文主义影响,基于人的价值同一性及人格平等之价值考量,从而要求割裂财产与其人格之关联,以追求和实现法律上的人格平等,因为“财产天生是不平等的”。而自然人之外的诸如法人、非法人组织等主体,其权利能力的赋予则更多是基于交易便捷和交易安全等功能考量之结果,无关人格之伦理性,财产即成为重要的考评标准,盖因“特定功能的实现是法律赋予某类社会存在民事主体地位的重要依据之一”。
人工智能体之主体资格,非因其同于自然人的个体性,也非因其具有人之外形与“情感”表现,乃因其促进社会发展与进步,广泛参与社会交往与民事交易,基于保护交易相对人之利益,尤其是保护与之交易的自然人之利益与伦理价值之考量与结果。换言之,人工智能体之人格,犹如法人“人格之根据,则在用于其社会的价值也”。当然,人工智能体非为团体存在,而是个体存在,不过众所周知,自然人人格取得虽然无涉财产,但个体工商户、农村承包经营户,以及个人合伙作为自然人从事生产经营的特殊形式,亦需要一定的财产基础。职是之故,人工智能体之主体资格取得亦应以财产标准为考评,私法应当为人工智能体权利能力的取得设定财产要求。
但是,一方面,财产外在于主体。人工智能体的主体资格是其所有人或管理人基于某种特定目的而创设,作为其人格取得实体性基础的财产,亦应由其所有人或管理人予以投入。另一方面,财产与责任一体两面。各国立法将团体人格系于财产,也主要意在于考虑和解决债务履行与责任承担的法律基础问题,进而使法人的结构建立在更安全的法学基础之上。故而,我国民事立法应当将人工智能体的财产制与其责任机制配设加以通盘考量从而进行制度与规则设计。
就我国民事立法普遍适用的规范制来看,财产与责任的关系配置在团体人格中较为清晰完整,并大体存在法人模式和合伙企业模式两种,前者又以公司制为典型,并根据公司形式设定有最低资本额之强制,并由设立人或股东认购出资或股份,形成公司“独立财产—独立责任/股东有限责任”的普见立法构设,以满足其设立人谋求法人资格进行责任限制的本质动机,从而达致“通过使财产独立化而产生的限制责任效果”。不过,近年来世界范围内对公司资本制规定开始趋向缓和,不仅法定资本制之限额门槛趋于降低,实缴资本制亦开始转向认缴资本制,以赋予投资人以更大的资本意思自治,同时引入诚信原则和人格否认规范,以责任机制的设计来化解财产制缓和给债权人带来的风险。后者虽然没有最低资本额之立法强制,但却对合伙人设有无限连带责任,以济组织体财产之不足,维护和实现债权人利益保护。
由此可见,团体人格下的资本额要么不设强制,要么趋于缓和乃至取消,在这种情况下,人工智能体财产标准的设定需要契合这种发展趋势,并考量财产—责任形式配置及其所对应的人格独立性程度予以最终确定。
“财产—责任”之形式组合与立法配置,不仅体现着资本意思自治与国家强制之间的动态发展与平衡,而且在某种意义上还展现和映射着团体人格的独立性程度。也就是说,“公司独立财产—独立责任/股东有限责任”对应与展现着公司法人的完整、独立人格,而“合伙企业财产/合伙人个人财产—合伙企业责任/合伙人无限连带责任”之组合形式则对应与展现着合伙组织的有限人格。我国人工智能体的主体资格构设亦可以通过将财产制要求与责任机制相媾和,跳出“独立财产—独立责任”之窠臼,适当弱化人工智能体人格之独立性,赋予其类似于非法人组织的有限人格。由此,立法虽然可以对人工智能主体资格取得设置财产标准,但可以不强制规定最低额度,以激励人工智能产业之发展。同时,在人工智能体权利能力之非独立领域,对其所有人或管理人课以补充连带责任,以人工智能体的所有人或管理人之人格、财产与责任强化对交易安全、交易秩序及债权人利益之保护。
实际上,对人工智能的所有人或管理人配设以连带或补充连带责任与人工智能主体资格之工具性也是一致的。也就是说,虽然立法可以基于功能考量而赋予人工智能体以主体资格,但其没有独立的利益诉求,也没有自身的独立利益,其基于主体资格所取得的一切利益,最终都将归属隐藏于其背后的所有人或管理人,这亦是其所有人或管理人创设人工智能主体资格之目的所在。就此而言,人工智能体之人格亦如法人、非法人组织之工具性人格。只是由于法人与非法人组织人格独立性之差异,决定了二者在责任承担上的不同,也即“法人本身的基本特征是它自身作为一个法律实体与其作为法律实体的成员或者职能机关的个人相分离”,法人独立人格布设起其与成员人格之间的“面纱”,从而可以完全斩断这两种人格在责任上的“直索”,但如果“面纱”被揭开,则发生责任“直索”;非法人组织人格之幕有限,不能完全遮蔽其成员人格发射之“强光”,故两人格之责任亦无法真正独立。将人工智能体作为如非法人组织之有限人格予以规定,则其所有人或管理人无法被人工智能体“人格之幕”完全遮蔽,其责任亦可以参照非法人组织的责任模式进行立法构设,即人工智能体以其全部财产承担责任,其所有人或管理人承担补充连带责任。当然,在此基础上,立法还可以基于人工智能体行为的不确定性与致害风险的不可预测性,对其所有人或者管理人的补充连带责任设置一定的上限,或者进行责任保险之配套,以制度分散和转移责任风险,达致受害人利益保护与所有人、管理人利益保护之衡平。
五、结语
综上,人工智能的法律地位已然清晰。对人工智能主体资格存在与否进行讨论之时,易生出思维左右摇摆的“循环环圈”:在人工智能产业方兴未艾的历史发展阶段,人工智能体作为纯粹的手段解释力不足,作为目的的实存又差强人意。无论是人格体系抑或是物格体系,对于人工智能法律地位都意味着无法承受之重。故而,应该对人工智能的主体资格进行深入分解:在与自然人法律人格进行比较的基础上,技术性人格获得证成而伦理性人格被证否,但基于自然人法律人格和主体资格概念的差异性,后者可以兼容人工智能的技术性人格,体现了法学概念的工具理性;在与物格进行比较的基础上,人工智能超越了物格的层次化结构,算法的自主性和社会性又能够赋予人工智能一定的价值理性,使其获得相对独立的法律地位,而不同于作为物完全受主体控制、支配、处分的命运。将人工智能的主体资格落到实践,基于伦理性人格的缺乏而无法进入亲属法和身份法领域,即参加人身法律关系,但可以深度参与财产法律关系;赋予类似非法人组织的主体性建构恰如其分,既保证了相对独立的名义和财产,又没有完全切断其所有人或管理人的法律责任,智能产业的创新发展得以保证,法律风险得以妥善控制。
(责任编辑:陆宇峰)
(推送编辑:周星辰)
本文载于《华东政法大学学报》2021年第5期。阅读和下载全文pdf请点击下方“阅读原文”或登陆本刊官网xuebao.ecupl.edu.cn;编辑部在线投稿系统已更新,欢迎学界同仁登录journal.ecupl.edu.cn惠赐大作!
推荐阅读
订阅方式
【向编辑部订阅】
1. 银行汇款
户名:华东政法大学
帐号:1001223609026407097
开户支行:中国工商银行愚园路支行
2. 邮局汇款
地址:上海市长宁区万航渡路1575号《华东政法大学学报》编辑部
邮编:200042
订阅电话: 021-62071670
【邮局订阅】
国内读者可到全国各地邮政公司办理
邮局发行代号:4-618