叶竹盛:智能社会中的法治与人的尊严
作者:叶竹盛(华南理工大学法学院 副教授)
来源:《法律科学》2023年第2期
目次
一、问题的提出
二、法律、法治与人的尊严三、智能社会的权利危机
四、智能社会中人的自主性危机
五、代结语:法治的尊严危机与应对摘要:未来法治的命运如何?现代法治深陷智能科技带来的未有之大变局。历史上法治曾面临多种危机,但智能科技将导致更为深刻的尊严危机——从根本上法治是否可能丧失保障人的尊严的基本能力?如果智能科技导致法治与人的尊严脱钩,我们是否还需要法治?我们是否还能守护人的尊严?不论是作为个人的内在价值还是个人自我发展的责任原则,个人尊严都是现代法律的最高价值。现代法律以权利和自由作为基本“语法”,通过法治这套“算法”,实现法律保护人的尊严的承诺。但是,一方面,权利可能被智能科技“架空”,无法成为个人内在价值的正当性基础;另一方面,智能科技可能使人陷入自主性危机,难以成为法律上期许的自由意志主体。智能科技的降临促使我们反思现代社会过度强调的以智性为单向度的个人尊严观,探索一种超越法律文明秩序的多维度文明秩序。
关键词:法治;人的尊严;权利危机;自主性危机;尊严危机
一、问题的提出
20世纪60年代,马尔库塞在《单向度的人:发达工业社会意识形态研究》一书中,不无忧虑地指出,“权利和自由在工业社会的形成时期和早期阶段曾是十分关键的因素,但现在它们却正在丧失其传统的理论基础和内容而服从于这个社会的最高阶段”。权利和自由构成法治的基本语法。权利和自由的危机也就是法治的危机。马尔库塞发出这一感慨之后,恰恰迎来了倡扬个人权利和自由的法治在世界范围蓬勃发展的半个世纪。权利和自由是人类社会迈向发达工业化过程中强有力的话语,成了和平的工业时代人类最强有力的解放力量。现代法治伴随着现代工业革命,从理论走向实践,在许多国家扎根,法治国家在一定程度上走进现实。马尔库塞的担忧更像是一则预先宣告的预言——法治危机真正爆发的时期可能不是发达工业社会,而是正在到来的智能社会。智能社会是以人工智能、万物互联、虚拟现实、区块链等智能科技构造的社会形态,虽然建立在发达工业社会奠定的强大工业基础之上,但并不是工业社会的简单延续,而是具有颠覆性的属性。就像人类进入工业社会经历了一段从蒸汽机发明直到第二次世界大战长达八十年的历史进程,当前,智能社会正在到来,但还远未完成。从二十世纪的第一个十年开始,移动互联网将每个人连接在同一个虚拟空间里——算法、大数据、移动支付、VR技术,种种智能科技使得互联网不再只是一个信息高速公路,而成了现实社会的网络延伸空间,甚至反过来浸润和支配现实社会。智能技术将使得技术对社会的浸润与支配变得更为彻底。如果说卓别林的《摩登时代》是人类在工业时代命运的最好写照,那么以下两个小故事则折射出智能社会的人类际遇。第一个小故事,笔者与国内某头部网络社交平台的一个中层员工聊天时,他说:“我们平台现在用户增长还是非常快,但是新增用户的质量不高”。在这样一个几乎全民使用的平台上,每个用户不论民族、信仰、性别、年龄、文化程度应当都是平等的,但是却可能因为用户粘性、消费能力、社交属性等因素,而在平台的用户画像中被划分为三六九等,区别对待。一个个自由平等的法律主体,在平台那里成了质量各有优劣的用户。智能科技使平台具备了给每个用户衡定质量的能力。平台悄然设定了各种参数,追踪我们在平台上的行为轨迹,精准描绘了每一个用户的画像。当一个个活生生的人被标定为网络空间里质量各有高低优劣的用户,基于权利与自由的平等尊严必然难以周全。第二个小故事更是直接体现了智能科技对特定群体权利的冲击。根据新闻报道,湖北宜昌一个80多岁的老人到社区交社保,工作人员拒收现金。现金作为现代社会流通性最强的交换媒介,是最基础的财产形式,却遭遇了“有钱也花不出去”的难题。法定货币仅仅因为电子支付技术的发展,其使用价值便贬损,货币持有人无法完整获得法律所承诺的财产利益。作为对照,比特币等非传统法币的价值却一路飙升。智能社会必然对人的权利和自由带来前所未有的挑战乃至冲击,法律是否仍然是一种可以依靠的力量?张文显教授指出,智能社会“法律规制失灵”和“法律秩序失调”是最严峻的挑战。很多学者也提出了类似的担忧。早在1996年,未来学家尼古拉·尼葛洛庞帝就形象地描绘:“我觉得我们的法律就仿佛是在甲板上吧嗒吧嗒的鱼一样。这些垂死挣扎的鱼拼命喘着气,因为数字世界是个如此不同的地方。大多数法律都是为了原子的世界而不是为比特的世界而制定的。”在马尔库塞那里,工业时代使得人们不可避免地丧失了任何具有想象力、批判性和超越性的向度,成了单向度的人,但是法治框架下的权利和自由仍提供了一种解放的力量,依然庇护人的核心尊严,所以马尔库塞依然寄希望于法律提供最基本的安全,他认为“法律的统治,不管怎样使人受到限制,仍然远比法律之上或者法律之外的统治安全”。上述两个小故事提醒我们,智能时代的法律是否可能如尼葛洛庞帝描绘的那样自身难保,奄奄一息,以致我们丧失了最后的法律庇护——不是我们不再需要法律或刻意抛弃法律,而是法律是否可能丧失守护人的尊严的能力。如果法治在智能社会必然陷入危机,那么这样的危机又是如何发生的呢?智能社会时代的法治危机,与人类社会以往遭遇的法治危机又有何不同呢?
本文并不具有承续与延展马尔库塞技术社会批判立场的雄心,而是仅从法律的内在逻辑出发,讨论智能技术如何瓦解法律赖以庇护人的尊严的内在结构,如何冲击旨在实现法律目标的法治制度,最终可能导致人的尊严无处安放。虽然智能社会正在开启,强人工智能也无法短期实现,如果我们仍然坚持守护人的尊严,就应当从更深层次审视现代法治的基底,在一切都太晚之前,为现代法治可能面临的危机做好应对准备。当然,对法治的忧虑并不是进入智能科技时代以后才发生的,在人类社会的不同历史时期,法治已经被多番质疑。但本文提出,与以往出现的法治危机不同的是,智能技术可能从根本上抽离法治赖以生存的客观基础,使法治成为一个幻象。借用霍金的话,人工智能可能是法治有史以来最大的敌人,也可能是最后一个敌人,除非我们学会如何避免危险。
二、法律、法治与人的尊严
(一)人的尊严是法律的最高价值
本文不准备深入讨论法哲学对人的尊严概念的理论争论,而是遵循德沃金、阿列克西和沃尔德伦的路径,认为人的尊严既体现人作为人存在的“内在价值”,也包含人追求自我实现的“责任原则”。人的尊严既是法律/权利的条件,也是法律/权利的原则,“法律的血肉中内含着守护人的尊严的承诺”。不论认为人的尊严是一种绝对价值还是相对价值,是一种具体权利或是抽象原则,现代法律都与人的尊严密切联系在一起。在实践意义上,现代法律为人的尊严的实现提供了基本条件。人的尊严既决定了现代法律的核心算法——以权利和自由为中心的规范体系,也决定了现代法治的基本原则——保护权利的同时也约束权力。人的尊严是法律的最高价值,也是最终目标。
(二)人的尊严的两个法律条件
受纳粹荼毒的德国,在战后制定的《基本法》第1条第1款开宗明义规定:“人的尊严不可侵犯,尊重及保护此项尊严为所有国家机关之义务。”第2款以“因此”为连接词,规定“德意志人民承认不可侵犯与不可让与之人权,为一切人类社会以及世界和平与正义之基础”。德国制宪委员会主席曼戈尔特解释道,“该条款的任务是,自由权和人权应该以人的尊严为目标和方向在法律关系中进行设置”。同样的思想也体现在1959年的《德里宣言》中,该宣言提出,在法治社会中,立法机关的作用在于创制并维护能够支持人的尊严的条件。法律现代性为人的尊严提供了两个基本条件,并提供了两个基本的承诺,以此换取人们对现代法律正当性的承认。第一个条件/承诺是:人是权利的主体,也是权利的集合体,每一个人都享有平等权利。这也构成了罗尔斯正义论第一原则的主要内容:“每个人应当具有这样一种平等权利,即和其他所有人所享有的同样的自由相并存的最广泛的基本自由权项。”人们通过权利获得一种可以向他人提出主张的道德正当性,也因此在权利—义务关系界定的人与人之间的关系中树立尊严。平等权利解决了人的尊严的“内在价值”问题——人拥有了权利,其价值的衡量就不再受其他外在条件或是人自身的素质所影响。享有权利之后还有如何运用权利的问题,因此法律现代性提供的第二个条件/承诺是:人可以基于知识实践自由。人依靠自身的秉性成为知识的发现者和实践者,再通过自身的自由意志作出自由选择并承担责任。实践自由也就是运用权利。康德将法律上的自由定义为“个人对他人专断意志和控制的独立”。只有基于自身掌握的知识而做出的实践,才可能避免受他人专断意志的控制,法律的自由才得以实现。“文艺复兴以来,米兰多拉·皮科的《论人的尊严》把尊严建立在人的自由意志上,其实也就是建立在理性本身固有的选择能力上,这种思路直到康德,应该说都没有实质性的改变。”基于理性的选择能力,实质上就是基于知识对自由的实践。皮科曾提出一个自我塑造的概念,实际上对应着人的尊严的第二个内容,就是一个有尊严的人有责任发挥个人潜能,自我塑造,实现最好的自我。法律并不规定人们应当塑造何种自我,但却提供了自由,使人们有机会自我塑造,实现尊严的价值。平等的权利主体和基于知识的自由实践,这两个条件不只是理论存在,也是历史存在。现代法律制度经由历史法学家梅因所称的“从身份到契约的运动”发展而来,现代社会中“权利、义务和责任都源于自愿的行为,而且是行使人之意志的结果”,由此体现了个人的自由。现代法律为了守护人的尊严做出了承诺,而人的尊严反过来调和了现代法律中两项核心但相互冲突的价值——平等与自由。德沃金在《民主是可能的吗?》一书中提出,人性尊严是法律、政治与道德理论的共同基础,包括内在价值原则(每个人的人生都有一种特殊的客观价值)和个人责任原则(每个人对于自己的人生负有使其成功实现的特殊责任,其中包括判断何种人生对自己而言是成功人生的责任在内)。两项原则分别对应平等与自由这两个核心的政治道德价值。平等原则主张每个人都应当受到同等的关注和尊重。个人责任原则则以个人享有自由为前提。这个作为前提的自由在德沃金的论述中“是以你有的正当资源去做你想要做的事情的权利”。显而易见,德沃金的两项原则正是以平等权利和实践自由为条件。本质上,德沃金的人性尊严概念吻合现代法律的两项承诺。一般认为平等与自由两个价值难以共容,但在人性尊严的旗帜下,德沃金认为两者“互为表里、互为补充”,不仅可以,而且应该彼此兼容。
(三)法治与人的尊严
法治是一个看起来清晰但却存在各种争议的概念。但就本文的论述目的而言,可将现代法治简单定义为“为了实现法律保障人的尊严的两个条件/承诺而构造的一套法律制度”。由此,现代法治至少包含两层要义。第一层面,法治平等保护每个人的人身、财产和公民权利,且为了实现权利保护的目的,有必要限制和约束公权力。在这个层面上,法治最大的威胁来自公权力,“法律通过创设有利于发展人的智力和精神力量的有序条件而促进人格的发展与成熟。他对那些受本性驱使而去追求统治他人的专制权力的人加以约束,不让他们进行人身的或者社会的冒险活动”。第二层面上,法治为每个人发现、表达和实践权利的自由提供基本制度保障。权利不会自我实践,人始终是实践权利的主体。法治保障人们实践权利的自由。言论自由、透明性原则、公开原则、正当程序等法治原则,构成了实践自由的基本保障。现代法治甚至主张采取积极措施,使人们获得实践权利的基本能力。阿玛蒂亚·森和努斯鲍姆主张的基于能力的正义理论在这个层面上深具启发性。努斯鲍姆在阿玛蒂亚·森的基础上提出,为了实现人的尊严,至少应当存在一个“最低限度正义的社会”,这样的社会既要着力培育公民的内在能力,也要畅通民众基于内在能力进行活动的机会通道。这就是在实质意义上使人具备实践权利的能力。在特殊情况下,例如转型时期的南非或是美国黑人平权运动时期,法治的第二层面要义要求法律积极地对经济社会权利进行调整,保护特殊人群,使之在实质意义上获得平等机会,从而真正享有实践自由。法律以平等权利和自由实践的架构描绘了一个关于人的尊严的美好愿望,并努力通过法治实现这个愿望。然而,智能社会的发展可能引发严重的“权利危机”,使权利无法为人的内在价值奠定道德基础;同时也可能导致人与知识的关系发生重大变化,人的实践不再是“自由”的,因此陷入“自主性危机”,自由实践成为幻象。法治保障人的尊严的两个支柱在智能社会都可能崩塌,人的尊严无所可依。
三、智能社会的权利危机
智能社会冲击法治的第一个层面是导致人与权利的关系发生重大变化。法律许诺个人通过权利可以正当地获取个人的生存利益和发展利益。但是在智能社会,权利可能丧失保障人之根本利益的能力,人们无法通过权利获取正当的生存和发展利益。基于权利正当性的人之内在价值的道德正当性也因此可能丧失。
(一)新资源无法财产化
首先,传统的财产权利(包括知识产权)不再代表智能社会最具利益价值的事物,而是由其他新产物提供和替代,但是新产物又难以被纳入传统财产权保护的体系,无法成为财产权的客体。如果说网络时代早期的一些巨头企业依然依靠传统财产权利获得了商业成功(例如微软依靠高效简便的操作系统软件,苹果公司依靠新潮高性能的电脑),那么现在的一些巨头企业却不再依靠传统财产权利,如“优步作为世界上最大的出租车公司,却不拥有任何出租车辆。脸谱网作为世界上最流行的媒体平台,却不创造任何内容。阿里巴巴作为最有价值的零售公司,却没有任何库存。另外,爱比迎(Airbnb)作为世界上最大的短租住宿供应商,却不拥有任何房产”。这些新巨头的商业成功依靠的是数据、流量、商业模式等一系列非传统权利客体的事物。网络时代已经进入了“数据为王”的时期,数据甚至被称为网络时代“新的石油”。石油代表工业时代最重要的资源,其最大的产地之一是阿联酋。2017年,阿联酋任命了首位“人工智能国务部长”奥马尔·乌莱马,其在2018年的国际石油博览会上表示:“数据就是新的石油,能以更低的成本实现更高的利润”;阿联酋作为最大的产油国,希望依靠数据这个“新的石油”建设人类的“未来之城”。数据价值巨大,但数据与传统的权利客体存在本质差别,难以成为权利的客体,因为数据的生产、占有、使用、收益、支配等方式与传统的权利客体都极为不同。就网络数据的生产而言,网络用户必须依赖网络空间的基础设施(例如网络平台等),通过发布信息、社交活动、交易行为等等,才能生产出有价值的数据。对于通过这种方式生产出来的数据,用户即使拥有所有权,也仅是部分所有权,因为这些数据同时也是网络平台提供服务后所产生的,应当至少部分归属于服务的提供者。对于用户来说,更重要的问题在于,即使认定了数据的所有权归属于用户,脱离特定的网络平台,用户无法有效占有和使用这些数据,遑论从中获益,因为“数据在它被汇集利用之后才会产生价值”。此外,也有学者从公共利益的角度认为,如果承认个人对信息的支配权,阻止他人利用信息,可能导致公共利益受损。因此,虽然各国法律依然努力保护数据,提供了各种保护方式,但是却难以按照传统财产权的方式,建构人与财产的支配和收益关系。中国新近颁布实施的《民法典》也只能无奈将个人信息模糊地定义为权益,而不是某种特定的权利。智能时代的“新石油”除了数据还有流量。一些情况下,流量比商品本身更贵,而流量也不是我们所理解的传统权利的客体,同样难以权利化。此外,商业模式也比商品本身更贵。优步(Uber)、爱比迎(Airbnb)和共享单车因为开创了新型的商业模式而获得成功。智能社会具有竞争力的商业模式是以大数据和智能算法为基础的,“没有中间商赚差价”,高效匹配供给和需求,降低交易成本,从而获得利润。然而,现代法律并不保护商业模式,商业模式不是任何权利的客体,甚至也不是反不正当竞争法保护的对象。数据与流量都是用户创造的,平台企业依靠用户的行为,积累了巨大的资源,并利用这些资源获取财富,但用户们却无法依靠现代法律的权利话语从中获取回报,这种现象被加拿大著名物理学家厄休拉·富兰克林称为“互惠的消失”,最终导致了分配不公。
(二)所有权与使用权分离
“现实已经清楚地表明:互联网时代的信息所有权并不重要,重要的是谁有权使用各种信息和数据,能够产生何种价值。”这种“所有权与使用权分离”的趋势将随着智能科技的发展进一步加大,分离的范围不仅限于信息和数据,而且包括各种网络、技术服务,甚至也包括传统的财产。根据权能理论,所有权与使用权不仅能够分离,而且为了实现权利收益,也应该分离。但目前发生的分离趋势却不是任何主动行为的结果,要么是像数据一样,生产者无法占有,只能共享共有,使产生数据的平台自然享有了使用权;要么是智能社会的大多数人无法成为重要网络和技术财产的所有权人,就像云操作系统一样,只能成为使用的受众,即使享有权利,也仅限于使用权。使用权分离后,无法受到法律的有效保护,理由有三:首先,使用权作为财产权的一种权能,其权利依据来源于财产权,法律保护财产,当然就保护对财产的使用。从权利主体角度看,也正因为主体享有财产权,获得法律上的支配力,进而可以控制财产的使用权,获得法律上的收益。当人们享有的只是使用权,而对于使用权所依附的事物无法获得所有权时,这样的使用权是不可靠的,只能依据契约取得用益权。其次,许多场景下,用户获得的并不是使用权,而仅仅是使用,并且是以服务接受者的身份使用。这种使用行为无法归属为用户的权利,因为是否提供,如何提供,几乎只受服务提供者控制。最后且最重要的是,传统权利的客体几乎是排他性的,一个房间只能出租给一个人;一张光盘只能销售给一个客户;知识产权若非排他性授权,则每增加一次授权,必然意味着价值随之降低。但是智能社会供应的产品、服务并没有排他性,边际成本极低,甚至用户越多价值越高,例如网络游戏、社交平台等等。经济学家用非竞争性物品(nonrival goods)的术语来解释这种不具有排他性的产品。因此,这种分离是“新资源无法财产化”和智能社会生产方式集中化趋势的必然结果,目标并不是为了兑现财产权利的利益。显然,这种分离也进一步割裂了权利与利益的关联。凯文·凯利畅想的场景无疑是对财产权制度未来命运的深刻隐喻——他想象,技术进一步发展,使用权将全面取代所有权,一个人只是使用所有东西,而不拥有其中的任何一件。这种场景将凯文·凯利一路带回了原始社会——“我感到自己与原始社会有着深刻的联系。我感觉自己就像一个原始社会中的狩猎者,他穿行于复杂的自然环境中时不会去拥有任何东西,却可以在需要时随时随地地获得一个工具,用完后便将其抛之脑后,继续前行。”现代法律中的财产权制度放到根本没有产权概念的原始社会,原始人会感到很奇怪。这就是产权制度在智能社会中可能而又可悲的未来。
(三)“后现代的人”撕裂人格权利
智能社会不止冲击财产权利,而且在剥离人与人格权之间的关联性。人格权是由人们的生命、身体、隐私、名称、名誉、肖像权等一系列基本人格的内容所赋予的权利。虽然人格权利是分立的,但是法律保护任何一项人格权利的根本目的都是为了保护完整的人。享有平等的人格权是人的尊严的基本条件,现代法律确实也承诺保护人格权,甚至将之作为最基本的权利加以保护。日本宪法学者松井茂记认为,日本《宪法》上的国民是具有自主人格的人,体现的是工业时代的“个人”形象。但是他又指出,网络技术的发展改变了“人”的存在状态,演进成了后现代的“个人”形象,因此宪法应当重新审视“个人”。但是松井茂记并未具体描述何谓“后现代的人”。“后现代的人”最重要的特征是,智能技术可能侵蚀人的完整性。个人的英文单词是“individual”,意味着“in-dividual”,即不可分割的整体。智能社会在以下几个方面割裂了人格,导致人不再完整。
1.智能社会使人的存在从自身延伸出来,甚至内在于人的精神世界也可以分离出来,成为网络世界的一部分。早在前网络时代,马克·卢汉就提出,“工具是我们自身的延伸”。虽然现在并没有足够的科学证据证明,高度模仿人类思想意志活动的强人工智能在可预见的未来必然会实现,但弱人工智能的降临已经是必然的。我们未必能将自己的灵魂“上传”或者“复制”到一个机器人身上,但是我们却至少能够将我们的部分意志从自身分离,通过输入指令、设定目标,转移到特定的自动实施和执行的系统上,例如为自动驾驶的汽车设置线路和目的地。智能社会使我们愿意在网络世界共享几乎所有内容——健康、财务,乃至性生活。我们也能将自身的体验与经历从现实世界搬迁到虚拟的游戏世界,使我们的一部分精神活动停留在虚拟世界。
2.智能社会中的人格不再平等,如开篇故事一中描绘的场景。我们在“数字化生存空间”中的身份并不平等,每个人不再是一个平等自主的主体,而是一部分人比另外一部分人有更大价值。赫伯特·西蒙说,“在信息丰富的世界里,唯一稀缺的资源就是人类的注意力”,但对网络广告商而言,有些观众的注意力要比其他人的注意力更有价值。一些学者甚至认为,智能社会运用的算法技术注定就是一项制造不平等的技术。例如牛津学者布莱斯·古德曼和赛斯·弗兰斯曼提出,“在一定意义上,运用算法画像来进行资源分配本质上就具有歧视性:当数据主体根据各种变量进行分组时画像就发生了,而决定的作出则是以某一主体归属于特定的群体为基础的”。除了网络世界的不平等外,智能科技同样也可以应用于现实世界,导致人们悄然陷入不平等的际遇。令人悲观的是,在智能科技面前,不平等的趋势似乎无可阻挡,甚至可能造出“数字贫民窟”。梅因的著名论断“迄今为止的进步社会运动,乃是一个从身份到契约的运动”,智能科技却可能使这个进程发生逆转,又从契约倒回身份——算法画像所锚定的数字身份,决定了我们在智能时代的价值和位置。
3.多重身份的产生。智能社会将人们的活动空间划分为现实空间和虚拟空间,而虚拟空间甚至可能是多重的。Metaverse概念及技术的提出和发展,只会导致人们同一时间身处的空间更加多重化。多重空间就意味着多重身份和多重人格。从外观上看,账号、头像(或其他具象性的代表形象)、声音、肖像、表达、行为轨迹等等参数和要素构成数字空间中人的身份。部分要素已经超出了现有人格权保护的范围。这还不是重点,重点在于,在多重空间之下,法律难以将一个人当作完整的人来看待,人格权所要保护的人之完整性,在客观上已经裂变了。郑戈教授引述了帕斯卡尔的“心灵有不为理性所知的理由”,指出法律旨在保护一个有肉身、有大脑的整体的人,智能技术和商业模式的结合使得人的形象越来越碎片化。从保护的难度看,多重身份也意味着人格受侵犯的可能性及救济难度大幅提高了。网络世界最显著的一个特点就是身份的易变性,确定网络主体的真实性和同一性极为困难。同时,虚拟现实技术也使得“深度伪造”成为现实,现代世界难以实现的易容替身,在网络世界中变得轻而易举。除此之外,人格权利也可能不再与人的主体紧密联结,而具有分割性,例如网络账号、虚拟现实中的个人经验,都可能成为公司资产或是个人遗产,脱离原来的主体而受控于他人,为他人所挪用。
4.智能社会中人与隐私相分离,隐私权难以保护人格完整。隐私是保证人格完整的要素,甚至成为一种历史力量,划定了公权与私权的界限。但是保障隐私权的前提是,个人享有“合理的隐私期待”,一个将自己的日记公开出版的人无权主张法律以隐私权保护他已经写进日记的信息。因此,隐私权的前提与财产权是一样的,本质上都是法律上的一种支配力。智能社会使得人们丧失了对自身隐私的支配,也因此丧失了隐私权的保护。更值得注意的是,智能技术对隐私信息的处理往往是群体性的,隐私信息并不与某个具体个体一一对应。商家借助群体隐私信息通过精准画像,将人群划分为各种小群体。表面上看,我们的隐私并未泄露,算法只是对我们进行分类,通过各种小分类,我们的各种隐私几乎都是透明的。如何避免群体隐私间接损害个人隐私,传统的隐私权理论捉襟见肘。
5.人格自身的价值遭受贬损。法律保护人格权的基本假设是每个人都是自主的,都具有独立的人格价值,但是智能科技却可能导致人本身不再具有特殊价值。因此不论从理念上我们是否坚持保护个人,保护个人的实践价值实际上已经遭到贬损。人工智能已经深度取代人的体力劳动,并且已经开始进入了传统上认为难以被取代的脑力劳动领域。保护人格是为了保护人的内在,但人的内在能力一旦被智能科技替代,人格的价值必然遭受贬损。目前人工智能已经被大量运用于创作文学作品、美术作品、诗歌、新闻报道及谱曲等。澳大利亚法院和南非专利局甚至认定人工智能系统为发明人,可以授予其创造物专利权。自文艺复兴以来,人的尊严开始脱离上帝而独立存在,特别是“上帝死了”之后,人回到自身的价值确立独立人格和尊严。从此,人格在现实性与可能性、此处和彼处、此时和彼时之间被认为是一个不可分割的统一体,“不能不考虑理想性和可能性以及时间、空间中的连续性”。法律通过保护各项人格权利以保护完整的人,不仅因为时间上人的完整性,也因为人是由现实性与可能性共同构成的,保护“现在的我”才可能使得“未来的我”成为可能。但是智能社会中“后现代的人”却可能割裂作为统一体的个人,导致人格权利丧失保护的价值。
(四)人与权利关系的“哥白尼逆转”
除了前述三项变化,智能社会中的权利与人的关系可能发生更为深层次的变化,也就是两者之间可能在三个层面上发生“哥白尼逆转”。
1.人对权利的支配逆转为权利支配人。传统理论认为,人是权利的主体。进入现代社会后,人因为享有权利而对权利的客体具有支配力。然而,智能社会中人与权利的关系可能发生哥白尼式的根本逆转,人对财产的支配可能逆转为财产对人的支配。传统财产制度中,人(或法人)作为主体通过占有或登记等积极的作为方式完成对财产权的公示,法律不保护消极的“躺在权利上睡觉”的人。但是声音识别、人脸识别、指纹识别、掌纹识别、虹膜识别、视网膜识别、体形识别、键盘敲击识别、签字识别的生物测定装备的研发和普及,可以精准高效地识别特定的人,再加上5G网络、区块链的发展,物联网(甚至身联网)正在普及,智慧城市终不是久远的梦想。生活其中,我们可以想象,在人与财产的关系层面上,只有财产才有能力完成对人的认证。可以想象在不久的将来,自动驾驶汽车可能自动识别谁是合法车主,谁拥有驾驶资格,谁有权使用汽车及有权去往何处。未能通过自动驾驶汽车认证的人员,则无法使用汽车。类似的场景可能会普及到几乎所有类型的联网财产。从积极的方面看,法律也可以保护“躺在权利上睡觉”的人,因为财产永远不会“忘记”他的所有权人;从消极方面看,一些“不愿意”被你支配的财产,你可能从根本上丧失了交易的机会,无法享有财产利益。
2.除了权利认证关系上人可能处于被支配的地位,在针对客体的法律行为上,人也可能丧失主导权。法律行为是人作为主体,通过个人意志,管理、处置或支配客体的行为,由此产生、消灭或是变更特定的权利义务关系。智能科技普及的结果是,财产本身也在主导法律行为。依然以自动驾驶汽车为例,自动驾驶依据的是高精度地图,精确到厘米级,其中包括了弯道曲率、路面坡度、交通灯、停止标识、沿途建筑物和其他各类设施。除了这些事先收集的数据以外,自动驾驶汽车还通过激光雷达、高灵敏摄像头等感知设备,实时收集和反馈数据。高精度地图还可通过云服务器,同步反馈整个路线上的交通路况,并通过物联网,与附近的车辆通讯,交换相互的速度、方向等数据。有了这些数据,自动驾驶汽车就可以自行决定最佳的行进路线和速度;遇到意外突发事件时,车辆还可以依据内置的算法进行紧急处置,决定撞向人还是狗。当机器的学习和决策能力越来越强,各类像自动驾驶汽车一样的智能设备将越来越多占据我们的生活,主导法律行为。
3.智能社会中人与权利的关系发生的第三个变化是,财产的用益不再是单向的——人虽然依然能够在使用财产的过程中获益,但财产本身也能够从被使用的过程中获益。这个逻辑一直支撑着近年来一个怪异的商业现象:一些产品或者服务免费甚至倒贴给用户,例如滴滴出行APP刚上线的一段时期,不仅乘客可以免费乘车,司机每接一单还可以获得数额不等的奖励。这种现象的背后除了“流量为王”的商业逻辑外,还有机器学习的算法支撑。2015年,阿尔法围棋(AlphaGo)与著名围棋选手李世石的“世纪之战”就是最佳例证。双方对弈的五局中,李世石识破了阿尔法围棋(AlphaGo)的一个缺陷,利用阿尔法围棋(AlphaGo)的失误,艰难胜了一局。但阿尔法围棋(AlphaGo)在此盘落败之后,立即学习改进,不再出现同样的失误。滴滴平台和其他以流量为王的平台一样,因为被使用而提高了商业价值;智能机器本身也因为被使用而增进了能力,提高了价值。这与传统财产的消耗性使用逻辑完全相反,就算是高速公路一类的基础设施,行驶的车辆越多意味着维护成本越大。主体与财产之间用益关系的颠倒,实质上使“人们主动使用财产”的意愿颠倒为“财产希望被人使用”。财产在意愿层面上也支配了主体行为。
可见,在智能社会,传统上被认为人之财产的客体,可能取代或部分取代人的意志,对主体进行认证,并自我管理和支配,甚至管理和支配作为主体的人,导致人与财产的关系发生根本性逆转,不是人在支配财产,而是财产在支配人,“最终,我们会发现自己置身于终将剥夺我们自身权利的物品之中”。我们能够拥有的东西不再有价值,而我们无法拥有只能使用的东西,我们对之丧失了支配力。权利与我们的关系严重脱节了。法律曾经通过权利许诺给我们正当利益和人的尊严,但智能科技使得这个承诺落空了。不仅如此,智能科技还可能釜底抽薪,即使对于仅存的尚处于我们支配之下的权利,也可能因为我们与知识的关系发生根本变化,而无法有效实践我们的权利——我们的行为与我们应当承担的后果之间也被割裂了,因此我们难以实现自主的塑造。这就是智能社会中人所面临的自主性危机。四、智能社会中人的自主性危机
富勒在《法律的道德性》中强调,法律要成为指引人们行为的规范,至少需要具备八种基本德性,包括应当具有普遍性、法律应当清晰易懂等等。富勒的理论代表了一种程序主义法治观。富勒的这八项程序自然法规则,实质上强调了法律对人的尊严的尊重,将人视为具有理性和智识的主体。法律只有遵守了这八项要求,才足以使人们事先掌握法律如何决定个人行为的性质和后果,才足以使人们提前做好规划,为自身的行为负责。符合这八项要求的法律,也向人们展现了法律自身的目标,人们循此了解法律规则的内在因由,并在整体上理解个人未来与法律目标之间的关联。因此,具备道德性的法律为人的依法选择提供了规则、理由和目标。法律并未使人丧失自主性,法律之下的人依然是自由的人,有能力规划自己的未来,控制自己的生活。富勒的理想也正是现代法治守护人的尊严的理想。富勒的法治理想包含两个前提,首先是人们有能力理解法律。“法律假设普通人能够将规范适用于自己的行为,以此达成法律的治理目标。普通人有能力像官员一样行事——识别一个规则,理解它对他们行为的影响,做出决定,然后据此采取行动”。当然,富勒可能已经意识到普通人难以直接理解法律,因此他退而求其次,主张普通人可以在专业法律人的帮助下理解法律。智能时代到底增进还是削弱了人们对法律的理解,可能是一个未决的问题。因此本文不从这个角度展开讨论。富勒法治理想的第二个前提是人们有能力理解事实。人们做出法律判断不仅要求理解法律前提,而且要理解事实前提。一个完全法条(也即完整的法律规范)由事实要件和法效果组成。特定的生活事实涵摄于法律规范的事实要件之下,则产生法律规范预设的法效果。因此,一方面,理解法律不仅意味着读懂法条本身,而且应当理解法律要件能够涵摄什么样的生活事实,进而如何引起相应的法效果,这才意味着对法律的完整理解。只有人们完整理解了法律,法律的规范性力量才可能发挥出来。另一方面,人们首先应当理解事实本身,才可能发现何种法律规范具有相关性,随之才可能在评估法效果的前提下,规范自己的行为。现代法律的适用逻辑建立在法律主体有能力清晰认知、准确判断的假设之上。这个逻辑体现在众多具体的法律制度中,例如对于未成年人、精神病人等不能做出清晰认知和准确判断的主体,法律一般不要求他们承担法律责任。如果人们在事实层面上无法建立与法律的联系,难以理解何种事实产生何种法效果,则毋庸置疑,法律的规范性力量并不具有实效性,实际上也削弱了惩罚性法效果施加于人的伦理基础,因而也削弱了正当性。为了实现第一个前提,克服法律的不确定性是当代法学最重要的任务。智能社会对此能起到何种作用尚待观察。但对于第二个前提,几乎可以肯定的是,智能时代的人们将在事实问题上面临愈加严重的认知难题。因为智能时代人们将面临大量难以理解的事实,难以自主对事实问题做出清晰认识和准确判断,也因此难以实现法律之下的自主。
(一)难以理解的事实
智能技术出现之前,人们处理的对象一般处于稳定的具有边界的状态,人们通过物理、化学或时间属性界定法律的对象,但是智能社会中由信息和算法组织起来的事实却无时不处于持续、流动、纠缠和变动不居的状态中。造成认知难度的不只是事实的新形态,还包括事实的体量和语境。庞杂的信息通过各种渠道扑面而来,却脱离了我们熟悉的生活语境。就理解而言,只有信息加意义才等于事实本身。人们成了信息的被动接受者,却难以理解信息内含的意义。新形态的事实,信息过载和无语境的事实,这些还只是智能时代事实的表层现象。智能时代还可能发展出脱离人类控制和理解的算法,创造出人们难以理解的事实。尤瓦尔·赫拉利就曾预言:“随着机器学习和人工神经网络兴起,有越来越多算法会独立进化,自我改进、从自己的错误中学习。这些算法分析的数据量是天文数字,绝非人力可及,而且它们也能找出人类找不到的模式,采取人类想不到的策略。”赫拉利的预言已经成为现实了,例如人工智能棋手阿尔法围棋(AlphaGo)通过深度学习,超越了人类琢磨了数百上千年的围棋常规棋法,出其不意,在中盘和续盘创造了新的下法。亚马逊的“混沌存储”物流技术也是其中一个例子,亚马逊通过算法自动匹配顾客需求与商品之间的关联,将不同商品摆放在一起,以缩短配货时间;其结果是,书籍摆在平底锅旁边,儿童玩具可能挨着电视机,远超人们惯常的按品类摆放的方法;配货员离开了手持仪器,就难以准确定位看上去杂乱无章摆放的商品。算法眼中的秩序超越了人们的一般理解。佩雷尔和埃尔金科伦认为,“算法在很大程度上就是一个黑箱子,普通人根本不知道算法决策是如何出来的,也不知道算法决策依据的具体数据和遵循的决策原则是什么”。不可否认,每个时代都有一部分人具备较弱的认知能力,所以法律是按照中等偏下能力之人的一般标准来设计的,但智能社会所要求的认知能力远远超出我们社会中绝大多数人的知识处理能力。当认知负担远超绝大多数人的认知能力之时,将只有极少数人才可能作出理性的法律判断和决定。
(二)无效的同意
同意是一种重要的法律事实,人们以“同意”的方式订立契约、处分权利。在网络空间“同意”的重要性更为显著——勾选、接入、上传等操作都可能被认为是用户已表示了“同意”。在个人信息保护方面,“同意”也构成了个人信息处理的黄金原则。但是同意的前提是“知情”,不知情情况下的同意实际上是无效的同意。有学者统计,一个用户每年使用各类网络服务时,如果认真阅读所有隐私政策,至少需要花费224小时,相当于上班两个月的工作时间。此外,用户常常做出“被动同意”,因为许多网络服务以用户“同意”为前提,不同意则无法使用相应服务。智能技术还导致了“默示同意”。用户并不真正了解智能产品的功能,在使用该产品时,接受了产品的默认设置。例如乐活(Fitbit)智能手环曾将记录并分享包括性行为在内的各类活动作为默认设置。手环记录了200多位用户的“性运动”信息,并根据默认设置分享这些信息,甚至可以通过谷歌搜索到。由于用户的“默示同意”,无法认定Fitbit公司侵犯隐私权,毕竟“它只是自动发布你自愿购买并穿戴的手环所上传的信息”。智能技术还将迫使人们做出“概括同意”。上述乐活(Fitbit)事件也是一个“概括同意”导致后果的案例,用户同意使用某个智能产品,事实上就相当于概括性同意接受该产品的各类默认设置,而不会逐项核查设置的具体内容。“概括同意”的另一种情形是,在个人信息领域,用户的一次授权并不仅限于一次特定的用途,而可能被用于后续的各类分析环境,“最终使用情况已经远远超出个人的意图范围,甚至超出个人的认知范围”。总而言之,不论是“不知情同意”“被动同意”“默示同意”,还是“概括同意”,智能时代的同意往往是无效的同意,难以认为是人们基于事实认知和意志自由的自主性决定。
(三)个性化知识削弱主体间性
我们通过对事实的一般性理解作出法律判断,因此要求法院基于常识或者生活的一般常理进行说理。常识、常理是一定时期在一定范围内为人所共知共享的事理。常识常理构成了法律得以实施的社会基础。法律在本质上是一种主体间性,建立在相互可理解性的基础上,是一种主观的客观性,因此法律之所以有效的前提之一是我们存在共同的经验。但是智能社会将共同经验个性化了,即使身处同一时空的两个人,感知到的经验却可能迥然不同。例如城市的街头站着两个人,一个是熟练使用网约车软件的年轻人,另一个则是没有智能手机的老年人,在两者眼中,路面上的营运车辆规模是明显不同的,因为网约车对于老年人来说是“不可见”的。对于这种通过技术决定人们行程和可见范围的现象,兰登·温纳称为“社会交易的电子足迹”。智能技术不仅决定了人们的“足迹”,而且可能决定人们可感知的经验。增强现实眼镜等技术将可能使每个人眼前的世界都是不一样的。20世纪末,厄休拉·富兰克林就不无忧虑地提出,“技术的确立不仅能够吸纳和排除参与者,神圣的造物主或许完全可以巧做安排以令他们永远看不到苹果”。到了智能时代,这样的安排不需要造物主就足以实现。
(四)“知识操纵人”而不是“人实践知识”
就像权利与人的关系发生“哥白尼倒转”一样,人与知识的关系也发生了类似变化,知识操纵人的意志,而不是人依据知识开展实践。不论是尼尔·波兹曼所称的“技术垄断”,还是厄休拉·富兰克林用的“规范性技术”的概念,都指向了卢曼提出的问题——在智能时代,“技术不能再被认为是对体力劳动的辅助,因此要求我们重新界定人与机器的关系”。智能时代的信息可能通过算法,对用户做出精准画像,识别目标用户,再通过各种渠道,进行投喂,以期激发受众的购买欲望,改变政治态度或潜移默化影响受众的思想观念,最终诱使受众作出特定行为或选择。这样的手法目前在政治宣传和商业营销等领域已有应用。2016年的美国总统大选结果出人意料,特朗普赢得了选举。微软总裁兼首席法务官布拉德·史密斯后撰稿透露,特朗普团队实际上是通过数据操盘赢得了选举——特朗普团队从共和党的数据库中,选出了自称不喜欢特朗普的1400万共和党人并将其纳入一个大群组,反复向这些选民传达信息。临近大选时,竞选团队还拿到了尚未决定投票的70万选民的电邮地址,全力说服他们出来投票。除了积极投放,信息操控者还可能通过信息屏蔽、筛选等算法,将受众置身于特定的信息茧房中,对受众进行信息圈养,塑造特定意向和行为动机。网络空间中的钓鱼、犯罪诱导等网络犯罪现象,就是利用各种技术进行信息操纵的结果。认知科学的研究表明,对人脑特定部位直接施加外部刺激,就可能使人做出特定行为。当脑机技术发展成熟之日,人就可能彻底沦为知识的客体。谷歌的联合创始人拉里·佩奇曾这样畅想搜索引擎的未来:“它(谷歌)将会被植入人的大脑。当你想到一些你不太了解的东西时,你就能够自动地获取这方面的信息。”如果人不再是实践知识的主体,而成为知识/数据在算法自动化或受控条件下的实践客体,那么个人的法律行为就难以被认定为基于个人主动认知的“故意”或“明知”,个人承担法律责任也就丧失了伦理上的正当性基础。
五、代结语:法治的尊严危机与应对
(一)前智能时代的法治危机
智能时代的权利危机与人的自主性危机共同导致现代法治难以实现保障人的尊严的承诺,法治可能陷入尊严危机。当然,法治并不是第一次面临危机。二战期间,法治陷入了人权危机,法律成为屠杀的工具;在后现代浪潮中,法治遭遇了确定性危机,作为法律权威基础的理性受到了广泛的质疑;同时法律的作用也遭到普遍质疑,不论法律如何承诺公平与正义,但实际上却难以实现,因为起主导作用的并不是法律自身。到了互联网时代,法治面临能力危机。人们不相信法律有能力规制互联网,就如克林顿在一次演讲中形象地描绘:规制互联网就像“把果冻钉在墙上一样”,注定徒劳。尽管情况并不如克林顿所形容的那么无可奈何,但无法否认的是,直到智能时代的晨曦初现,人类的法律体系依然疲于应对互联网时代产生的诸多问题。例如司法的严重滞后性显露出法治面对各种海量新问题的窘迫。如美国曾有一个警察对其所配的公务传呼机上的信息是否拥有隐私权的案件争议,美国最高法院直到2010年才作出判决,此时传呼机早已成技术“古董”。仅2015年,全球就产生了7亿起电子商务纠纷。巴西积压了一亿宗案件,而印度至少有3000万宗。在中国,法律也难以应对诸如互联网金融、电子商务等海量争议,现有的司法纠纷解决机制陷入困局。中国设立互联网法院时,将P2P互联网借贷纠纷排除在外,就是担心海量的争议案件使法院不堪重负。不只是法院的问题,莱西格一语道破,“法院无能为力,立法者不愿有所作为,代码又难以规制”。不仅是数量上的问题,在互联网反垄断领域法律也显得“无能”。美国的反垄断法曾一路高歌猛进,石油、金融、电信企业都纷纷被驯服,甚至连互联网时代来临之前的最后一个巨头微软,也遭受了反垄断的大棒。然而对于代码构成的网络空间,亚马逊、脸书(Facebook)、谷歌等互联网时代崛起的巨头,在美国却未像工业时代的巨头一样,被反垄断法扳倒过。
(二)法治的尊严危机
人们似乎认为时间总是站在法治这边,只要足够耐心,法治就能一次次跨跃各种危机,顽强生存,竭力兑现它对人的尊严保护的美好承诺。然而,法治在智能时代将面临前所未有的尊严危机,这种危机直指法治本身,动摇法治的生存根基。法律的算法语言是权利和自由,现代社会是法律这套算法的运行系统,运行的理想结果是法治,理想目标是守护人的尊严。“未来已来,只是尚未流行。”前文描述的权利危机和人的自主性危机,在当下正在发生,或至少已现苗头。一方面,现代法律许诺个人通过权利,正当获取个人的生存利益和发展利益,但在智能社会,不论是财产权利还是人格权利都无法带给人们基本的生存和发展利益,人的内在价值也因此无法通过权利确立道德正当性。另一方面,现代法律给个人提供了自由发展的空间,使每个人有机会自我塑造,实现最好的自我,但智能技术却导致人们无法自主获得并实践知识,甚至可能沦为知识的客体,因此个人难以保全自主性。现代法律由权利和自由写成的算法在智能社会这个系统下无法兼容,根本无法运行,现代法治为实现人的尊严的基本条件也就不复存在了。进入智能社会后,我们可能会逐步经历“有法律但没有法治”“没有法律只有管理”“没有管理只有算法”三个阶段。首先是法治理想的丧失,然后是法律逐步被取代,最终连管理都不需要了,一切都按照植入的算法,按部就班,有序运转。
(三)反思法治与人的尊严
在权利危机和自主性危机之下,法律这套保护人的尊严的“算法”与智能社会无法“兼容”,法治自身也因此陷入尊严危机。目前人们有所行动并提出了包括科技锁死、伦理审查、算法问责和机器人法等应对措施,但是这些举措都可能无法阻止而只是延缓法治尊严危机的最终爆发。智能时代的法治尊严危机实际上也给人类提供了一个反思尊严理念和法治观念的契机。人因为具有理性能力而被认为是高于动物的生物,所以动物也具备的感官享乐被人所贬低,产生了理性至上的禁欲主义道德观。当智能技术可能在理性能力上超越人类,这种尊严观显然不利于人类。如果将人的尊严理解为“人的完整性”,那么仅强调理性明显不够。人之所以为人,是因为人性中除了理性成分,还有感性、自我意识等。人不仅具有智性(理性),还有心性和灵性,“一般有经验的人做决定虽然主要靠理性,但心性和灵性的影响也不可忽视,有时可能更为重要”。一个有尊严的人应当是具备完整秉性的人。智能技术可能在理性上超越人类,却无法在基于心性的情感方面和基于灵性的信仰方面,取代和超越人类。如果我们接受人的尊严的本质是人的完整性,那么我们就应当能接受,人的尊严不能仅仅依靠法治来维护,而需要建立一种多维度的文明秩序,除了人的理性之外,同时应重视人的心性与灵性的发展。当然,法治对于人类社会仍然具有重大价值,维护基本人权,保障社会秩序,奠定经济发展和文化繁荣的制度条件。法治文明秩序之下,人们才可能拥有汉娜·阿伦特所提出的“拥有权利的权利”,在共同体中共同生存。所以在智能社会来临之前发展多维度的文明秩序,绝不意味着抛弃法治或是削弱法治,而是要求不能只强调法治,只建立法治的智性制度,而缺少心性制度和灵性制度。如果从二战结束起算,人类社会的法治理想渐入佳境也不过七十多年光景。法治贫乏才是人类社会的常态。但智能时代法治面临的危机确实前所未有。我们应当积极行动起来,为法治未来的命运做好安排,实际上也是安排人自身的命运。
(四)不必要的担忧?
本文看上去像是对智能时代忧心忡忡的预言,也可能只是不必要的担忧。两千三百年前庄子就担心,使用机器劳作,可能败坏人的本性,使人更具“机心”,但现代是一个人性极为丰富的时代,人类文明空前繁荣,价值观念趋向多元,科技成为丰富心灵的一股重要力量。无独有偶,与庄子同一时代的柏拉图,也在《斐德罗篇》中讲述了埃及法老萨姆斯否定文字这项发明的故事。萨姆斯说,文字损害记忆,也导致人们远离真正的智慧,心中装满了“智慧的赝品”,所以他认为文字只会制造麻烦。当然萨姆斯显然没有预见到文字对人类文明至关重要的贡献。人类自有出路,本文或许只是多余的担忧。但愿如此。
(本文责任编辑 马治选)
因篇幅限制,略去原文注释及参考文献。
编辑:寇 蓉 孙禹杰 刘晨曦
审核:马治选
签发:杨建军