查看原文
其他

孙国东 | “算法理性”的政治哲学检视

孙国东 厦门大学学报哲社版 2024-02-05

点击蓝字关注我们


“算法理性”的政治哲学检视


作者简介

孙国东,法学博士,复旦大学社会科学高等研究院教授、博士生导师、副院长,兼任院价值建构项目主任。曾任邓正来先生(复旦高研院创院院长)学术助手、美国圣路易斯大学哲学系访问学者(2015-2016)等职。主要研究领域:法哲学和社会政治理论。目前,以已系统阐发的“公共法哲学”和正在阐发的“民主社会学”为代表,主要致力于中国现代法哲学和政治哲学原理的介入性学理分析与实体性理论建构。出版各类著译作品9部,其中独著有《公共法哲学:转型中国的法治与正义》《合法律性与合道德性之间:哈贝马斯商谈合法化理论研究》;另发表学术论文百余篇,主持“公共法哲学”微信公众号。


摘要:“算法理性”之所以可以成为一种“后人类时代”新的理性形式,根源于人类理性能力和理性意志的内在有限性。“算法理性”的出现,至少使理性的运用带来两个变化:它使理性的运用主体不再是人,而变成了类人的人工智能;它使理性运用越来越具有相对固定和封闭的边界。从学理上看,前者导致了理性运用的“去人化”,从而导致人的客体化;后者导致了理性运用的“封建化”,从而成为“公司统治”的帮凶。要使“算法理性”最终服务于人类福祉,有赖于政府、市场和(市民)社会三者之间的相互约束、功能互补。

关键词:算法理性;人类理性;去人化;公司统治


 如众所见,随着大数据、人工智能、云计算等智能技术的快速发展,人类已经开始迈入“智能算法”的时代。有论者甚至认为,我们正在迈入一个“算法统治”的时代。在人类历史上,“智能算法”的革命无疑是具有深刻历史意义的科技和社会革命。它会对人类生活带来哪些影响?如何引导其朝着有助于人类福祉的方向发展?诸如此类的问题,既是社会成员普遍关心的实践课题,也是亟待从学理上厘清的理论问题。本文拟以“算法理性”这一概念把握智能算法革命所带来的变化,并对算法理性所带来的问题进行政治哲学检视。


一、人类理性的有限性与“算法理性”的兴起

“理性”构成了所有智性活动的认知基础和实践逻辑。可以说,没有理性,智性就无从谈起。以数学为例,能够运用数学符号指涉客观世界和社会世界的事物是人类智性活动的重要表征;但数学符号的意义不仅在于这些符号本身,更在于不同符号之间的逻辑和运算关系,而数学符号之间的这种逻辑和运算关系则是人类理性发挥作用的结果。例如,人类可以利用数学符号对迎面过来的敌人(人或动物)进行数学编号和总量计算,进而为同伴提供精确的信息。这种智性活动之所以可以出现,在根本上是因为人类运用自己的理性掌握了1、2、3、4……不同数字之间的逻辑和运算关系。所谓“算法理性”,是指依托(以人工智能为代表的)智能算法所进行的智性活动,这些智性活动包括(但不限于)学习、认知、逻辑推理和运算等。


(一)人类理性能力和理性意志的有限性


算法理性的出现,使我们日益认识到人类理性的有限性远远超过哈耶克等论者所认识的程度。人类理性的有限性,突出体现在人类理性运用效率(速度)的有限性。吴冠军曾借用意大利哲学家保罗·维利里奥( Paul Virilio)的“知觉的后勤”( logistics of perception)概念,分析了人类被人工智能替代背后的“竞速学”(dromology)的逻辑。人工智能在“深度学习”方面的速度、对大数据的处理速度等远远超过了最聪明的人类所能达致的最高速度。在智能算法所展现的速度面前,人类的“知觉的后勤”是完全跟不上的。不过,人类理性运用效率(速度)的有限性,是我们可以从直觉上把握的一个现象,但它本身其实根源于人类理性的两个更为内在的有限性。

第一,人类理性能力的有限性。人类理性运用能力的大小,在根本上受制于人类占有知识和信息的多少。由于人类个体占有的知识和信息是有限的,其理性能力必然是有限的。与人类理性能力相关的知识,既包括作为理性运用之基础的知识,也包括调用(appropriate)此种知识的知识。我们可以把前者称为“背景性知识”,即关于事实知识(know-what)和原理知识(know-why)的理论性知识或科学知识;把后者称为“技艺性知识”,即关于技术知识(know-how)的实践性知识。

其一,人类占有的作为理性运用之基础的理论性知识(科学知识)——即背景性知识——具有有限性。作为整体的人类理性只有在抽象意义上才存在,我们在社会协作实践中面对的其实是人类个体的理性,而人类个体的理性运用——即使是人类最聪明、学习能力最强的头脑——只能占有与创造和决策有关的极少数知识和信息。

哈耶克关于人类理性有限的论述,主要基于实践性知识的不可传授性,其预设的一个前提是:科学知识是可以传授的,即可以交流和共享的。事实上,尽管科学知识具有可传授的潜力,但其实践中的传授效率却极为低下。这主要是因为科学知识的传播,通常面临着双重壁垒的限制:一是客观上的壁垒:(1)专业壁垒:科学知识都有其认知和理解的门槛,通常只有极少数同行才可以越过这个门槛。(2)语言壁垒:人类所拥有的自然语言各不相同且多种多样,没有任何人类个体可以独自掌握所有的人类语言,因而没有任何人类个体可以及时把握由其他语言所记录的科学知识。二是主观上的壁垒:尽管理想的科学知识应当具有默顿(Robert King Merton)意义上的“利益中立性”(disinterestedness),但实际上它常常会触动既有的观念格局和利益格局,因此,常常会面临观念团体、利益团体、学术团体乃至政治机构等的抵制和打压,从而严重影响其在科学共同体和政治共同体的传播和运用。

此外,在现代条件下,我们还面临着一种合法的主观壁垒,即知识产权壁垒。这种壁垒尽管有助于鼓励科学创新、保障研发者的利益,但却极不利于创造性知识的交流和共享。如果把“科学知识”做广义的理解,把人文社会科学知识也含括在内,那么,其面临的交流壁垒则更为严重:在现代社会,人文社会科学理论知识的生产和传播通常要受到各种“政治正确”的检验——无论是这种“政治正确”主要是政治意义上的(如在施行文化管制主义政策的国家),还是道德或规范意义上的(如施行文化放任主义的国家)。

由此可见,尽管包括人文社会科学知识在内的科学知识具有可传授的潜力,但实践中却要受到专业门槛、语言门槛等客观壁垒和“门户之见”“政治正确”等主观壁垒的影响,从而使得特定时空下的具体人类——特别是人类个体——只能占有与创造和决策有关的极少数知识,因而其可以发挥和运用的理性能力必然是极为有限的。

其二,人类占有的关涉理性运用本身的实践性知识——即调用理论性知识(科学知识)的技艺性知识——在很大程度上依赖于人类的经验,而任何人的经验相对无限丰富的经验世界都具有极大的有限性。理性运用不仅仅是一种智性能力,更是一种实践技艺,而这种技艺在很大程度上依赖于人的经验。正是理性运用的这种技艺维度的存在,使得我们并不能把理性运用的能力还原为对作为其基础的理论性知识的占有。换言之,占有作为理性运用之基础的理论性知识,并不意味着一定就具有相应的理性能力,因为理性运用的能力还涉及对各种理论性知识的调用。举例来说,一个懂得所有与解析几何有关的各种理论知识的学生,显然并不能解出所有解析几何的数学题。事实上,不同学生关于解析几何的得分差异——实际即理性能力的差异——绝不是对相关数学原理占有多少的差异,而毋宁是他们能否针对每一个具体情况恰当地调用此前占有的相关理论知识,而这种调用本身也构成了一种(隐性的)知识,即一种只可意会不可言传的实践性知识,也就是哈耶克所说的“有关特定时空的情势的那种知识”(the knowledge of the particular circumstances of time and space)。这种调用理论知识的技艺性知识,主要是通过经验积累——即不断学习——而获得的。显然,相对于无限丰富的经验世界来说,任何人类个体所能占有的调用理论知识的技艺都是极为有限的。

人类个体所占有的理论性知识和实践性知识的有限性,在根本上指向了人类学习能力的有限性。由于知识发挥作用的经验世界具有瞬息万变的无限复杂性,所以,无论是理论知识还是实践知识,其价值不在于知识本身,而在于其能否不断更新迭代为可以适应眼前情势的新知识。因此,知识的价值在于诚实面对无知,不断积累新知。质言之,知识的价值在于学习。如果不能“学而时习之”,那些抱残守缺的知识只会成为认知的障碍。在这个意义上,人类个体占有知识的有限性,在根本上体现了人的学习能力的有限性。

第二,人类理性意志的有限性。相对于理性,情感、情绪等非理性的形式似乎是人类更偏好的状态,甚至既不运用理性、也不陷于非理性活动,是大多数人感觉更舒适的状态。人类理性意志的有限性,至少体现为如下两个方面。

其一,人类普遍面临着(理性)意志薄弱的主观限度。“(理性)意志薄弱”是人类理性意志有限性的主观表征,其在道德领域表现得尤为突出。如众所知,适用于道德领域的理性形态是实践理性(practical reason)。根据一种康德版本的解释,实践理性是由个体的理性意志所确保的,正是这种理性意志为我们将个体意志中的道德准则(maxims)普遍化为适用于所有人的道德法则(laws)提供了保证。然而,在道德实践中,个体常常不会按照理性意志所指示的可普遍化的道德法则行事。这在根本上是因为“意志薄弱”——亚里士多德意义上的“不能自制”或哈贝马斯所谓的“动机不足”——是人类难以克服的道德困境。换言之,由于意志薄弱、不能自制,或者由于缺乏足够的动机或欠缺威廉姆斯(Bernard Williams)所谓的“内在理由”,人们实际上常常不会实施合乎道德的行为。人们的道德实践,是如亚里士多德所说的:“信的是一回事,做的是另一回事。”亚里士多德曾把人的不能自制与知识(逻各斯)——实质即理性——相联系。在他看来,一个人不能自制并不是因为他或她没有占有与实践理性之运用相关的知识,而只是占有一种“感觉的知识”,即“知道普遍前提与具体前提,但未能意识到后者并把前者应用于它”。在亚里士多德看来,人的不能自制可以区分为两种情形:“怒气上的不能自制”和“欲望上的不能自制”。换言之,人类常常因为情感(如情绪失控)或者欲望的限制,无法实施实践理性所要求的道德行为,从而导致“实践非理性”(practical unreason)的出现。

其二,人类面临着理性意志持续性不强的客观限制。作为生物有机体,人类与所有生物有机体一样都面临着生命本身的限度:生命既需要营养,也需要休养。人是极容易产生疲劳的生命体。一旦人的体力和脑力劳动的时间过久或者劳动强度过大,人体内组织器官急需的营养和氧气就会供应不足,代谢废物乳酸和二氧化碳等代谢废物(即疲劳素)的积蓄就会增多,此时就需要有效的休息,使需要代谢的废物由体内排出,从而消除疲劳。一个人保持理性意志需要保持高度专注的状态,而成年人持续保持高度关注的时间一般不会超过两个小时,很多时候甚至不超过一个小时,而且人类有限的专注力还会随着人的年龄增长而不断衰退。


(二)算法理性相对于人类理性的优越性

     

无论是人类理性能力的有限性,还是人类理性意志的有限性,都是一种存在论意义上无法超越的有限性。与之相比,无论是理性能力,还是理性意志,人工智能都具有人类个体无法望其项背的优势——正是这种优势构成了算法理性兴起的基本背景。

第一,由于有大数据等智能技术的支撑,人工智能无论是在知识交流和知识共享方面,还是在学习既往经验方面,都远远超过人类个体可以达到的程度。以Google翻译为例,尽管其翻译的质量还有待提高,但其目前可以处理108种语言的翻译,而且其翻译的精度和可翻译语言的数量每年(甚至每个月)都在提升。而在人类中,只要会十余种外语,就会被视为语言天才。因此,借助Google翻译,一个人工智能可以运用的知识,是人类个体远远比不上的。在学习既往经验方面,人工智能亦远远超乎人类之上。以“人机大战”中打败人类围棋高手李世石的AlphaGo为例,李世石在过去15年获得了十几个世界冠军头衔,总共下了1万盘围棋对弈,经过了3万个小时训练,每秒可以搜索10个走子可能;而吸收了近期机器学习人工智能的最新进展,建立起了全新的价值网络和策略网络,诞生只有两年时间的AlphaGo,差不多经历了3万小时的训练,每秒却可以搜索10万个走子可能。可见,无论是在占有作为理性运用之基础的理论性知识方面,还是在占有关涉理性运用本身的实践性知识方面,人工智能都远远要超过人类,因此它的理性能力高于人类个体便不足为奇了。

第二,作为无机生命,人工智能没有理性意志方面的弱点。“意志”实际上维持某种“意识”的心志状态,因此,“意识”是“意志”存在的前提。在人工智能的“奇点”(Singularity)到来之前,也就是在人工智能具有自我意识之前,它就没有“意志”可言。把“理性”与“意志”结合为“理性意志”,堪称人类的特性,甚至可以说是“人类本性”(human nature)的一部分。人工智能的运行遵循着所谓的算法理性,但其本身没有意志可言,因而也就不存在理性意志薄弱的问题。与人类司机经常出现酒驾、不避让行人、闯红灯、疲劳驾驶等理性意志薄弱或持续性不强的问题相比,一个搭载智能算法的自动驾驶汽车可以完美地避免所有这些问题。可以说,人工智能是一个有理性、但又不会面临着人类理性意志薄弱困境的智能造物。作为无机生命,除了电力资源和折旧耗损这类直接影响其运转的物理性要素外,人工智能的运行几乎不受其他因素的制约。在很大程度上可以说,它就像是一个不知疲倦的“永动机”,只要有电源,只要机器运转正常,它就可以永远执行智能算法的命令。正是这种“有理性、但又不会面临着人类理性意志薄弱困境”的特性,使得人工智能在替代人类智能方面具有广阔的运用前景。在这个意义上,尽管很多人期待人工智能拥有自我意识,但事实上没有自我意识恰恰是人工智能不可替代的优点。因为一旦拥有了自我意识,人工智能可能也开始具有了维持某种意识状态的心志缺陷,即面临着人类普遍面临的“理性意志薄弱”的问题。


二、理性运用的“去人化”与人的客体化

从逻辑上看,人工智能替代人类智能的背后,既是智能算法对生物算法的替代,也是算法理性对人类理性的替代。这种替代至少使理性的运用带来了两个变化:它使理性的运用主体不再是人,而变成了类人的人工智能;它使理性运用越来越具有相对固定和封闭的边界。我们可以把前者称为理性运用的“去人化”(dehumanization),把后者称为理性运用的“封建化”(federalization)。本节拟论述前者,把后者留予下一节讨论。


(一)从“reason(理性)”到“rationality(合理性)”


在讨论理性运用的“去人化”之前,我们有必要关注“理性”本身的变化。前文一直出现“理性”和“理性运用”这样的表达,但是笔者一直没有为其标注相应的英文。如众所知,与“理性”相对应的英文有两个:reason和rationality。reason和rationality都可以指“人类所具有的前后连贯的思想与理解能力”,即“理性”。然而,在19世纪以来特别是20世纪以来的语境中,两者却开始有着显见的区别。大体而言,两者的核心区别在于以下两个方面:其一,“reason”主要与形而上学语境中人在认识论上诉诸理由的先验能力相关;“rationality”主要与后形而上学语境中人在行动取向中可计算的经验属性有关。正是这种差别使然,我们可以分别把它们译为“理性”和“合理性”。其二,理性既与对手段的评价相关,也与对目的的评价相关;但合理性则主要与手段相关,而无涉对目的本身的评价。换言之,后者主要指涉“工具合理性”(instrumental rationality)或韦伯意义上的“目的合理性”(purposive rationality)。正如美国哲学家普特南(Hilary Putnam)指出的那样:“目的或目标的选择既不是合理的,也不是不合理的(只要满足某些最低限度的一致性要求),而手段的选择在其具有有效性的范围内则是合乎理性的。合理性是手段的属性,而不是目的的属性。它完全是与实效(efficacy)合二为一的。”因此,合理性主要具有实用性的意义,而不具有道德意义。而理性则常常被赋予显见的道德内涵。如果说理性是诉诸“理由”的禀赋,那么,合理性则主要诉诸实用理由,而无涉道德理由和伦理理由。根据W.M.Sibley在发表于1953年的著名论文中的界定,“合理性”包含着目的的明确、手段的有效、意志的坚定等三个可从经验上测度和评判的维度,其中以手段的有效最为关键:(A)(1)关于我归于自身的诸目的(the ends),它必然意味着:(a)我应当对我正努力达致的诸目的之性质有充分的认识,并且在这种认识中还包含着当它们影响到其他目的时其意义的实现,即这种认识不但包括我自己的目的,抑且包括被我的行动影响的其他人的目的;以及(b)在我主张的两个目的之间出现冲突的情形下,我选择我真正偏好的目的,即在经过充分且仔细的反思、考虑我自身的经验及我知道的他人的经验之后,我将其判定为相较于其他竞争性的目的而具有更多价值的那个目的。(2)关于为了达到这些目的的诸手段,它必然意味着:基于最可能获得的论据,我选择那种最能实现这些目的之手段;并且,我对所有我权力范围内对于确保我的目的实现具有必要性的其他措施都了之于心。(B)关于我的意志,它必然意味着:我根据经由反思过程所达致的决定行事,不允许任何情绪化的影响说服我走向另一个相反过程。因此,我们可以把“合理性”界定为这样一种行动取向,即为达致某种坚定不移的目的而毅然决然地采取最有效手段的行动取向。


(二)合理性与理性运用的“去人化”


正是在经验合理性取代了先验理性的后形而上学的背景下,把行动的选择和决策交由智能算法——即诉诸算法理性——方始成为可能。因为经验合理性遵循着效率原则,只要智能算法比生物算法更有效,它就具有了取代后者的运用前景。

在西方形而上学的传统中,理性被认为是人所特有的禀赋和能力。算法理性一旦成为理性运用的新形态,它就对传统的理性观念构成根本挑战:理性可以脱离人而存在;换言之,理性运用“去人化”了。算法理性的运行当然仍然依托于人的理性,特别是算法研发者的理性。但是,它在下述意义上使理性运用“去人化”了:智能算法取代了生物算法在那些以信息(即数据)处理为基础的实践性事务上的学习、认知、判断和决策程序。就像合理性体现了人们对于手段与目的间关系的实践性兴趣一样,算法理性在遵循“合理性”的逻辑中取代人的理性,也主要体现在实践性事务上,即智能算法可以以更有效的手段实现特定目标的那些事务。这种实践性事务,大多是以信息(即数据)处理为基础的。譬如,让一个人通过其生物算法确定任何一个适时位置及其在整个城市的方位是十分困难的,因为这需要他或她对整个城市和这个城市的每个街道都了然于心——这其中需要处理的信息或数据远远超出了人的理性能力之外。然而,一个搭载了GPS(全球定位系统)并采用了“蚁群算法”的高德地图智能导航系统,却可以完美地解决这一问题。在这里,如果说GPS(全球定位系统)是将地理位置数据化的系统,那么,“蚁群算法”则是通过对地理大数据的处理为人们规划最佳行车路线的决策系统。可以说,是大数据和人工智能的完美结合,最终让算法理性大行其道,并使理性运用“去人化”了。


(三)理性运用的“去人化”与人的客体化


算法理性所导致的理性运用的“去人化”,尽管极大地提升了人类的决策和行动效率,但却常常是以人的“客体化”为代价的。所谓人的“客体化”,是指人不再是享有自由并为生活赋予意义的主体,而沦为被支配的客体。由于人不再是理性运用的主体,他或她沦为被动的客体也就顺理成章了。算法理性所带来的理性运用的“去人化”,至少会在如下两个方面导致人的“客体化”。

其一,因“算法独裁”所导致的人的客体化。由于人们越来越把重大判断和决策事项交由智能算法处理,而智能算法本身的运算过程又是“去人化”的,即不必征求相对人同意,一旦对智能算法的裁断出现异议,很难得到及时且有效的救济——由此导致的问题,可称为“算法独裁”。显然,“算法独裁”必然会导致人的客体化,即相对人不再具有可参与对话和商谈的主体地位,而处于“任由算法支配”的被动境地。

以《淘宝平台服务协议》(版本生效日期2019年8月19日)为例,该协议第6.1条“违约认定”第二款约定:“为适应电子商务发展和满足海量用户对高效优质服务的需求,您理解并同意,淘宝可在淘宝网相关规则中约定违约认定的程序和标准。如:淘宝可依据您的用户数据与海量用户数据的关系来认定您是否构成违约;您有义务对您的数据异常现象进行充分举证和合理解释,否则将被认定为违约。”由此可见,“淘宝”对于用户行为是否构成违约的判定是依据特定的用户数据与海量用户数据的关系,然而,如果用户要对“淘宝”判定的违约行为进行质疑,那么他就必须承担充分举证和合理解释的义务,但是大多数用户事实上并不知晓“淘宝”算法的内容,指望用户对数据异常进行举证并作出解释在有些情况下可能并不实际。特别是在用户的账户被盗用的情况下,用户举证证明自己不存在违约会变得更加困难。一旦用户被认定违约,后果是极其严重的,不仅用户的支付宝账户可能会被采取取消收款、资金止付等强制措施,“淘宝”还会在平台上公示用户的违约行为处理措施。鉴于“淘宝”平台以及蚂蚁金服(“淘宝网”所属阿里巴巴旗下平台)在公民信用信息方面的巨大影响力,用户被“淘宝”算法判定为违约的后果有可能是灾难性的。此服务协议名为“协议”,但它既是一个典型的格式合同,其智能算法对违约责任的判定亦是独裁性的,相对人在其中既是缺位的,又是被客体化了的。在网络时代,像这样的“算法独裁”的事例可以说俯拾皆是。

其二,因“劳动力机器人化”所导致的人的客体化。算法理性登上历史舞台,对我们造成的最直接的社会影响便是对人的工作机会的挤压。赫拉利在《未来简史》中描绘了算法理性对人类主体性的颠覆:“1.人类将失去在经济和军事上的用途,因此经济和政治制度将不再继续认同人类有太多价值。2.社会系统仍然认为人类整体有其价值,但个人则无价值。3.社会系统仍然会认为某些独特的个人有其价值,但这些人会是一个超人类的精英阶层,而不是一般大众。”他进而断定人类将诞生一个新的“无用阶级”:“这一群人没有任何经济、政治或艺术价值,对社会的繁荣、力量和荣耀没有任何贡献。”赫拉利的以上说法,绝不是危言耸听,而是日益迫近的现实。对人类来说,劳动的重要性不言而喻。因为劳动不仅是维系生存的基本需要,也是人的主体性的基本保障。正如赵汀阳指出的:“除了作为生存手段的‘硬’意义,劳动(包括体力劳动和智力劳动)还有不可或缺的‘软’意义:劳动提供了‘生活内容’,以哲学概念来说,它是有意义的‘经验’,即接触事物和人物的经验。与事物和人物打交道的经验充满复杂的语境、情节、细节、故事和感受,经验的复杂性和特殊性正是生活意义的构成成分,也是生活值得言说、交流和分享而且永远说不完的缘由,是生活之所以构成值得反复思考的问题的理由。假如失去了劳动,生活就失去了大部分内容,甚至无可言说。”算法理性导致的失业只是表面问题,真正严重的实质问题是“失去劳动会使人失去价值,使生活失去意义,从而导致人的非人化”。一旦无法持续地参与劳动,人就不再能充满自觉地生活,而只能被动无聊地生存。人仍可像动物一样活着并消耗着生活资料,但由于他或她不再被社会需要,他或她也就无法为自己的生活赋予意义。


三、理性运用的“封建化”与“公司统治”

赫拉利在《未来简史》中曾指出:随着智能算法取代生物算法,不仅会将人类挤出就业市场,亦会使财富和权力为那些拥有强大算法的公司所垄断。这种公司垄断财富和权力的现象,即关涉由算法理性所表征的理性运用的另一个取向,即它越来越以算法的研发者和所有者——即开发和拥有算法的公司——为封闭边界而运行。笔者把这种现象称为“理性运用的封建化”:理性不再是如哈贝马斯式的“沟通理性”(communicative reason)所期待的那样,可以通过主体间性的对话和沟通,形成以语言为媒介、以达致相互理解和共识为取向的“沟通共同体”(communicative community),而变成了以维护智能算法所有者利益为旨归的专断独白。就像中世纪西欧的封建庄园和中国商周时期的封建邦国的情形一样,拥有智能算法的公司开始在经济、政治乃至社会生活领域拥有更加自主且不受监控的地位。


(一)“算法统治”与理性运用的“封建化”


就算法理性的运行来说,算法统治势必导致理性运用的“封建化”。“算法理性”开始蜕变为“理性的算法”,即主要为算法所有者服务的算法。2016年初发生的“魏则西事件”,就是“算法理性”退化为“理性的算法”,进而导致理性运用“封建化”的典型。2016年4月12日,西安电子科技大学21岁学生魏则西因滑膜肉瘤病逝。他去世前在知乎网站撰写治疗经过时称,在百度上搜索出武警北京第二医院的生物免疫疗法,随后在该医院治疗后致病情耽误,此后了解到,该技术在美国已被淘汰。此事件发生后,伴随着网民对“莆田系医院”声讨的,便是对百度商业推广中的竞价排名算法的讨伐。百度的搜索算法关于商业推广的算法,采用了一种完全不考虑社会公共利益而将百度公司利益最大化的倾向,即哪家公司出价高,哪家公司在搜索结果中就优先显示。为回应国家网信办的整改要求,百度公司随后进行了整改。从其整改内容来看,在此之前百度的商业推广算法是彻头彻尾的唯利是图的算法,它完全服务于百度公司的盈利需求,把社会利益和公共利益抛到了九霄云外。这种只服务于算法所有者利益的倾向,是算法理性“封建化”的典型表征。


(二)理性运用的“封建化”与公司统治

    

早在1989年,经济学家威廉姆·多格(William M.Dugger)就提醒我们注意全球化时代的“公司霸权”(corporate hegemony)问题。他颇具洞察力地写道:“在当代西方的公司经济中,市场已经成为一种消极的制度。积极的制度是公司。……公司已经发展到了以其他人的利益为代价,为任何控制它的人的利益服务的程度。” 在1995年出版的《当公司统治世界》中,戴维·C.科顿(David C.Korten)对由“公司自由主义”(corporate liberalism)驱动的“公司独裁”进行了深刻的分析和批判。在他看来,新古典自由主义经济学家、财产权利的拥护者(市场自由主义者)、公司和公司阶层成员等三者共同组成了“公司自由主义者联盟”。这种由经济理论、道德哲学和精英人物的政治利益共同结成的强大联盟,鼓吹着公司自由主义思想,即让公司从规则和国界限制中解放出来、追逐利润。正是这种公司自由主义,在很大程度上构成了经济全球化的意识形态。然而,“当市场变得更加自由,更加全球化的时候,治理的权力就日益从国家政府手中转移到跨国公司手中”。作为“积极未来网”和“人本发展论坛”的创办人,科顿更为关注的是“公司统治”对人类生态和文化方面造成的破坏。因此,他尤为关注公司经由对广告传媒等的控制而对电视媒体和学校等人类文化传承系统的腐蚀和破坏。“公司全球化梦想的建构者们正在寻求创建一个世界,在这个世界里,世界上最强大的公司集团创造并拥有的普同性文化象征将会取代差异巨大的各种文化象征,后者把人们与特定的区域、价值观和人类社区联系在一起。”

多格和科顿的警告绝不是危言耸听。事实上,在互联网时代到来之前,我们已经进入“公司统治”的时代。如果把国家的年度国民生产总值(GDP)和公司的年营业收入放在一起排序,在互联网时代刚刚启幕的时候,排名前100名的经济实体中,公司的占比已经超过国家。根据Sarah Anderson和John Cavanagh于2000年发布的报告,公司在排名前100名的经济实体中有51家,其中,排名最高的通用汽车营业收入达1765.58亿美元,排名第23名,超过了世界上大部分国家。时至今日,公司对全世界财富的控制力更加巨大。根据Global Justice Now2018年发布的报告,以2017年的收入进行比较,排名前100位的经济实体中有69个是公司,只有31个是政府。在前200名实体中,公司与政府之间的差距更加明显:157家是公司,只有43个经济实体是国家。沃尔玛、中国国家电网、苹果和壳牌等公司甚至比俄罗斯、比利时和瑞典等相对富裕的国家积累了更多的财富。

由此可见,随着互联网时代的到来,公司与政府在财富控制能力上经历了此消彼长的变化。尽管我们尚缺乏实证数据精确地测度这种经济权力的此消彼长在多大程度上是由公司所控制的智能算法贡献的,但其中的逻辑关系显而易见。随着全球经济进入算法为王的“智能经济时代”,像Google、苹果、阿里巴巴、腾讯等控制着垄断性算法的互联网高科技公司,其财富生产和控制能力将持续增强。由于与人们对未来的经济预期紧密相关,上市公司的市值能直观地反映经济发展的趋向。就此而言,“全球最大市值上市公司”的排名变化趋向,则可以较为明确地反映不同类型公司的前景此消彼长的变化趋向。2001年,全球市值最大的上市公司前五名分别是:通用电气、微软、埃克森美孚、花旗银行和沃尔玛。到2016年,前五名变成了苹果、Google、微软、亚马逊、Facebook等清一色拥有独特算法的互联网高科技公司。

时至今日,算法已成为未来经济系统演变的主要推动力量,人类正在进入一切皆可计算的时代。可以想见,如果没有外在的法律规范引导其朝着有利于社会公共福祉的方向发展,由算法理性所驱动的理性运用只能朝着“封建化”的方向肆意生长。考虑到公司的财富生产和控制能力正与日俱增,如果这样,我们真的就将处于“公司霸权”的社会。由众多高科技公司经由“算法统治”所主导的一个强大“经济利维坦”,将耸立在我们每个人面前。如果那样,继政府之后,把公司作为主要防患和驯服对象,必将成为捍卫和保障公民权利的主要议程。


(三)市民社会与“系统对生活世界的殖民化”


20世纪以来,特别是“后冷战时代”以来,以哈贝马斯与科恩(Jean L. Cohen)、阿拉托(Andrew Arato)夫妇为代表,阐发了“国家(行政系统)—市民社会(生活世界)—经济领域(经济系统)”的三分法。正是这一三分法,构成了“政府—市场—社会”三分法及“社会三分法”(social threefolding)的学理基础。从市民社会的思想史上看,这一三分法的出现,意味着市民社会的“去经济化”,即市民社会不再是19世纪与经济社会(经济领域)同构的“资产阶级社会”(bürgerliche Gesellschaft),而成为既有别于政府、也有别于市场的独立功能领域。这在表征“市民社会”的德语词的变化中可见一斑:在19世纪(以黑格尔和马克思的著名论说为代表),德语以具有经济内涵的“Bürgergesellschaft”对译“civil society”,今天则以具有文化和政治内涵的“Zivilgesellschaft”对译“civil society”。正如哈贝马斯指出的:“今天,在完全不同的历史格局中,这种市民的社会(Bürgergesellschaft)的领域又重新被发现了。但是,‘市民社会’(Zivilgesellschaft)这个词同时拥有了一个与自由主义传统中的那个‘资产阶级社会’(Bürgerliche Gesellschaft)不同的含义——黑格尔说到底把后者从概念上理解为‘需要的体系’, 也就是说社会劳动和商品交换的市场经济体系。今天称为‘市民社会’(Zivilgesellschaft)的, 不再像在马克思和马克思主义那里包括根据私法构成的、通过劳动市场、资本市场和商品市场之导控的经济。相反, 构成其建制核心的, 是一些非政府的、非经济的联系和自愿联合, 它们使公共领域的沟通结构扎根于生活世界的社会成分之中。组成市民社会的是那些或多或少自发地出现的社团、组织和运动, 它们对私人生活领域中形成共鸣的那些问题加以感受、选择、浓缩, 并经过放大以后引入公共领域。”

市民社会成为同时区别于政府和市场的功能领域,当然只具有规范性的意义,而不是对社会发展状况的描绘。但它之所以成为新的时代诉求,则旨在回应经济全球化“公司霸权”的出现——论者对“公司霸权”的警惕与对市民社会“去经济化”的共识几乎同时在20世纪80年代末和90年代初出现,绝不是历史的巧合。事实上,科顿在2001年修订出版的《当公司统治世界》(第二版)中,就引入了尼坎南·玻拉思(Nicanor Perlas)所阐发的“社会三分法”:“一个健全社会建立的基础是三个相互区别由相互联系的部门之间均衡地相互作用,这三个部门就是市民部门、政府部门和经济部门。”

在市民社会远未成为有别于政府和市场的力量中心的社会,一旦任由“公司霸权”的肆虐,个体权利和社会公益将面临的局面可想而知。一般而言,与政府和市场相比,市民社会的正式制度化程度较低——在很大程度上可以说,正是市民社会的这种较低的正式制度化水平,可以为我们提供“从内在精神联系意识到生活与社会的行动最大限度的创新自由” 。然而,较低的正式制度化水平通常意味着较低的组织化水平。对市民社会本就孱弱的社会来说,其组织化水平更低,指望它担负起抵御“公司霸权”的重任只能是敲冰求火、缘木求鱼。对市民社会仍待培育的社会来说,市民社会势必将面临着行政系统和经济系统的双重裹挟和压制,从而出现哈贝马斯所说的“系统对生活世界的殖民化”:一方面,“消费主义和占有性个人主义、绩效动机(motives of performance)和竞争”等在经济系统占主导的观念在生活世界(市民社会)大行其道,并“获得了塑造行为的力量”;另一方面,“对自发的意见和意志形成过程所进行的官僚性褫夺和抽空,扩大了型塑大众忠诚(engineering mass loyalty)的范围,并使政治决策与具体的即形成认同的生活情境相脱钩变得更加容易”。


四、结语

前文对算法理性的产生逻辑及其导致的危害(人的客体化和公司统治)进行了分析。这种分析表明:算法理性之所以可以成为一种新的理性形式,根源于人类理性能力和理性意志的内在有限性。尽管算法理性代表了“后人类”理性的新形式(甚至是工具理性的极致形式),但由此导致的人的客体化和“公司统治”对个体自由和公共利益的侵害同样值得我们警醒;如果不能将其建立在充分尊重和保障个体自由和公共利益的基础之上,那么算法理性的肆虐绝非人类的福音。

     那么,我们该如何抵御算法理性所导致的人的客体化和“公司统治”呢?这首先需要我们将这两个问题的症结进行剖析。算法理性所导致的理性运用的“去人化”和“封建化”,尽管属于两个不同性质的问题,但其症结却都在科顿所说的“公司自由主义”。后者自不待言。就前者来说,理性运用的“去人化”,表面上看是智能算法兴起的必然结果,但智能算法之所以可以兴起实质上亦是“公司自由主义”推动的结果。以中国为例,百度公司可以说是“公司自由主义”的典型践行者和推动者。就在经历了“魏则西事件”之后,百度董事长兼CEO李彦宏在2018年的中国发展高层论坛上作出了“中国人愿意用隐私换取便利”的论断。该论断一出,就在网络上引发了广泛的争议。人们争论的焦点在于自己的意愿被代表,因为随后的网络调查显示:81%的网友不同意用隐私换方便。不过,从另一方面来看,李彦宏不过是在千方百计地宣传“公司自由主义”的意识形态,其隐含的逻辑是这样的:既然中国人都愿意“用隐私换取便利”,那么,我们为互联网企业“用便利换隐私”扫清法律和制度上的障碍,就顺应了中国人的消费需求,就是再合理甚至正当不过的事情了。事实上,那些导致了人的客体化的算法之所以可以大行其道,正是大多数社会成员都承认或默认了“公司自由主义”意识形态的结果。在这个意义上,算法理性所强化的“公司统治”构成了其导致人的客体化的前提和基础。

     为了超越“公司统治”对社会文化生活的侵蚀和破坏,科顿寄望于他所呼吁和推动的“生活民主运动”。这种“生活民主运动”,主张将下列原则作为生活的指导原则:生活是自组织和合作的;生活受设定的、可渗透的界限的约束;生活是地方化的,与当地相适应;生活是丰裕的、节俭的和共享的;生活上多样化的,创造性的。这无疑为我们描绘了一幅颇具价值吸引力的生活图景。然而,“生活民主运动”的形成,却是以发达且充满活力的市民社会的存在为前提的。对于市场经济和市民社会需要同时培育的社会来说,缺乏可以推动“生活民主运动”的适格政治主体。在这样的社会,由于常常需要借助政府的力量培育市场经济,同时又需要借助市场抗衡于政府的力量孕育市民社会,因此,很容易出现乱象丛生的局面:“权力之脚踩住市场之手”的沉疴未除,“市场之手掐住社会之脖”的新疾又现。如何让政府培育市场的同时不至于形成对市场的支配,如何让市场抗衡于政府的同时不至于导致“市场脱嵌于社会”(卡尔·波兰尼语),从而让政府、市场和(市民)社会三者“各美其美,美人之美”,是一项意义重大而又任务艰巨的历史课题。


原文刊发于《厦门大学学报(哲学社会科学版)》2021年第2期《大数据与社会科学发展研究》专栏,第23-33页。因篇幅问题,注释删略。


欢迎关注“厦大哲社版学报”微信公众号

投稿平台

https://xdxbs.xmu.edu.cn/

继续滑动看下一个

孙国东 | “算法理性”的政治哲学检视

向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存