“算法利维坦”的风险及其规制
编者按
随着大数据、云计算、人工智能等现代技术的迅猛发展,人类的日常生活、公共服务、国家治理等享受了极大的便利。但毋庸讳言,人类被数字“奴役”的现象日益凸显,“被算法压榨囚禁的外卖骑手”“大数据杀熟”等系列社会事件便是鲜明的例证。面对“数字\技术利维坦”的现实生成,有关研究者已经对涉及到的公民隐私保护、人类道德选择、国家安全、数据独裁等问题进行了批判研究。本文进一步聚焦于海量数据产生的源头——算法,探讨了作为数据源头的算法“利维坦化”的权力生成逻辑,提出了极具警示性的算法权力异化的可能风险,同时从技术、舆论与权利三个维度提出实现算法治理双向平衡、横向平衡与纵向平衡的路径,并突出权力与权利的边界剃刀原则以规制算法技术越位。通过本文,我们可以更全面地认识算法技术影响下的社会结构正发生的深刻变革,更科学地研究应对之策。
《探索与争鸣》杂志2021年第3期特设专栏探讨算法社会的文化变迁与走向,读者可自行前往探索、深入研究。
作者简介
张爱军,西北政法大学新闻传播学院教授。
摘要
智能算法带来治理效益的同时也会生成新的社会风险即“算法利维坦”。“算法利维坦”是“利维坦”的智能技术形态,即在社会治理过程中算法逐渐成为建构人们生存环境的重要甚至决定性力量,人们逐渐成为算法的附庸,臣服于算法程序监控之下,国家权力运行与社会治理日益依赖智能算法的维持。算法对人们的政治活动与政治行为具有反噬作用。“算法利维坦”在西方政党政治中表现为算法意识形态越位、算法选举越位、算法民调越位和算法政治谣言泛滥。“算法利维坦”权利让渡的半契约逻辑引致技术理性至上的绝对权威逻辑,并最终指向算法技术越位。算法技术越位所造成的后果与其生成逻辑具有内在关联,“算法利维坦”存在公民权利让渡导致算法权力越位的风险,存在算法政治越位导致“人的政治”终结的风险。算法风险规制旨在使智能算法服务于“人的政治”。从平衡逻辑推演,算法风险规制需以算法对抗算法、以舆论监督舆论、以公民权利约束公共权力、以边界剃刀制约边界剃刀等方式防止算法越位。
一、前言
政治学对算法治理的相关研究主要围绕政治传播与政治决策这两个方面展开,集中于智能算法的意识形态传播研究、算法权力研究等议题。
就意识形态传播来看,已有研究从算法推荐下的主流意识形态传播与非主流意识形态传播展开。主流意识形态视域下的算法传播功能包括两方面 :一是实现主流意识形态传播的精准推送,提高主流价值传播的精确性和有效性 ;二是官方主流媒体对非主流媒体的算法传播权的收编。非主流意识形态视域下的算法传播研究,集中于非主流媒体算法新闻造成的认知偏见、算法歧视、群体区隔与价值分化。
算法权力研究以技术势能为探讨基点,分析了掌握算法技术的优势主体对相对劣势群体造成的影响,着重分析算法权力获得、算法权力效果呈现、算法权力风险防范等方面。目前,算法相关研究尚缺少权力与权利博弈的边界视角。
本文认为算法治理作为一种智能化的治理形态,将深刻影响国家与社会的关系,存在社会治理算法化态势。因而本文提出“算法利维坦”概念,从算法权力运行与权利行使的边界视角探讨算法对政治社会发展所产生的政治风险及其治理规制 ;并从政治平衡逻辑认为,治理算法应该从技术、舆论、权利与边界剃刀等方面实现算法治理与治理算法的平衡,防止算法越位。
二、“算法利维坦”及其政治现实表现
(一)“算法利维坦”的生成
马克思主义认为社会存在技术之维,并将其视为社会行动者去创造并占有经济、政治和文化技术以实现社会秩序建构或改造的一种有效的武器。技术发展与社会秩序存在两种相关关系,要么社会凭借强大的技术力量建构或重构社会秩序,要么技术运用失当颠覆社会秩序使社会系统陷入紊乱。不论哪种关系都显示了技术对于社会发展的强力影响。因此,技术成为社会治理的必然手段,社会也必将技术纳入治理之中。作为人工智能技术运行基础的算法嵌入社会治理领域,会产生一种高度智能化和普遍化的治理形态。治理算法化是人工智能时代国家治理形态的算法转型,体现为社会治理中算法的“准主体”性、治理过程以算法规制为基础、社会公民成为算法数据网络的治理对象。以数据分析处理为基础的算法不仅成为国家治理工具,还推动国家权力往更广泛、更隐秘的空间渗透,形塑智能时代“算法政治”新形式。随着技术自主性凸显,算法嵌入政治体系对政治权力和政治价值的施力将导致算法时代新的社会风险,即“算法利维坦”。
(二)“算法利维坦”生成的内在逻辑
按照霍布斯的国家理论,“利维坦”是为了避免“每个人对每个人的战争”这一自然状态,由人类缔约建立的为人类提供安全和秩序的强大机构。人们对“利维坦”提供的安全和秩序极其依赖,但却因为缺乏对“利维坦”的制约而受其约束。智能算法时代人们在获得算法技术便利的同时又束缚于算法,纳入国家社会治理编制的算法技术开始异化,非常有可能演化成“利维坦”的智能形态“算法利维坦”。“算法利维坦”的生成具有权利让渡的半契约逻辑和技术理性至上的绝对权威逻辑,权利让渡的半契约逻辑引致算法的绝对权威。
“算法利维坦”权利让渡的半契约逻辑是指在社会治理过程中算法秩序的适用只有普通公民的参与而主权者缔约阙如的契约状态,亦即算法时代公民基于社会生活便利和政治安全的诉求将自己的权利让渡于算法权力,在这一过程中公民权利处于弱势地位,公民被置于富有成效的算法监控体系之下,却无法通过权利行使制衡算法监控。这一逻辑的形成建立在两方面:
一是算法用于社会治理的高效性,国家社会治理的算法赋权赋予其社会认同基础。智能时代基于维护社会政治秩序的目的,国家通过赋权于算法,延伸公权力的意志与意图,使之承载公权力社会治理的目的与政治价值诉求,在算法运行过程中建构社会秩序,规范社会行为,以更牢固、更隐秘的方式体现国家控制能力。社会公民基于对国家的认同,将算法秩序视为国家社会治理的合理组成部分。国家利用算法的技术理性编织权力网络,强化智能时代国家对社会的管理能力,避免多元政治价值与意识形态分裂而产生霍布斯式的“自然状态”。
二是算法技术理性以赋予更多“自由”的形式获得社会公民的认知合意。智能算法对人们社会生活渗透是前智能时代任何技术都无法企及的。算法具有的信息处理、生活决策与行为选择的高福利功能使人们逐渐加深对算法的依赖,并以自身的信息数据换取算法便利,获得舒适生活。殊不知公民是在以权利换取便利,将自己的权利让渡给了算法权力。国家治理的算法赋权与公民权利让渡,使算法权力在社会生活中缺失公民权利的制衡。
“算法利维坦”的技术理性至上的绝对权威逻辑由权利让渡的半契约逻辑发展所致,半契约决定了除去权力主体之外的人们所缔结契约建立的是权力的绝对权威,这种权威是单向的、不可逆转且不受约束的。国家对算法赋权、公民权利让渡于算法权力的双向过程并不均衡,当算法的技术理性逐渐取代人类政治理性时,算法权力出现异化。
(三)算法权力异化的政治现实表现
算法权力异化的结果是国家权力运行依附于算法,国家社会治理建基于算法秩序,人们成为算法的奴仆,其政治意识和政治行为受到算法约束。而国家和社会对算法权力的相应约束机制缺失,使原本基于国家赋权和公民权利让渡的算法权力异化为社会治理中占据绝对地位的“算法利维坦”。“算法利维坦”的绝对权威逻辑凸显了算法技术理性与自主性在带来公民福利和治理效率的同时,逐渐演化为具有相对独立性的技术力量。从效果来看,“算法利维坦”代表了一种强制性的治理方式,成为智能时代重新配置国家、社会与公民三者之间关系的技术进路。但是,“算法利维坦”的绝对权威使之渐具吞噬国家、社会和公民的力量,导致“权力”与“权利”主体间性的关系发生变化。对“算法利维坦”的制衡不仅失去了“权力制约权力”的方式,也因为个人权利的让渡失去了对其进行“权利制约权力”的可能性。
在西方社会,尤其是美国,政党政治算法逐渐成为建构现实政治的重要力量。一方面,算法运用延伸了政党政治的权力意志,算法隐含政党意识形态,成为政党政治建构政治价值与社会秩序的智能手段。另一方面,算法的技术理性与自主性使之成为影响政党组织、政客个人、选民群体的思维方式、行为习惯和存在状态的技术力量,亦即政客的政治活动依赖算法,选民的政治行为依据算法推荐,人的自主性降低。算法从四个方面影响美国政党政治发展:
第一,算法意识形态越位。算法意识形态越位是西方政治社会“算法利维坦”的根本性表现,是指原本由政党赋予意识形态内容以引导选民意识形态的算法,在政治活动过程中逐渐成为反向塑造政党意识形态的技术力量,使算法意识形态成为政党、政客的政治活动的准则,也成为选民政治行为的依据。亦即算法意识形态一经形成就会在技术自主性影响下成为支配政党与选民意识形态的力量,算法意识形态越位于政党意识形态和选民意识形态。
第二,算法选举越位。算法选举是指算法在选举政治中成为影响政党和选民选举活动的关键因素,算法选举越位是资本利益越位于公民利益的表现。算法技术运用“是一个政治的过程,即社会权力参与其中实现自身意图展开斗争的过程”。智能算法导致的选举越位是选举政治向算法公关政治嬗变的一种技术后果。公关政治充斥着政治人物与选民的频繁互动,以及政治人物对民意的倾听和遵从。算法公关政治是以算法为媒介在算法信息传播模式的基础上实现政治人物与选民的政治互动,政治人物从算法政治信息监控中获取民意,建构政治人物形象与算法政治议题,迎合选民获得选票的算法政治选举方式。
第三,算法民调越位。算法民调是智能时代民意调查的新形式,算法民调越位表现为民调的准确性降低,其实现途径是算法营造的“象征性现实”拟态环境影响公民的“主观现实”,其后果是公民的政治态度隐匿程度提高,选举政治的不确定性增加。算法民调具有去公共价值化特质。算法民调排除了不同话语的竞争博弈,对信息传播的可推演逻辑将一切信息进行量化并转化为公民个人的信息偏好,这一量化过程实质是经过资本力量、政党组织精心设计出来的。“算法传播所要进行的是深层次操作,为用户营造一个特殊的政治拟态环境。”
第四,算法政治谣言泛滥。算法政治谣言是算法基于公民信息偏差生成的有关政党、政客及其相关政治事件的谣言。算法政治谣言泛滥是“后真相”越位于真相,政治情感越位于政治理性的表现。算法政治谣言泛滥是政治社会公共领域和私人领域界限模糊的表现,政治家个人的私密生活曝光成为获得政治竞争优势的方式,也是公共领域沦丧的表现。可以说,算法政治谣言已成为算法时代西方政治竞争的一种方式,通过相互比拼“互黑”来吸引公民眼球,提高政治关注度。从希拉里的“邮件门”到特朗普的“避税门”,再到“最肮脏的总统辩论”,无不充满政治互黑揭短的浓厚色彩。
三、算法利维坦:技术越位引发的政治风险
“算法利维坦”的两种逻辑指向算法的技术越位,算法技术越位所造成的后果与其生成逻辑具有内在关联,即“算法利维坦”存在公民权利让渡导致算法权力越位风险,算法政治越位导致“人的政治”终结风险。
(一)公民权利让渡引发算法权力越位
“算法利维坦”生成的底层逻辑暗含公民权利让渡于算法权力的半契约意义,算法权力凌驾于公民权利之上。算法权力渗透于社会生活的广度和深度远超前智能时代的政治技术,其显著影响是算法社会超越公民社会,导致的后果是公共领域与私人领域的边界消弭,公民权利让渡给算法权力,对算法权力的制约平衡机制阙如。
第一,自由权让渡。自由权让渡可以从公民和国家两个主体维度理解。从个人主体看,自由权让渡是公民个人以自由换安全、以自由换舒适的行为选择,这种行为选择有主动的,也有被动的。从国家主体看,自由权让渡是技术统治对公民自由权利行使的限定,这种权利行使限定是权力支配下的行为规制。算法社会将自由与管制的张力推向了极致,消弭公私领域边界,使个人生活深受影响。如算法信息推荐影响公民的决策自由、意识形态接触自由、政治表达自由等。自由权利意识弱的公民主动遵循算法数据秩序,在无意识中主动将自由让渡。自由权利意识强的公民即使有抵制算法的意识,也不容易产生抵抗算法的行为。抵抗意味着将受到算法技术的非正常识别,引起相关治理人员和部门的关注,个人的社会行为与生活将受到限制。自由权让渡意味着算法可以侵犯个人隐私权、平等权、知情权等,因而,自由权让渡是算法治理下的公民权利与公共权力失衡的基本形式。
第二,平等权让渡。平等权让渡是指算法权力对公民个人的人格尊严的损害,平等权让渡的结果是算法歧视与算法特权的产生。平等是“相同情况相同对待”的形式平等与“不同情况区别对待”的实质平等的统一,算法治理则是“相同情况相同对待,不同情况相同对待”,实质上是不平等。算法治理下的公民只是人口统计学意义上的生命,“生命档案化”成为智能算法时代的生命政治。“数字身份”取代了“自然人身份”,“数字身份”平等一方面导致了“自然人身份”无差别化,人在算法权力下失去了差异平等的基础。另一方面,“数字身份”预定的背后嵌入了身份设计者的价值立场,设计者的立场歧视造成了算法对人的歧视。这不但会导致社会不平等,还会导致政治不平等 ;不但会导致社会偏见,还会导致政治偏见 ;不但会导致社会歧视,还会导致政治歧视。从托克维尔对平等倾向的预判来看,平等存在“一种倾向是使人们沿着一条漫长的、隐而不现的、但确实存在的道路走上被奴役的状态”。“数字身份”的算法预定是对社会偏见的继承,以及这些偏见可能带来的文化或社会禁锢,并以一种隐而不显的数字特权让公民走上“数字驯化”的道路,损害了人之为人的价值尊严。
第三,隐私权让渡。算法社会的生活准则是数据核查与程序设计是否一致,一致就能获得正常便利的生活,不一致则会受到社会管制。这种社会生活准则的背后是公民隐私权的让渡与算法权力对公民隐私权的侵犯。如算法以便捷安全之类的因素相引诱,让人们“自愿”地使用人脸识别,无差别地监控所有人的行动,将每一个人变成维护安全的工具,以期对公共领域实现精确把控,从而达到理想化的安全状态。这意味着算法对个人信息的监视监听、窥视刺探、干扰披露等行为大多存在信息告知不充分的问题,有效的用户同意很难成立,故而其运用也难谓合法。隐私权让渡让算法政治成为“透明的政治”、让政治人成为“透明的政治人”,打破了个人主义与集体主义的界限,个人隐私成为社会集体知悉、讨论和分析的对象,使个人接受集体的监督,受到集体的掌控。隐私的公共化与公开化导致的后果,是以公共“善”之名义让“监督权力运行的权利”成为“被权力监督行使的权利”。
第四,知情权让渡。知情权让渡是公民为降低查询、选择、判断等信息行为成本,将自己的知情权交由算法权力支配的行为。算法技术势差、算法推荐传播与公民信息素养,是导致公民知情权让渡的原因。首先,由于技术主体与客体之间存在技术壁垒,算法的信息运作并不为公民所知悉,“黑箱”现象显著。其次,算法推荐的个性化和精准化传播特征,塑造某种个性化文化趣味的政治取向,背离信息传播的公共利益取向,以个人立场取代整体关切,以个人意志取代集体意志,算法政治也就走向了“黑政治”。再次,公民的信息素养高低不一,对信息知悉的要求程度不一,对算法信息的鉴别能力也存在差异。算法权力的信息支配能减少公民的信息接触的复杂性,将信息接触选择立场化、精确化,但是由此带来的信息知悉的整体把握和深度了解的丧失将引发公民认知理性崩塌,易引发“后真相”政治。
(二)算法政治越位导致“人的政治”终结
“算法利维坦”的绝对权威导致算法政治越位于“人的政治”,表现为本应为政治社会发展服务的算法在技术自主发展下对政治权力结构形成冲击,以及对生物人、社会人和政治人的束缚和控制,即可能从根本上造成“人的政治”的终结,算法政治成为未来政治发展的演化趋势。从技术理性和自主性对人与“人的政治”的冲击来看,算法政治越位导致“人的政治”的可能性终结体现在三个方面:
第一,技术理性吞噬政治理性。“理性”是现代政治发展的核心理论基础,从马基雅维利到笛卡尔、斯宾诺莎,再到康德和黑格尔等的哲学理论无不围绕“理性”,从道德、权力、政治法则等角度展开各自对政治社会及其发展的理论设计。“算法利维坦”将加剧政治与道德的分离,算法权力的自主运行排斥政治道德、社会道德与法律道德,将人类政治推入一个新的时代,“人的‘统治’为‘中立’的科学‘治理’所取代。然而,没有比技术统治时代那样,政治更为全然地被缩减为赤裸裸的统治的”。算法治理强化了技术政治自主,弱化了“人的政治”自主,技术僭越将导致政治制度设计、政治决策制定、社会奖惩、人与国家的关系、国家与社会的关系依附于算法数据的分析和设计逻辑。基于理性自治的官僚结构将从“人的组织”转向“算法的组织”。算法治理下的所有人,包括使用算法治理的人都将不得不在算法测量、统计、计算中寻求生存。原本基于理性设计的公平正义、自由平等的政治价值与原则对社会治理的规约,被技术的标准化和程序化划归为数据准则下的正常人和非正常人,导致“人的政治”的价值主张所具有的政治自律出现危机。
第二,算法寡头统治隐现。技术反噬政治理性必将引致数据寡头统治的风险。作为技术权力载体的算法反作用于国家权力,算法治理正向赋权将巩固国家权力,赋权与约束失衡则滋生算法权威和算法独裁,隐现算法寡头统治风险,掣肘国家权力运行和政治社会发展。按照霍布斯的“利维坦”逻辑,“算法利维坦”让人们时刻处在需要算法并防备算法的认知悖逆中。算法同样具备更强的精确性、运转更加自如、去道德化和非人性化、集权等显著特征,缺失“权利对权力的制衡”机制。即是说在算法治理的社会中,公民权利仍然处于弱势状态。算法权力的广泛渗透使之可以了解人的欲望,操纵人的情绪,甚至替人做决定。对公民认知的引导与禁锢,使人生活在算法威权和算法独裁中。社会权利在算法个性化设定中的分散利用,权力在算法治理中的强势集中,将导致权利制约权力的机制无法形成,使“算法利维坦”成为建构社会的强大力量。
第三,政治合法性危机。算法权力对政治权力的合法性冲击,在于技术权力排斥政治价值权威。算法权力具有技术效率主义倾向,其运行的核心原则是效率和效益,而现代政治社会追求的核心原则是民主和平等,基于此原则形成的政治文化的轴心原则是自由与自我实现。算法权力的运行把社会治理效率放在首位,将政治价值排除在技术自主性之外。萨托利指出 :“权威是一种权力形式,一种影响力的形式,它来自人们自发的授权,它从自愿服从、为民认可中获得力量。”“权力和权威需要相互平衡,没有权威的权力便会是一种压制性的权力。”也就是说,权威是对权力的非强制性认同。算法权力以技术的强制性秩序维持使社会主体产生技术屈从心理,背离人类社会的公共价值基础,冲击了政治价值权威。价值权威下降在算法“茧房”效应中滋生极端主义,不断制造和助推群体隔离和社会分裂,加速社会共识崩塌,导致社会碎裂。
四、“算法利维坦”风险的规制
算法风险规制旨在使智能算法服务于“人的政治”,强调算法治理的辅助性与人的主体性,其目的是在智能算法嵌入社会并成为社会治理“准主体”时能发挥其自身的技术效益以实现“善治”。“算法利维坦”风险的规制策略,在于从技术、舆论与权利三维实现算法治理的双向平衡、横向平衡与纵向平衡,并突出权力与权利的边界剃刀原则以规制算法技术越位。
(一)以算法对抗算法
技术的问题用技术解决,这是基础的技术治理逻辑。以算法对抗算法是借助算法从技术之维来实现算法治理的程序化牵制,防止算法失控对社会的异化与吞噬。以算法对抗算法的要旨在于建构算法治理过程中各个运行阶段的相互牵制,以阶段性的双向制衡实现算法治理整体上的技术平衡。以算法治理算法在于优化算法机制设计,以价值输入防治技术理性扩展,其关键在于建构完整的算法阶段性运行制衡机制,以两个或两个以上的算法系统分解算法权力运行的单一链式结构,实现算法权力的再分配。为此,一要建立算法设计编制初始阶段的价值引领机制。防止算法偏见与算法歧视的价值失偏,从设计源头植入正确的社会价值。二要建立算法数据喂食阶段的价值纠偏机制。在算法对社会数据的选取、挖掘、分析的数据链中增强数据的价值赋予,维护算法数据的价值平等与数据正义。三要建立算法推荐审核阶段的价值过滤机制。以社会政治价值追求为基准过滤影响政治发展的有害信息,加强“以人为本”的算法推荐权重,防止算法技术的非人格化。四要建构算法数据反馈阶段的信息多元化整合机制,防止算法单向治理导致的决策失真与合法性消解。
(二)以舆论制衡舆论
算法权力的话语构型在现象层面显示为对舆论话语的引导治理,对非主流算法话语的权力收编是算法权力对私人权利的限制与权力集中的体现。从舆论视角分析,算法治理下的舆论导致了舆论功能转化。即以公民权利为基础的社会舆论对权力运行的监督功能,转化为以权力意志为引导的算法舆论对社会舆论的监控。以舆论监督舆论是以公民权利建构的社会舆论对算法舆论进行监督的横向平衡方式。这种横向监督平衡的必要性在于社会舆论存在逆向平衡算法话语权力的隐性作用,表现为对算法舆论的修正、消解、重构和取代。算法建构的舆论具有去价值化的公共话语属性。算法对舆论话语的治理遵循可推演、可预测、可防控原则,一切舆论偏向皆可数据量化。舆论数据量化的规程就是舆论公共话语的去价值化过程。社会舆论具有公共取向,对算法舆论的修正就在于重新赋予舆论公共价值,实现舆论数据量化反制。社会舆论对算法舆论的消解基础在于算法舆论的公正性缺失与主体性迷失。
算法舆论的话语指向带有权力意识与偏见色彩,且算法舆论的主体不以社会公民及其社会诉求为主,不能完全反映社会公益。社会舆论站在公民主体的立场,通过建构社会合意对算法舆论的公正性缺失与主体性迷失予以提示,以消解算法舆论偏见。算法舆论具有信息操作性,不具独立性和自由性,这就导致了社会舆论对算法舆论的重构。社会舆论源于社会,具有社会内生性,体现人们的情感与信念,因而对算法治理的非人格化话语具有平衡性。算法舆论因其个性化推荐具有伪公共性的特质,不具有公共舆论的特征。社会舆论从社会公民诉求出发,以社会公民为主体,在公民中传播,以公共性推动算法去伪公共性,让社会舆论成为监督和制约公共权力的话语力量。
(三)以社会权利约束公共权力
以社会权利约束公共权力具有学理基础和价值合理性。社会契约论认为权利让渡是私权利转化为公权力的路径,公权力的职能是保障社会权利,社会权利是约束公权力的有效力量。在国家与社会的关系中,社会公民的自由被视为至高无上的价值,不干涉他人的生活是最重要的社会品质。算法运用应该坚持“人是目的”的价值追求,应该在维护社会权利的基础上进行社会治理。实现以社会权利约束算法权力,在于坚持算法正义,从算法初始的程序设计与数据收集到算法推荐输出都要保证算法程序正义和最大多数人的平等参与,最大限度地减少算法偏见和算法歧视,维护算法公民的基本权利。以算法正义实现社会权利对算法权力的约束,一要坚持算法可解释性原则和透明性原则,抑制算法黑箱对社会知情权、平等权和隐私权等权利的侵害。二要坚持以法律规则规制算法规则,将算法权力限定在法律范围内,从法律层面落实社会权利。三要建立和完善算法责任追溯机制,保障公民数据安全。
(四)以边界剃刀约束边界剃刀
剃刀阐释的是边界问题。波普尔的“自由主义剃刀”原则到诺齐克那里则发展为“自由至上主义”,进而提出“最小国家”理论。诺齐克认为,只有“最小国家”才不会侵犯个人自由。从“自由主义剃刀”到“自由至上主义”的理论发展,体现了权利的优先性与权利对权力的制衡。但现实境况是,在权利与权力的关系问题上,任何一方行使都不能越界。权力过大,干预社会过多,则会侵害私人权利,破坏民主基础。权力过小,干预社会不足,则无法保障权利的正常行使,有可能让权利行使陷入霍布斯所说的“自然状态”。因而,在权利与权力的关系问题上,罗尔斯的公平正义的自由理论合理地阐释了应该在保持个人自由的基础上,使社会整体趋于平等和公正。亦即,权利边界与权力边界的平衡状态。
与以社会权利约束公共权力不同,以边界剃刀制约边界剃刀是指算法权力干预应以公民权利为界,算法权利行使应遵守“群己权界”,实现算法治理公共权力与公民自由权利的边界限度与平衡。权力源于权利让渡,作为公共权力延伸的算法权力应以权利为界。算法治理对公民自由权、平等权、隐私权和知情权的侵害针对的是不特定的多数人的个人权利,进而会侵害社会公共利益。算法权力行使应尊重社会权利与个人利益,通过建构完善的权利保障体系维护社会公民权利,即通过制度建设避免算法权力滥用,充分保障公民权利,以获得社会合意,夯实算法治理的合法性基础。此外,公民权利行使应以公共利益为界,从公共利益出发,严守“群己权界”,不以权利行使扰乱社会秩序等。
往期回顾:政府数字化转型的要素、机制与路径 ——兼论“技术赋能”与“技术赋权”的双向驱动
数据赋能:数字政府治理的运作机理与创新路径
面向公共价值创造的城市公共数据治理创新
当地方政府要求获取数据时: 利益相关者之间的权力和协调机制
文章来源:《探索与争鸣》2021年第1期编辑:郭晨曦校对:蔡龚涛审核:光 涵