查看原文
其他

赵精武:《算法霸权》之算法滥用背后对社会结构和权利保护的损害后果

日前,《周泰 · 书声》第九期之《算法霸权》品读会在北京周泰律师事务所举办,现场邀请了中国政法大学数据法治研究院教授张凌寒、中国人民大学法学院副教授郭锐、北京大学法学院长聘副教授戴昕、北京大学法学院副教授胡凌、中国人民公安大学法学院副教授苏宇、北京航空航天大学法学院助理教授赵精武、北京周泰律师事务所高级律师储江、北京大学法学院副教授江溯共同探讨、解读这本《算法霸权》!

本文整理自品读会上品读人赵精武助理教授的发言内容,供读者参考。

全文共: 1804字   预计阅读时间: 5分钟 

赵精武

北京航空航天大学法学院助理教授

在过去,算法治理议题远不如如今这么火热,国内外学者多开始关注到算法滥用背后对社会结构和权利保护的损害后果。《算法霸权》一书中所提出的算法问题归根结底可以理解为“算法剥夺了选择权的实际选择空间”和“算法滥用对人格尊严的践踏”。诚如该书所言,人类作为法律主体的地位开始沦为技术治理的客体,个人在面对信用评估、绩效评估等领域的算法技术应用时,既无法知晓算法评估结果的形成过程和形成依据,也无法拒绝算法评估自己(客体评估主体)。因此,国内外学者在算法治理领域的学说主张具有一致性,即通过算法透明、算法解释、算法问责等机制评估算法应用的安全性和必要性。美国学者对于算法治理的研究重心主要包括正当程序、算法透明、隐私保护、算法问责以及诸如医疗事故、言论监管等领域的算法应用正当性。

虽然算法应用能够提升用户服务体验,提高企业竞争力,但是这种社会便捷性的代价不容小觑:网络空间的自然人不再保持着“隐匿状态”,自然人的每一个真实操作行为都会成为判断自己下一步行动的“指南针”,甚至在某些情况下,算法应用已经安排好了自然人应当从事的行为模式,评价自然人的社会信用、身心状况等。因为《算法霸权》已经指明了,广告商已经通过数据和算法,事无巨细地了解自然人的一切情况,自然人在每一个时间点、每一个地方都接收到的网络信息不过是算法应用的必然结果。

算法本身并不会直接对个体权利和人格尊严造成任何不利影响,算法治理议题的根本内容在于算法应用正在剥夺用户的选择权,即用户有权选择是否接受算法服务,也有权拒绝或中途退出算法服务。我将之成为算法服务自主权。算法服务自主权是以信息服务合同下的用户权利为基础,并非是以约束算法权力为目的而存在的算法权利。在合同法视野下,算法推荐服务的“算法权力”扩张不过是服务提供者滥用合同权利和不恰当履行合同义务的表象,倘若算法不具有事实层面的“支配力”,那么“算法权力”不过是群体影响力泛化的简称。在个体权益保护的视角下,这种群体影响力泛化则会转变为服务提供者与特定用户之间的权利义务关系显失公平。因此,算法服务自主权并不是一项内容具体明确的法定权利,强调的是保持服务提供者与用户之间权利义务关系的动态平衡,具体表现为三个方面:

第一,在算法推荐服务对用户权益实质性影响时,用户有权知晓这种影响的程度和范围,以便自主决定是否接受服务,因此,知情权的“知情范围”是以算法推荐服务的可靠性为主要内容,所以算法透明义务不仅将之描述“告知其提供算法推荐服务的情况”,并且还要求服务提供者需要以“显著方式”告知。

第二,对于部分用户而言,告知事项可能并不足以让用户真正理解算法推荐服务的基本情况,服务提供者可能通过笼统表述使得告知机制流于形式,因此,算法服务自主权的实现还需要行政权力予以干预,服务提供者还需要公示基本原理、目的意图和主要运行机制等具体信息,在方便具有专业知识背景的用户更加了解算法推荐服务具体影响的同时,也使得行政监管和社会公众能够参与到算法应用的监督活动。

第三,算法服务自主权的正当性基础并不是纯粹的用户权益保护,更多的是权利义务的对等,故而算法透明义务金要求以“适当方式”公示即可。这里的“适当”包括两层含义,一是公示内容的适当性,即服务提供者不必公示底层代码、算法推荐技术具体内容等可能涉及商业秘密的信息;二是公示详细程度、频率次数的适当性,即仅在具体服务模式发生实质性变化的前提下,服务提供者才需要更新“公示”内容。因为企业所采用的算法推荐技术通常会进行动态更新,频繁要求企业公示最新优化的算法模型显然存在加重义务之嫌,而算法透明义务侧重的是“算法推荐服务”的透明性,而不是“算法”的透明性。

直播回看方式

微信长按识别上方二维码

回复【算法霸权】即可回看本次精彩直播

欢迎关注周泰,欢迎点“”和“在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存