查看原文
其他

万勇:算法统治?人工智能时代的版权法通知——移除制度丨前沿

熊超成选编 中国民商法律网 2021-03-09




中国民商法律网


本文选编自万勇:《人工智能时代的版权法通知——移除制度》,载《中外法学》2019年第5期。
【作者简介】万勇,中国人民大学法学院教授。

全文共2897字,阅读时间约7分钟。
现行版权法的通知——移除制度是web1.0时代的产物,以人工通知和人工审查为制度预设。随着web2.0和人工智能技术的发展,利用算法自动发出通知,自动过滤涉嫌侵权作品等方式进行算法执法成为常态,从而对传统的通知——移除制度提出重大挑战。对此,中国人民大学法学院万勇教授在《人工智能时代的版权法通知——移除制度》一文中认为,“算法统治”时代已经到来,需要重新思考通知——移除制度的功能目标,从规范性角度出发,考虑如何规制与通知——移除制度有关的算法设计。

一、通知——移除制度的法律规范与性质

中国法律首先在《信息网络传播权保护条例》中规定了通知——移除制度,随后《侵权责任法》与《电子商务法》也分别引入了该制度,但三者规定不同,性质和适用范围也有所不同,并非同等适用于互联网著作权领域。


《信息网络传播权保护条例》引入通知——移除制度、避风港制度时,立法本意与美国《数字千年版权法》一样,是将之作为免除赔偿责任条款予以规定的。然而,中国《侵权责任法》第36条第2款中的通知——移除规则显然属于归责条款。《信息网络传播权保护条例》是依据《著作权法》第58条授权制定,在授权目的和范围内,被授权机关享有与授权机关同样的立法权。在这个意义上,《信息网络传播权保护条例》与《侵权责任法》并非下位法与上位法的关系,而是特殊法与一般法的关系。《电子商务法》第42条也规定了通知——移除制度,但根据其第2条第3款的规定可知,第42条并不能适用于网络版权侵权。

因此,在互联网著作权领域,通知——移除制度应当适用《信息网络传播权保护条例》的相关规定,即作为一种免责(免除赔偿责任)机制。在通知——移除制度出现后,绝大多数版权规制发生在网络服务提供商的私人平台上,而不是法院和行政机关。通知——移除制度作为一种基于法律授权进行的私人规制,实际上将法律裁判与执法功能聚集到了网络服务提供商手中,而网络服务提供商通常都是以利益最大化为目标的私人机构,可能存在权力滥用,对公平竞争、市场创新带来新的障碍,也将损害诸如表达自由、经营自由、平等权等基本权利。


二、人工智能时代通知——移除制度面临的挑战


(一)用户创造内容产业的发展


“用户创造内容”是指“在互联网上公开提供的、反映了一定程度创意努力的、由非专业人士创作的内容。”传统上,私人使用行为通常属于版权例外,主要原因是私人使用对版权人的经济利益影响不大,以及在成本和技术上无法对私人使用进行规制。然而,“用户创造内容”产业形成的规模效应以及作为“法律的代码”提供的规制机制,导致需要重新反思私人使用以及“用户创造内容”的合法性标准。


(二)海量通知的涌现


越来越多的版权人开始利用算法搜索涉嫌侵权作品,并向网络服务提供商自动发出通知,从而极大地改变了通知——移除制度的实际操作模式。但是,从商业的角度来看,滥用制度的可能性也更加凸显,因为机构通常都是根据发出通知的数量收费,因而存在多发、滥发通知的诱因。网络服务提供商接到通知后,即使是存在瑕疵的甚至不合格的通知,也倾向于移除其中所涉及的内容或断开相关链接。反通知程序看似可以为被网络服务提供商错误移除,或权利人滥用移除制度的行为提供救济。然而,实际情况是该程序很少被使用,用反通知这一制度来进行纠错的可能性微乎其微。


(三)过滤算法的兴起


在算法环境下,预防风险比实现损害救济更为重要。因此,有些互联网服务提供商除了使用算法来实施版权法中的通知——移除制度之外,还超越版权法的要求,使用算法事前过滤涉嫌侵权内容,使其根本无法出现在网络上。过滤算法,这一超越现行法律规定范围的算法规制机制,将监测在线侵权行为的责任从版权权利人一端转移到了网络服务提供商这一端,从某种意义上说,它改变了版权法制度的缺省规则,背离了通知——移除制度基础架构。


与现行的通知——移除制度相比,自动过滤机制对用户非常不利。由于用户上传的内容被自动过滤,版权权利人并未向网络平台发出通知,用户自然也无法发出反通知。此外,用户无法起诉版权人,因为并不是版权人阻止用户的内容上传;用户也难以起诉网络服务提供商,因为后者通常在用户协议中作了相应规定。

三、构建促进算法执法有效运行的通知——移除制度


利用算法执法,发生滥用的情形屡见不鲜。然而,算法执法已经成为当下实务界的普遍利用方式,也是较为成功地打击盗版的制度安排。所以,改革的大方向应当是如何优化算法执法,而不是抑制甚至废除算法执法。


(一)事先预防:构建合理的算法设计


现行的通知——移除制度,采取的是结果监管的法律规制路径。人工智能时代,算法被广泛应用,通知数量呈指数级增长;如果出事算法设计存在问题,产生的错误结果也是海量级的,事后纠错成本巨大,后果十分严重。因此,应当转换对算法监管的基本思路,在注重结果监管的同时,更应当将重点转移至风险的防范,重点关注算法设计的合理性问题。因此,在算法设计时,需要确定合理的匹配阈值,防止过度预防和预防不足的情况发生,同时还需纳入合理使用情形。


(二)事中披露:公开通知信息


不同于法院和行政机关的执法,公众无法知道算法执法的运行机制,因为算法执法基本上是在黑箱中进行操作。算法“黑箱”的核心问题在于信息不对称和不公开,因此,要对权力边界不断扩张的算法执法加以有效规制,需要迈出的第一步就是推进算法透明。算法程序对很多公司来说属于商业秘密,因此,适当的透明不是算法程序而是算法要素,即网络服务提供商收到的通知信息。未来在修改法律时,应增设网络服务提供商公开通知信息的法律义务。


 (三)事后监管:引入“黑箱测试”豁免条款


分析海量信息需要花费大量时间,仅提高透明度还不足以解决“算法黑箱”问题。对于通知——移除制度中的算法“黑箱”,可以采用的思路:将各种类型的侵权、不侵权内容上传(输入)到网络平台上,向网络服务提供商发出各种符合或不符合通知实质要件的通知,看相关内容是否被过滤、删除或断链(输出结果),从而能够大致了解算法的基本情况,判断算法是否合理。


然而,进行黑箱测试可能违反多项法律规定。首先,未经权利人授权,上传侵权内容构成侵犯版权专有权。其次,违反合同法,因为网络服务提供商的“使用条款”通常都有尊重和保护知识产权的规定。最后,《著作权法》第22条所封闭式列举的12中情形属于合理使用范围,“黑箱测试”显然不在其中。但是,黑箱测试豁免与知识产权法一些基本规则的立法目的相似,具有正当性。如:版权法中的规避技术措施例外,专利法中的科学实验例外,商业秘密法中的反向工程例外等。引入“黑箱测试”豁免条款后,既可以鼓励公众参与,监督算法执法,也可以敦促相关主体不断自我完善算法设计。

推荐阅读

王利明:人工智能时代提出的法律问题
郑志峰:人工智能时代,如何保护我们的隐私?| 前沿

近期好文

李琛:论人工智能的法学分析方法——以著作权为例 | 前沿

杨立新:民事责任在人工智能发展风险管控中的作用 | 前沿


责任编辑:熊超成、宋昌训

图片编辑:金今、张凌波、林嘉悦

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存