查看原文
其他

单勇:数字看门人与超大平台的犯罪治理

单勇 数字法学 2022-04-09

点击蓝字

关注我们



本文作者



单勇


南京大学法学院教授 博士生导师


本文载于《法律科学》2022年第2期

摘要

为回应新型网络犯罪的严峻挑战,通过超大平台的犯罪治理勃兴。数字社会中的犯罪可归结为“平台内的犯罪”或“与平台有关的犯罪”,超大型互联网平台因其独特的“看门背景”“看门意愿”和“看门能力”,成为数字社会中承担网络治理及犯罪治理责任的看门人。“基于平台的治理”从本质看是超大平台针对平台生态系统、依循安全保护义务对用户的违法犯罪开展预警、预防及处置,安全保护义务包括协助执法义务、内容审核义务、网络安全审查义务、犯罪预防义务。在“国家管平台”“平台管用户”的数字科层结构中,超大平台作为国家治理主体的组织化调控通道,绝非所谓的“执法者公司”,而是承担安全保护义务的责任主体,即“公共责任公司”。

关键词:新型网络犯罪;数字看门人;安全保护义务;数字科层;公共责任公司

在全面进入数字社会后,我国的犯罪总体态势呈现两大特点:其一,从全国公安机关刑事案件立案数看,盗窃、抢劫、杀人等传统犯罪自2015年开始大幅持续下降,总体层面的“犯罪拐点”愈发显著; 其二,新型网络犯罪的挑战日趋严峻,传统犯罪全面涉网,网络成为犯罪发生的主要空间。“据公安部透露,网络犯罪占我国犯罪总数的1/3,且呈不断上升态势。” 即便是受破案率不高因素的影响,从侦查进入司法环节的网络犯罪数量仍大幅增长。“2017-2019年,检察机关办理利用网络实施的传统犯罪的起诉人数年均增加30%左右” 。


面对传统犯罪与网络犯罪此消彼长的结构性变化,犯罪治理模式发生重大变迁,“国家管平台、平台管用户”的策略勃兴,以超大型互联网平台(简称“超大平台”)为代表的网络服务提供者开始承担监管用户违法犯罪的治理责任,互联网平台作为新型治理主体登上历史舞台。


以往,犯罪治理通过党政科层的“组织化调控” 开展;如今,超大平台参与乃至驱动的组织化调控方兴未艾。超大平台不单纯是经营者,更“成为一种重塑社会结构的新型规制者”, 成为控制网络空间的“守门人” 。甚至有观点将平台称为“执法者公司”(enforcer-firms) 。对此,如何理解“通过超大平台的犯罪治理”及超大平台这一新型治理主体,超大平台的主体属性能否界定为“执法者公司”?这些问题亟待理论解惑。


01

超大平台参与犯罪治理的类型分析


“平台是一种以实现用户之间的组织、交互为目的的数字基础设施。平台由数据驱动,通过算法、接口实现组织和运行,在商业逻辑中形成平台关系,并受制于用户的同意。” 作为数字经济的关键要素,平台具有网络中介的主体属性。随着平台的公共性愈发凸显,“平台扮演着市场规制者的角色,在事实上承担维护网络市场秩序、保障用户权益的公共职能,平台与用户之间初步形成了完整的权力架构与运行体系”。 平台与用户的平台关系重新定义了社会关系,平台关系的本质在于超大平台与亿万用户之间的信息组织和社会组织关系。围绕平台关系,数字社会正向以超大平台为主导的平台社会转型。


参照《个人信息保护法》第58条,超大平台是“提供重要互联网平台服务、用户数量巨大、业务类型复杂的个人信息处理者”。参照欧盟委员会2020年12月公布的《数字市场法》(草案)第2条,超大平台是提供“核心平台服务” 的网络服务提供者。根据国家市场监督管理总局组织起草的《互联网平台分类分级指南(征求意见稿)》(2021年10月29日发布),上述法案中“提供重要互联网平台服务”及“核心平台服务”的网络服务提供者广泛涉猎网络销售、生活服务、社交娱乐、信息资讯、金融服务、计算应用领域六大类别,并聚焦于“超级平台”和“大型平台” ,统称“超大型互联网平台”或简称“超大平台”。例如,美国的苹果、谷歌、脸书、亚马逊等互联网公司,中国的腾讯、阿里巴巴、字节跳动、百度、京东等企业。


通过超大平台的犯罪治理,可称为“犯罪的平台治理”。虽然平台治理的兴起时间较晚,但却进行了极为丰富的实践探索,平台治理的实践可划分为以下四种类型:


(一)个案侦查环节的协助执法


鉴于网络已成为犯罪发生的主要空间,公安机关针对网络犯罪乃至传统犯罪的侦查往往离不开超大平台的协助执法。平台的协助执法包括被动回应与主动线上防控两个方面。被动回应是指面对公安机关侦查刑事案件的取证需求,平台协助固定和调取电子证据;主动线上防控是指平台通过线上风控和接收用户投诉的方式,监测和识别用户的平台活动是否涉嫌违法,从而向公安机关举报和移送案件线索。超大平台协助执法最初表现为日常性、回应式的配合公安调取证据;随着平台参与意愿增强,超大平台利用技术优势和数据优势主动线上风控的趋势愈发彰显。据调研,阿里巴巴集团对自有平台内的用户违法犯罪进行预警,每年向公安机关移送各类刑事案件线索超过一万条。


为实现更高水平的线上风控,各大平台纷纷研发犯罪分析的智能系统,阿里巴巴集团开发“钱盾”和“刺猬伪基站实时监控软件”,腾讯公司研发“麒麟伪基站实时检测系统”等软件助力电诈案件防控。“2018年上半年阿里巴巴集团协助公安机关破获一系列重大网络诈骗案件,抓获犯罪嫌疑人4000余人。” 截止2021年5月,“在守护者计划、反诈大脑、腾讯110平台支持下,腾讯公司协助公安机关打击网络黑灰产涉案金额超800亿元;协助识别恶意网站、恶意APP、骚扰诈骗电话累计4.09亿、0.94亿、995.99万”。 可见,超大平台已成为协助公安机关执法不可或缺的合作伙伴。


(二)基于联盟关系的合作治理


相对协助执法中平台与公安的“一对一”协作,超大平台和执法机关探索出基于联盟关系的“多对多”协作,即由一家平台或执法机关牵头成立犯罪治理联盟,由多个相关利益方加入,最大范围地整合治理资源、最大限度地发挥技术和数据优势、最高效率地输出案件线索,从而构筑起网络犯罪治理共同体。


在国内,2013年腾讯公司联合公安机关、银行、三大运营商、京东、VISA、银联等上百家政府机构和企事业单位,发起国内首个反信息诈骗联盟,治理信息诈骗产业链。2017年,阿里巴巴打假联盟成立,成员单位达200家,保护品牌增加到700多个。2020年,该联盟协助执法机关及品牌方侦破112起案件,案值超23亿。2017年,深圳市公安局刑事侦查局联合360、京东、顺丰等19家互联网企业建立线上反诈骗联盟,利用平台资源开展反诈线上宣传、加强信息共享、协助案件侦破。在联盟成立2个月内,侦破电信诈谝案件近百起,摧毁特大犯罪团伙3个,挖掘潜在被害人3000余人,截断涉案网址300余个。2019年,腾讯安全网域联合实验室与四家网络科技企业合作,利用各方在网络安全领域的技术优势,提高针对网络非法入侵、网络诈骗、网络传销、网络赌博等新型犯罪的技术治理能力,协助公安机关做好线索发现、情报甄别、数据分析、深度溯源、调查取证等工作。 字节跳动公司与各地公安机关合作,邀请上万家公安机关新媒体入驻今日头条和抖音短视频平台,利用平台开展全民线上反诈宣传和被害预防。


在国外,2002年,美国联邦调查局与电信、技术、咨询、法律、会计服务、金融行业的多家企业联合成立国家网络取证与培训联盟(NCFTA),该联盟利用联盟成员在情报、技术、数据等方面优势,承担起对网络犯罪侦查的技术支持、电子证据固定、网络威胁监测、网络犯罪的技术治理、新型网络犯罪研究等工作。据该联盟2015-2020年的财务报告显示,NCFTA共形成20615份分析报告,移交执法部门的案件达到3595个,其中有被逮捕人员的案件达1150个,预防财务损失达23.1亿美元。 此外,美国国家网络安全联盟(NCSA)由多家网络安全公司、软件服务商、金融公司等企业于2001年联合发起,与美国国土安全部的网络安全和基础设施安全局合作,主要从事网络犯罪预防、网络安全培训等工作。


基于联盟关系的“多对多”式合作治理将网络犯罪所涉各个政府部门、关联行业及企业全面囊括进来,以联盟关系构建犯罪治理共同体,着眼于个案侦破,更关注网络安全和网络犯罪的整体性治理、系统性控制,以此实现从被动回应到主动预警、从事后回应到前端治理的转型。在美国21世纪初成立的治理联盟中,网络服务提供者所起的作用尚不明显;在我国全面迈入数字社会的背景下,超大平台在规范共同体的发起和运行行为中起到至关重要的作用,甚至可以说联盟关系主要得益于超大平台的支撑。


(三)针对网络安全的平台监管


随着对网络犯罪研究的深入,新型网络违法犯罪滋生于网络黑灰产业土壤的规律得以揭示。由此,针对网络黑产的整体性治理兴起,超大平台纷纷加强对各自平台生态系统的安全保护,履行法定的安全保护义务,以“平台管用户”方式实现网络犯罪的前端治理。这种治理方式有别于平台协助公安侦破个案,主要体现为平台在自有生态系统中对用户活动的网络安全监管。


一方面,超大平台成立专门的网络安全部门和网络犯罪研究机构,不断探索更为专业的技术治理方案。阿里巴巴集团安全部通过黑产监测软件和智能风控模型,针对平台生态系统中的行为流、信息流、资金流、交易流、物流进行数据分析,以极强的案件线索挖掘能力监测网络犯罪。2018年公安部授牌阿里巴巴集团成立“打击治理电信网络新型违法犯罪防控中心”,腾讯公司成立专门的网络安全与犯罪研究基地,以加强对网络黑产活动规律的观察和研究。2019年,字节跳动安全中心发起打击黑产的“啄木鸟2019”行动,对上游的帐号恶意注册、中游业务场景的刷量作弊、下游带货等黑产作弊全链条开展专项打击,封禁涉嫌刷量作弊的违规抖音账号203万个,举报涉嫌刷粉刷量黑产网站113家,拦截黑产刷量注册抖音账号请求9199万次,拦截黑产刷赞、刷粉类刷量请求5.51亿次。 


在国外,微软公司的“数字犯罪治理部”(DCU)负责打击恶意软件、追查网络“不良行为者”,从Windows系统、Azure AD、Office 365和其他云服务中收集数据,形成由全球数十亿个端点组成的数据湖,据此建构微软智能安全地图。DCU的风控重点是商业电子邮件攻击、恶意软件、勒索软件、技术支持欺诈、在线儿童虐待内容、云服务风险评测等领域,通过机器学习的聚类技术对网络犯罪的相关信息进行关联,协助执法部门的分析、追踪和调查工作。 


另一方面,超大平台对用户发布不良及违法信息进行高效内容审核。平台系用户的信息枢纽,网络黑产泛滥根源于特定用户在平台生态系统中发布和传播不良或违法信息。这些信息不仅为网络赌博、卖淫、传销等活动引流,还直接用于诈骗、传授犯罪方法、制作和销售违禁物品等违法犯罪活动。


《网络安全法》《反恐怖主义法》《互联网平台落实主体责任指南(征求意见稿)》《移动互联网应用程序信息服务管理规定》等法规范为平台企业设定针对用户发布信息的存储、审核、披露报告制度,平台将内容审核义务贯彻于平台规则及用户网络服务协议之中,据此运用技术手段完善信息内容审核机制。


据调研了解,字节跳动公司对抖音软件中用户违规注册、刷量、刷粉、发布违规违法内容等行为,依靠人工智能和人工复核相结合的审查流程平均每天拦截处理10亿次。脸书(Facebook)公司2020年共处理用户发布的涉恐信息3330万条、网络仇恨信息1910万条,2021年第一季度处理涉恐信息900万条、网络仇恨信息980万条。值得注意的是,脸书(Facebook)处理的非法信息由平台发现并标记的占99%以上,仅不足1%的信息源自用户举报。 除对用户发布违法信息的删除,脸书(Facebook)公司还采用“区域屏蔽”方式满足所在国法律要求,如在2019年7月响应俄罗斯电信监管机构的要求,将对俄罗斯盾徽上添加纳粹标志的帖子在俄境内限制访问。 


(四)依托市场机制的间接治理


近年来,在实践中兴起一种基于市场机制的平台治理机制。笔者调研发现,在某超大平台支持下,某科技公司利用该平台的数据优势,搭建基于SaaS(Software as a Service)架构的数据分析服务系统,开发出多款精密、复杂、智能的犯罪分析软件,为办案部门开辟出一条通向赛博空间的市场化渠道。自2017年以来,该公司为1700家公安机关以免费形式、900家公安机关以付费形式提供数据分析服务,提供案件侦破的“线头”、对复杂涉网涉众犯罪“拆链”、精准定位已立案的嫌疑人、调取电子证据等。2020年,该公司协助公安机关抓捕逃犯2万余人。从该公司与某平台的关系看,依托市场机制的平台治理机制离不开超大平台提供数据接口等全方位支持,系基于平台的间接治理,该公司的运行无不体现着该平台以科技服务社会治理的价值观。 在间接治理中,该科技公司处于数据分析业务的受托者地位。在近期启动的业务中,该公司获得某网购平台与某快递平台的委托,分析两大平台提供的数据,识别因网购产生的违禁品、限寄品等风险包裹,识别准确率超过80%。经模型推算,该业务模式如在全国推广,每天能分析上亿包裹,可识别出4-5万风险件和3千件左右的违禁品、限寄品邮包。


综上,通过超大平台的犯罪治理超越了传统的警企合作模式。以往,科技企业和互联网公司仅为“技术提供方”;如今,超大平台既是“技术提供方”,更是“用户的在线监管者”。警企合作的内涵从“为公安提供技术工具”转变为“平台监管用户的网络违法行为”。在上述超大平台参与犯罪治理的四种类型中,前三种机制或是平台协助公安侦查案件,或是平台在自有网络生态系统中的安全监管,体现了超大平台对法定的协助执法义务和网络安全管理义务的履行。第四种类型是基于市场机制的间接平台治理,平台及其相关科技公司作为犯罪分析的“数据服务商”以效率更高、形式更灵活的市场机制为犯罪治理提供数据分析服务。在传统警企合作中,企业为公安提供的智能软硬件往往嵌于公安内网之中;但在第四种类型中,平台及其科技公司研发和运营数据服务系统处于公安内网之外,以为公安机关提供数据分析服务的方式履行着平台治理的职能。可以说,引入超大平台这一新型规制者不仅是应对网络犯罪挑战的创新之举,而且是新时代犯罪治理转型的显著标志。


02

超大平台作为数字看门人的理论基础


超大平台究竟是怎样的规制者?这需要对“平台管用户”的理论基础与法律依据进行分析。对“平台管用户”的理论基础,可引入看门人理论,阐述超大平台作为数字看门人的正当理由;对“平台管用户”的法律依据,涉及超大平台参与犯罪治理的法定义务。本部分对理论基础展开探讨,法律依据问题容后详述。


(一)数字社会的看门人


看门人或守门人(gatekeeper)一词初见于信息传播学,1947年,美国社会心理学家库尔特·卢因在《群体生活的渠道》一文中首提“信息传播的顺利与否取决于看门人的意见” 观点,主指新闻、著作的审查人或审查组织。20世纪八十年代,“看门人”一词被哈佛大学教授莱纳•克拉克曼引入商法领域,以明确证券中介机构审查证券行业利益相关方的第三方“执法者”身份。 


进入互联网时代后,“看门人”被赋予全新涵义,牛津大学教授乔纳森•齐特林提出软件服务商具有网络空间“看门人”角色的观点,为互联网治理奠定了基本原则。2008年,华盛顿大学卡琳•纳洪(Karine Nahon)教授提出“网络看门理论”,从看门人权力、用户的信息生产能力、用户与看门人的关系等方面阐述网络服务商在版权保护中的监管责任。 此时,“看门人”被界定为“在国家能力有限的情况下有能力修正他人行为的非国家机构,其通过流通渠道控制和内容审查等形式防止或尽量减少非法信息的传播”。


在深度数字化时代,互联网平台逐渐成为社会的信息中心与组织枢纽,成为“天然”的看门人。弗吉尼亚大学法学院教授丹尼莱·西特伦(Danielle Citron)认为网络空间存在不同的“数字看门人”(网络服务提供商、搜索引擎、社交媒体等),他们拥有内容审核的权力,能及时处理“网络骚扰”等违法活动。2015年,南丹麦大学政治学教授彼得·布罗(Peter Bro)呼吁重新审视数字化时代的“看门人”,认为由于搜索引擎、通讯工具、社交网络等平台赋予用户之间多元互动的功能,传统线性传播中以信息中介形式存在的“看门人”将消失,平台成为新的“看门人”。 波士顿大学法学院教授罗尔·伊凡·洛(Rory Van Loo)认为,看门人是被低估的重要监管工具,看门人平台不仅对上下游用户的行为进行有效监管,而且可以通过流通渠道及时控制并消除非法行为产生的社会负面效应。 耶鲁大学法学院研究员托马斯·卡德里(Thomas Kadri)指出,根据《计算机欺诈和滥用法案》等法案,网络空间成为犯罪发生的土壤,法院将网络平台视为看门人,即拥有允许和限制访问网站权力的财产所有人,就像现实世界中土地所有人对私人土地所做的那样。 


作为看门人的互联网平台不仅关注对非法信息的内容审核,而且将触角延伸至网络违法和网络安全的治理。随着平台责任制度的发展,“政府和相关利益主体更多地要求法律提前介入网络平台的商业运营和技术发展模式,强调对网络平台技术‘守门人’角色的利用,甚至针对用户违法行为向平台施加严格责任,以期提高网络执法的力度和水平”。 


关于看门人或守门人的涵义,张新宝教授认为,“守门人是指控制移动互联网生态关键环节、有资源或有能力影响其他个人信息处理者处理个人信息能力的互联网营运者。守门人包括应用程序分发平台、移动终端操作系统及平台型APP”。 该界定将守门人标定为超大平台。《互联网平台分类分级指南(征求意见稿)》依据用户规模、业务种类及限制能力,提出了超级平台、大型平台和中小平台的平台分级方案。其中,“超级平台”的分级依据在于具备“超大用户规模”“核心业务至少涉及两类平台业务”“上年度市值不低于10000亿人民币”“具有超强的限制商户接触消费者(用户)能力”并以“在中国的上年度活跃用户不低于5亿”为具体标准。“大型平台”的分级依据在于具备“较大用户规模”“具有表现突出的平台主营业务”“上年底市值不低于1000亿人民币”“具有较强的限制商户接触消费者(用户)的能力”并以“在中国的上年度活跃用户不低于5000万”为具体标准。 


在同时发布的《互联网平台落实主体责任指南(征求意见稿)》中的“超大型平台”亦明确指向“超级平台”和“大型平台”。 欧盟委员会2020年12月公布的《数字市场法》(草案)将超大平台界定为“看门人”。草案第2条规定了“看门人”的涵义,即在至少三个欧盟国家运营八大核心平台服务(包括搜索、社交网络等)中的一个(或多个)业务并具有市场支配地位的平台。草案第3条规定了“看门人”的标准。第一,看门人拥有强大的经济地位,对国内市场有重大影响,活跃于多个欧盟国家(年营业额65亿欧元或市值650亿欧元);第二,看门人是连接业务和终端用户的重要门户,具有强大的中间地位(C端用户数4500万以上,B端业务用户数1万以上);第三,看门人在市场上形成稳固的地位(连续三年达到前两个标准)。 


从互联网发展史看,在Web1.0时代,门户网站是互联网世界的主角,通过门户网站对网民分享信息系主流模式;在Web2.0时代,移动互联网崛起,社交、购物、支付等平台步入网络世界的中心;在Web3.0时代,基于人工智能、大数据、物联网等信息技术的拉动,数字平台推动网络空间与现实空间虚实交织、高度融合,“平台渗透至社会的核心,绕过传统管理制度,改变了社会和公民行为,重塑了国民生活的社会结构”。 


在平台社会,少数超大平台与亿万用户的平台关系成为主要社会关系,国民生活无不依附于平台,平台活动兼具数字与物理的双重属性。因此,超大平台不单是网络空间的看门人,更是网络空间与物理空间虚实交织、高度融合的数字社会及平台社会的数字看门人。


(二)看门背景、看门意愿与看门能力


平台之何以具有规制者身份而成为数字看门人,犯罪治理何以离不开“平台组织”?这须从超大平台的看门背景、看门意愿和看门能力三方面进行阐述。


1.看门背景:被犯罪利用的平台生态系统


作为数字社会的“结构性角色” ,超大平台既是平台生态系统的创建者和运营者,也是犯罪发生之新环境或新条件的制造者。也就是说,平台生态系统被不法分子所利用,成为犯罪滋生和蔓延的生存土壤。如今,犯罪学的研究主题从“城市吸引犯罪”演变为“网络吸引犯罪”,但“网络吸引犯罪”未能体现出数字社会的犯罪规律。随着超大平台对数字社会的再中心化形塑,“网络中的犯罪”可归属于平台生态系统内发生的犯罪,大多数“现实中的犯罪”可视为与平台生态系统有关联的犯罪。


一方面,“网络中的犯罪”系不法分子以用户身份、利用平台应用系统实施的网络越轨行为。在平台重塑社会的大趋势下,不法分子实施的针对网络、利用网络、以网络为空间的违法犯罪,几乎均为针对平台生态系统、利用平台生态系统、以平台生态系统为网域空间的违法犯罪。可以说,网络犯罪即为发生于“平台内的犯罪”。


另一方面,大多数“现实中的犯罪”与平台生态系统存在千丝万缕的关联。大多数犯罪人均具有平台的用户身份,平台生态系统或是犯罪发生的媒介或空间,或是追查犯罪线索之不可或缺的必要条件。即便是盗窃、抢劫等传统犯罪在侦破中也不可避免地从平台生态系统找寻数字线索;即使是从不使用网络和智能设备的人也不可避免与其他人接触,从而被间接纳入平台生态系统。


可见,数字社会的越轨和犯罪在本质上是一种平台现象。超大平台在创建和运营平台生态系统过程中,也间接制造了犯罪滋生的全新环境。对此,“网络运营者作为危险源的开启与控制者,应对正在发生的侵权负有排除义务,并对未来的妨害负有审查控制义务。” 作为危险源的间接制造者,超大平台有充分的道德义务控制犯罪风险。


超大平台的道德义务首先源于用户对平台的信赖乃至依附。用户与平台之间存在契约关系,更存在一种数据信托关系。平台保障用户合法权益不受侵害乃是公认的天理、法理与情理。其次,超大平台是数字社会的关键信息基础设施,其运营安全与国家安全和社会安全紧密关联,故而道德义务蕴涵着网络安全责任的义务本质。最后,监管用户违法、防控犯罪风险契合平台的根本利益,履行这类道德义务亦是平台生态系统有序运行、安全发展的现实需要。


2.看门意愿:市场逻辑与国家逻辑高度趋同


以“平台管用户”的方式治理网络犯罪,不仅契合平台的长远利益,而且有力回应了国家治理的迫切需要。网络犯罪治理的国家逻辑,即在“网络空间不是法外之地”理念下,国家始终追求网络空间乃至数字社会的安全与稳定;网络犯罪治理的市场逻辑,即保障平台生态系统安全、保障平台用户不受犯罪侵害,以“平台管用户”形式构筑更好的平台生态系统。


新型网络犯罪是国家和社会面临的严峻挑战,更是对平台生态系统及平台用户的重大威胁。在此意义上,平台亦是网络黑产及网络犯罪的受害者。平台有着极为充分的利益动机追求平台生态系统的安全有序和健康发展。早在2015年12月,阿里巴巴就成立了平台安全治理部门;五年多来,该部门配备了2000多名专职打假人员,年投入经费逾10亿元。 


作为数字社会的组织枢纽,平台蕴含的分工本质构成了国家逻辑和市场逻辑目标趋同的现实基础。“在形式上,平台既是一种技术实现、一种工具、一种模式、一种机制,也是一种组织机构;在本质上,平台就是分工。” 之所以“平台管用户”而非国家直接管用户的原因在于,与国家治理主体比较,超大平台相对网络犯罪的治理距离更近,更具治理优势。


国家治理主体擅长控制现实空间与物理场景下的行为人;而超大平台更了解用户的行为与心理,其对用户的数据控制可谓精准。国家治理主体基于属地管辖,而“网络空间是整体的而不是割裂的”, 网络犯罪具有跨地域、跨领域、匿名性、泛在链接、智能化特征;超大平台对平台生态系统的在线控制、实时监测、智能分析、精准干预无疑更具针对性。国家治理主体偏重于事后回应,但对网络黑产的事后打击无异于割韭菜式的治标之术;超大平台对平台生态系统的在线控制则蕴涵着更多的源头治理和前端治理意蕴。由此,“平台管用户”的市场逻辑与安全导向的国家逻辑不仅在目标上是趋同的,而且市场逻辑还形成了对国家逻辑的有益补充。


3.看门能力:超大平台的数据优势、技术优势及组织优势


犯罪治理有赖于“平台组织”的原因在于,在“用户即数据”的商业逻辑下,超大平台运用数字技术愈发能够“看透”用户,基于“数据化、评分、干预”的数据控制步骤,具有影响和支配用户的能力。这使得平台成为犯罪治理的全新组织通道和组织载体。具言之,超大平台作为数字看门人具有如下三重优势:


第一,平台的数据优势源于平台对用户的数据控制,这是超大平台作为数字看门人的基础。事实上,用户既是平台的服务对象,也是平台的“商品”。平台通过“数据化、评分、干预”三个步骤将用户加工成“商品”。


步骤一:数据化即“将社会行为转化为在线量化数据,从而进行实时跟踪和预测分析”。 平台利用数据呈现各种尚未被量化的网络活动,评级、付费、注册、观看、预约、搜索、发帖、评论等用户交互均可被捕获为数据。 


步骤二:评分。用户画像、内容审核、信用评级、网络活动风险评估等监管活动均离不开基于算法决策的评分机制。


步骤三:干预。在数据化和评分基础上,平台对用户违规违法进行实时识别与精准干预。据调研了解,字节跳动公司针对抖音软件中用户的违规注册、刷量、刷粉、发布违规违法内容等行为,依靠人工智能和人工复核相结合的三道审查流程平均每天拦截处理10亿次信息。


第二,平台的技术优势与数据优势相结合,为超大平台作为数字看门人提供了丰富的“看门工具”。超大平台以前端的安全部门和后端的安全实验室为网络犯罪治理提供技术支持。


阿里巴巴集团安全部的线上风控与黑产治理依托多个安全实验室的支持,如专注计算机视觉、自然语言处理的图灵实验室、提升平台攻防对抗能力的猎户座实验室、专注数据保护的双子座实验室、聚焦移动安全的潘多拉实验室、专注应用防护的米诺斯实验室、研究网络安全威胁的归零实验室、专注反钓鱼和反诈骗的钱盾实验室及聚焦金融支付安全的蚂蚁金服光年实验室。


腾讯安全管理部构筑的网络诈骗技术治理防线得益于科恩实验室(操作系统安全攻防)、反病毒实验室、移动安全实验室、玄武实验室(腾讯产品安全)、湛泸实验室(漏洞挖掘与漏洞攻防)及反诈骗实验室的支撑。其中,反诈骗实验室研发神茶反钓鱼系统、神侦资金流查控系统、神羊情报分析系统、鹰眼反电话诈骗系统、麒麟伪基站实时定位系统等多款犯罪分析软件,基于腾讯云的SaaS服务开放给政府部门,电信诈骗识别准确率高达95%。


字节跳动公司亦有多个实验室支持安全部门的反诈风控,研发鲨鱼反欺诈系统结合自建的风险文本库、风险链接库、风险设备库对抖音等APP中的内容进行智能分析,以打击网络黑产、防范网络诈骗。从治理成本看,网络安全实验室建设需持续的高额投入,由平台自建实验室、依循市场化机制运作以服务犯罪治理大局的做法,能有效分担党政职能部门的犯罪治理负荷,契合鼓励市场主体利用技术优势参与社会治理的政策。 


第三,在数据优势和技术优势的基础上,包括网络违法在内的社会活动信息汇聚于平台生态系统;超大平台成为犯罪治理的组织枢纽,平台的组织优势成为数字看门人的关键所在。从组织视角看,“人类社会的发展史是一部‘社会组织化’的历史,社会进化也是组织进化的过程”。 随着个体愈发依附于超大平台,超大平台与用户之间形成了信息“单向镜”(One Way Mirror)  ,亿万用户参与的平台生态系统成为超大平台的“数据矿”。 借助数字技术对“数据矿”的采集与加工,平台生态系统进化为根据用户使用和反馈而愈发精密的复杂巨系统。


超大平台具备了其他主体所没有的且作为数字看门人所必需的“在线组织优势”。“相比传统的政府规制,平台在信息、技术、效率等方面更具优势,能更有效地维护网络市场秩序。” 虽然犯罪防控愈发依赖技术治理,但由谁运用技术、如何使用技术才是问题的关键。技术仅是治理工具,“技术手段不能自行解决治理中的实质性问题,对治理危机的应对有赖于国家治理体系的组织重建”。 在组织优势的加持下,平台掌握极为重要的治理资源,其权力在线嵌入微观、具体的治理过程,穿透国界和组织边界,形成了面向平台生态系统且超越属地管辖、针对风险且超越事件性治理的超级行为体,构成了数字化时代的社会整合器和稳定器。


超大平台作为在线组织者极大提升了国家对用户的识别力,被国家治理体系所吸纳,成为犯罪治理不可或缺的责任主体,对平台生态系统内发生的违法犯罪承担起“主体责任”。 如果说离开平台就无法理解数字社会的话,那么离开“平台的在线组织”便无法把握数字化时代的犯罪治理关键。


综上,“看门的背景”“看门的意愿”及“看门的能力”为超大平台作为数字看门人提供了合理性依据。不过,还需进一步探究这种合理性依据转化为怎样的制度安排,即“平台管用户”的法律依据。



03

超大平台作为数字看门人的安全保护义务


鉴于平台生态系统是网络犯罪滋生的基础环境,国家从政策和法律上均要求超大平台承担网络治理的主体责任。这意味超大平台不仅应承担以注意义务为核心的内容审核义务和被动回应的协助执法义务,更应作为数字看门人对平台生态系统进行主动性、全方位、系统化的安全保护。


“平台管用户”的制度安排源于国家为平台设定的、愈发严密的一揽子安全保护义务。从内涵看,安全保护义务聚焦于超大平台为执法部门的案件侦查提供线索和信息、识别和阻却违法犯罪、保障平台生态系统的安全秩序;从性质看,安全保护义务是超大平台的控制者义务,即特定网域的控制者保障其所构筑的平台生态系统安全有序的法律责任;从类型看,安全保护义务分散于相关法律法规及规范性文件之中,可归结为协助执法义务、内容审核义务、网络安全审查义务、犯罪预防义务四个方面,其中后三项义务均为“以管理为基础的规制”,  要求平台主动运用技术手段有效应对网络违法犯罪。


(一)协助执法义务


超大平台的协助执法义务与第三方警务存在相似之处,第三方警务是在地点警务中通过地点管理者的犯罪预防。两者均强调国家治理主体与被害人之外的第三方主体承担一定的协助执法义务;两者的不同在于第三方警务的地点管理者承担预防街面犯罪的协助义务,而超大平台承担事后回应网络犯罪的协助义务,平台以履行协助义务的方式为执法部门提供与网络犯罪侦查有关的线索和信息,即平台生态系统及用户之平台活动的全部涉案信息。


我国超大平台协助执法义务的法律依据主要包括如下内容:2016年施行的《反恐怖主义法》第18条规定,“电信业务经营者、互联网服务提供者应当为公安机关、国家安全机关依法进行防范、调查恐怖活动提供技术接口和解密等技术支持和协助”。2017年施行的《网络安全法》第28条规定,“网络运营者应当为公安机关、国家安全机关依法维护国家安全和侦查犯罪的活动提供技术支持和协助”。2021年9月施行的《数据安全法》第35条规定,“公安机关、国家安全机关因依法维护国家安全或者侦查犯罪的需要调取数据,应当按照国家有关规定,经过严格的批准手续,依法进行,有关组织、个人应当予以配合”。2021年1月,国家网信办发布的《互联网信息服务管理办法(修订草案征求意见稿)》第22条规定,“互联网网络接入、互联网信息服务、域名注册和解析等互联网服务提供者,应当为公安机关、国家安全机关依法维护国家安全和侦查犯罪的活动,提供技术支持和协助”。2021年10月公布的《互联网平台落实主体责任指南(征求意见稿)》第34条规定,“互联网平台经营者应当积极配合监管执法部门履职,根据法律、法规要求的程序,提供执法部门为履行职能以及进行调查所需要的数据资料,配合执法部门进行监测。”


在欧盟,《数字服务法》(草案)第8条要求网络中介服务商在收到成员国依法发布的对非法内容采取行动的命令后,应立即通知发布命令当局该命令的执行情况。 在美国,执法部门依据《电子通信隐私法》(ECPA)、《全令状法案》(All Writs Act)要求平台提供与犯罪打击有关的用户数据,主要通过协助令、传票等形式向平台发布协查指令。 根据谷歌(Google)公布的透明度报告,谷歌公司2009年下半年在全球范围内收到数据协查要求仅12539起;而2020年上半年的数据协查需求高达103822起,涉及235449个账户。 


当前,平台履行协助执法义务的突出问题是协助程序、协助范围、技术支持的具体要求亟待规范化。一方面,公安机关立案后的平台协助执法有较充分的法律依据,平台基于公安出具的授权函件开展协助,遵循“一步一授权”的合规要求,即超出授权范围的,由公安机关再次授权;但调取数据的范围存在争议,“能取尽取”可否作为协助原则存在较大争议,平台因协助执法而对用户隐私造成的威胁能否免责亟待明确。另一方面,在开展预测性警务的过程中,平台对公安立案前经营线索等初步调查的协助执法依据存在法律空白。在实践中,某些超大平台基于比例原则履行协助执法义务,对公安经营线索阶段的协助仅提供一定比例(如60%)的方向性信息和间接信息(案件线头),帮助公安对案件进行交互性研判;对公安初步调查阶段的协助提供相当比例(如80%)的直接信息,便于公安调查的落地实施;对公安立案后的协助提供100%的全部信息,以帮助公安精准定位上门。对此,在立案前的两个阶段,平台如何履行协助义务亟待法律授权;基于比例原则的非正式协助执法惯例亟待法律明晰。


上述问题的根源在于平台协助执法的法治保障亟待完善。平台协助执法的义务范围、协助规则、协助程序亟待具体化和规范化;公安机关向平台提出协助要求亦须设置专门的审批或审查程序;平台协助执法行为应获免责许可,不能让平台既协助执法,又因此承担相关侵权责任。数据权力不能不受制约,协助执法的范围不能随意扩张,协助执法的提出更不能不受审批或审查。


如今,协助执法的制度供给已提上立法议程。《互联网信息服务管理办法(修订草案征求意见稿)》第22条规定,“技术支持和协助的具体要求,由公安机关、国家安全机关会同电信主管部门等有关部门另行制定。”这一规定将为平台履行协助执法义务提供具体的法治保障。


(二)内容审核义务


相对被动回应的协助执法,平台更负有主动审核用户发布信息内容是否违规违法的义务。用户制作、复制、发布、传播非法信息的行为不仅具有严重社会危害性,还经常为网络诈骗、传销、赌博、卖淫等其他违法犯罪引流。


2012年通过的《全国人大常委会关于加强网络信息保护的决定》第5条规定:“网络服务提供者应当加强对其用户发布的信息的管理,发现法律、法规禁止发布或者传输的信息的,应当立即停止传输该信息,采取消除等处置措施,保存有关记录,并向有关主管部门报告。《网络安全法》第47条规定,“网络运营者应当加强对其用户发布的信息的管理,发现法律、行政法规禁止发布或者传输的信息的,应当立即停止传输该信息,采取消除等处置措施,防止信息扩散,保存有关记录,并向有关主管部门报告”。


新修订的《未成年人保护法》第80第2款规定,“网络服务提供者发现用户发布、传播含有危害未成年人身心健康内容的信息的,应当立即停止传输相关信息,采取删除、屏蔽、断开链接等处置措施,保存有关记录,并向网信、公安等部门报告”。《互联网平台落实主体责任指南(征求意见稿)》第6条和第7条分别规定平台应建立对“传播非法内容”的风险评估机制和“建立内容审核的内部机制”;第12条规定“平台内容管理”的法定义务。


《刑法修正案(九)》增设“非法利用信息网络罪”,以惩罚发布违法犯罪信息的行为。关于“违法信息”的范围,可参考《互联网信息服务管理办法(修订草案征求意见稿)》第26条所列的9项内容。该《征求意见稿》不仅要求互联网信息服务提供者应当建立信息发布审核制度、配备网络与信息安全管理人员,还要求网络服务者加强公共信息巡查。


2016年,欧盟委员会与脸书(Facebook)、微软(Microsoft)、推特(Twitter)和YouTube四家互联网公司达成《打击网上非法仇恨言论行为准则》,随后照片墙(Instagram)、色拉布(Snapchat)、抖音(Tiktok)等多家超大平台加入。根据《行为准则》要求,平台应尊重欧盟和各国关于仇恨言论的立法,需在24小时内对收到的仇恨言论举报进行评估,承诺在必要时删除此类非法信息。


相关报告显示,各大平台可在24小时内评估90%被标记的涉嫌违法信息,其中71%最终被确定为非法仇恨言论而被及时删除。2017年德国议会通过《网络执行法》,为社交网络平台增设违法内容的管控义务。 欧盟《数字服务法》(草案)第5条规定,“在得知或意识到有非法的情况后,迅速采取行动,删除非法内容或禁止对非法内容的访问”。2021年5月公布的英国《网络安全法》(草案)在Art.5(2)部分规定了网络服务商对违法内容的风险评估义务和管控义务。其中,管控义务包括尽量减少违法内容的存在,尽量减少违法内容存在的时间长度,尽量控制违法内容的传播,尽快删除被举报的违法内容。 


纵观国内外立法,内容审核义务已成为平台承担的最具日常性的网络安全保护举措,该义务的内涵日益丰富,包括且不限于建立内容审核制度、设置审核岗位、实施技术审核、及时删除屏蔽处置、保存记录、向有关部门报告等一系列措施。


为全面履行该义务,超大平台不断改善基于人工智能的自动化识别技术与人工审核相结合的工作流程,对用户发布的文字、图片、视频、链接、二维码及其他指引访问服务等进行7天24小时的全时审核和实时审核。作为具有“事中”控制性质的安全保护义务,内容审核义务的全面履行构成了消除犯罪条件的前端治理与斩断黑产链条的源头治理。


(三)网络安全审查义务


除事后回应的协助执法义务和事中控制的内容审核义务外,超大平台还须履行具有事前性质的综合性网络安全审查义务。实际上,事中控制的内容审核义务亦是一种网络安全审查义务,而事前性质的网络安全审查义务还包括安全评估义务、用户实名审核义务、信息保存义务、个人信息保护义务等。


安全评估义务是指平台通过网络安全制度建设、技术治理、定期风险检测、数据安全建设、审查新业务安全性等措施,承担的保障平台生态系统安全的法律责任。《网络安全法》规定网络运营者具有维护网络安全的义务,包括遵守安全等级制度、采取技术措施保障安全运行,使用合格的网络设备、产品和定期进行风险检测等义务。《互联网信息服务管理办法(修订草案征求意见稿)》第17条规定平台应建立互联网新业务的安全评估制度,对新业务进行安全评估。


2021年7月修订的《网络安全审查办法》针对关键信息基础设施运营者和数据处理者提出“应当预判该产品和服务投入使用后可能带来的国家安全风险”。《互联网平台落实主体责任指南(征求意见稿)》第6条规定,“超大型平台经营者应当至少每年进行一次风险评估”。欧盟《数字服务法》(草案)第26条规定,“超大型在线平台以至少每年一次的频率识别、分析和评估在其服务的运行和使用中产生的重要系统性风险。” 可以说,安全评估已成为构筑健康有序的平台生态系统的基础性保障措施和事前性预防措施。


用户实名审核义务要求平台对用户实名注册和登录平台生态系统负审核责任。网络犯罪大肆蔓延的一个重要原因在于,网络黑产上游存在大量的虚假注册账号行为,不法分子网络活动的匿名性极强,导致难以核实违法行为人的真实身份。对此,《互联网信息服务管理办法(修订草案征求意见稿)》第18条强调了互联网服务提供者的用户实名审核义务及对查验的真实身份信息的保存义务。2021年10月提请全国人大常委会审议的《反电信网络诈骗法(草案)》第18条明确规定了互联网服务提供者对用户实名制的审核义务。


信息保存义务要求平台附期限保存平台和用户发布的信息。对用户信息的保存能够有效保障犯罪侦查尤其是电子证据的固定。《互联网信息服务管理办法(修订草案征求意见稿)》第20条规定,互联网信息服务提供者应当记录其发布的信息和用户发布的信息,并保存不少于6个月;第23条规定了对个人信息的安全保障义务,要求互联网信息服务提供者谨慎保存、防止泄露个人信息,如发生个人信息泄露,应立即补救,及时告知用户并向有关部门报告。


《网络安全法》也规定了网络运营者落实用户实名制与保障用户个人信息安全的义务。值得注意的是,个人信息保护义务在本质上是对用户的注意义务和忠实义务;而信息保存义务、安全评估义务及用户实名审核义务则是对网络空间公共责任的承担。为保障网络安全审查义务的履行,《网络安全法》及《互联网信息服务管理办法(修订草案征求意见稿)》还规定了严格的法律责任;对网络服务提供者拒不履行网络安全管理义务达到情节严重的,可以要求承担刑事责任(刑法第286条之一“拒不履行信息网络安全管理义务罪”)。


(四)犯罪预防义务


为回应新型网络犯罪的严峻挑战,除事后的协助执法、事中的内容审核、事前的安全审核外,平台作为互联网服务提供者还被要求承担专门性的犯罪预防义务。


《互联网信息服务管理办法(修订草案征求意见稿)》第21条规定“互联网服务提供者应当采取技术措施和其他必要措施,防范、发现、制止所提供的服务被用于实施违法犯罪”。“互联网服务提供者发现网络违法犯罪行为,应当保存有关记录,并向网信部门、电信主管部门、公安机关报告。”“网信部门、电信主管部门、公安机关等有关主管部门发现互联网信息服务提供者存在违反真实身份查验要求的行为或者其他网络违法犯罪行为,应当要求互联网信息服务提供者采取消除、制止等处置措施,停止相关服务,保存有关记录,并向网信部门、电信主管部门、公安机关报告。”


该条文进一步明确了超大平台作为数字看门人的主体定位,在非法内容审核义务之外为平台增设了一种总体性、概括性的犯罪预防义务。该义务的内容包括:其一,平台应主动运用技术治理措施防范、发现和制止平台生态系统内的违法犯罪活动;其二,对于自主发现的网络违法犯罪活动信息,应妥善保存犯罪记录,并向主管部门报告;其三,对于主管部门发现网络违法犯罪嫌疑信息的,应积极响应主管部门的犯罪控制指令,采取有效的犯罪控制措施,并保存记录和报告。


无独有偶,2021年6月施行的新版《未成年人保护法》新增了网络服务提供者的犯罪预防义务,该法第80条第3款规定,“网络服务提供者发现用户利用其网络服务对未成年人实施违法犯罪行为的,应当立即停止向该用户提供网络服务,保存有关记录,并向公安机关报告”。


《互联网平台落实主体责任指南(征求意见稿)》第24四条为超大型平台设定了“网络黑灰产治理”的主体责任,要求平台加强对平台内违法犯罪行为的整治。《反电信网络诈骗法(草案)》以“第四章互联网治理”专章的形式,通过六个条文为互联网服务提供者设置了体系性的电诈犯罪预防义务。2021年11月,国家网信办发布的《网络数据安全管理条例(征求意见稿)》第9条规定,数据处理者应当“防范针对和利用数据的违法犯罪活动”。


欧盟《数字服务法》(草案)规定了平台的刑事犯罪报告义务,草案第21条规定“当在线平台了解到任何可疑信息,怀疑涉及人的生命或安全的严重刑事犯罪已经发生、正在发生或可能发生,应将其怀疑立即通知到一个或多个相关成员国的执法或司法机关,并提供可获得的相关信息。” 


相较《数字服务法》(草案)的犯罪报告义务及从非法内容审核视角切入的看门人责任,我国的相关法规范为平台设定了更为系统、更为严格的犯罪预防义务,明确了超大平台应承担以防范、发现、制止为内容的犯罪治理职责,并对履行义务不力的情况苛以警告、责令限期整改、罚款、责令暂停相关业务、停业整顿、吊销业务许可证或营业执照等处罚。


综上,超大平台作为数字看门人的法律依据在于其承担的安全保护义务,数字看门人的“看门方式”或犯罪治理“由平台组织”的方式表现为超大平台对安全保护义务的全面履行,即通过安全保护义务的履行消除犯罪发生条件及平台生态系统中滋生犯罪的结构性原因及罪前情境。


04

数字科层下看门人的法律主体属性


超大平台作为数字看门人的治理方式在于对安全保护义务的履行,由此可知看门人是法定义务主体。同时,还有一种较流行的观点认为,鉴于大型互联网企业被赋予更直接和更广泛的监管责任,且具有制定规则和执行规则的权力,可称其为“执法者公司”(enforcer-firms)。 义务主体抑或“执法者公司”的界定指向数字看门人之法律主体属性的判断。对此,引入结构分析法,在平台治理形塑的数字科层结构中,剖析数字看门人与党政职能部门之间的法律关系,以此判断数字看门人的法律主体属性。


(一)以平台为组织通道的数字科层结构


传统的犯罪治理结构是通过党政科层制实施、基于属地管辖、针对街面犯罪、强调控制者在场的组织化调控结构。随着人类全面迈入数字社会甚至平台社会,新型网络犯罪的严峻挑战使传统治理体系迅速陷入组织化调控失灵的困境,故而犯罪治理体系亟待应时而变、顺势而进。


实际上,“平台本身就是一种新的社会结构”。 通过超大平台的犯罪治理形塑出独特的数字科层结构,具有“管道化”特征的超大平台成为内连党政职能部门、外接用户及覆盖数字社会的关键组织通道。数字科层结构构成了判断数字看门人的法律主体属性的切入点。以看门人为组织通道的数字科层结构详见下图:



如图所示,数字科层结构的核心要素包括党政职能部门和平台生态系统,两者在犯罪治理中的关系在于少数超大平台是党政职能部门开展治理活动的“组织通道”和组织载体,党政职能部门通过超大平台在线对接亿万用户的平台活动,感知、预警、控制及处置数字社会中的犯罪风险。


一方面,超大平台构筑的平台生态系统呈现为由数字基础设施、中枢平台、应用系统组成的“树状”结构。“树状”结构的观点由阿姆斯特丹大学何塞•范•迪克教授提出,即“平台生态系统是以数字基础设施为树根、以中枢平台为树干、以部门应用系统为树枝树叶的树状结构”。 因数字基础设施在数字社会具有极强的泛在性,故图中不作展示。


图中的树干部分为中枢平台系统,根植于数字基础设施,具体包括技术及算法、平台系统设置、平台机制、平台端口等组成要素。图中由树枝和树叶组成的树冠部分系中枢平台衍生出的平台应用系统,平台通过蔚为壮观的应用系统尤其是各种超级APP将用户、平台活动、数据、业务场景及治理机构等要素链接起来,以实现对用户之平台活动和各类犯罪风险的实时感知,从而构成中枢平台感知数字社会的触角。


另一方面,鉴于超大平台成为犯罪治理的组织通道,党政职能部门将越来越多的犯罪治理任务外移或下压至平台,“通过平台的治理”搭建起“国家管平台”“平台管用户”的数字科层结构。之所以称其为“科层结构”的原因在于,新结构的权力层级、组织分工及治理流程仍是科层式的,平台系科层结构的新要素,即从党政部门治理犯罪问题转换为党政部门通过超大平台治理犯罪问题的新的治理模式。


通过平台提供的组织通道,实现犯罪线索和信息由外到内向党政职能部门汇聚、治理指令自内到外向平台传递的治理方式。之所以称其为“数字科层”的原因在于,超大平台的引入将犯罪治理从物理空间延伸至网络空间,实现了科层体系从物理空间到网络空间的组织再造。平台治理孕育出全新的犯罪控制技术,从“在场的犯罪控制”转换为“在线和在场相结合的犯罪控制”,平台对用户的“在线的犯罪控制”指引国家对不法分子的“在场的犯罪控制”。


(二)基于数字科层的“公共责任公司”


关于对“执法者公司”观点的评判,应在数字科层结构中探讨作为组织通道的超大平台与作为治理核心的党政职能部门的法律关系。也就是说,超大平台与党政职能部门之间究竟是基于法律授权的权力再分配或权力下移关系,还是基于义务设定的责任再分配关系。如果将超大平台界定为“执法者公司”,那么两者的关系表现为国家对超大平台的权力再分配或权力下移。遗憾的是,尚不存在法规范对超大平台进行权力再分配和权力下移的规定。


根据超大平台的安全保护义务,现行法规范主要体现了国家对超大平台的义务设定和责任设定。因此,超大平台并非拥有和行使公权力的执法者,而是承担安全保护义务的责任主体。“国家管平台”的法治方式与“平台管用户”的法律依据均在于国家为平台设定体系化的安全保护义务。在数字科层结构下,超大平台作为看门人不是“执法者公司”,而是承担安全保护义务的“公共责任公司”。数字看门人系“公共责任公司”,理由如下:


首先,“公共责任公司”的界定有力破除了超大平台的“政府化幻象”。长期以来,平台公司越来越像政府的观点在科技界有一定市场。例如,脸书(Facebook)坐拥上万亿美元的市值,在由20多亿用户组成的平台生态系统中不仅制定和执行平台规则,还发行Libra加密货币。扎克伯格说过“在很多方面,脸书(Facebook)比传统公司更像政府”,有学者将该现象称为“脸书斯坦(Facebookistan)”。 


实际上,拥有公共权力的犯罪治理主体只能是国家,平台的看门行为源于国家对其的义务设定和责任下移,平台的看门人身份取决于其是平台生态系统的运营者、网络空间公共利益的维护者和公共责任的承担者。“执法者公司”的观点忽视了“平台管用户”的义务来源。与其说平台像政府,倒不如说平台是政府实现犯罪治理目标的组织工具和技术工具。


其次,“公共责任公司”的界定合理解释了超大平台与国家治理、犯罪治理的内在关联。在推进国家治理现代化的浪潮下,犯罪治理的国家权力通过超大平台的组织通道且依托安全保护义务而设定,并全面延伸乃至覆盖各大平台生态系统的网域。准确地说,“平台管用户”的权力并非看门人的私权或“私人规制”,而系国家权力在网络空间和平台生态系统中的必要延伸,无时无刻不体现着国家意志,贯穿着“国家主导治理体系现代化的内在逻辑”。 在此意义上,超大平台不过是国家的影子。国家通过平台渗透、动员、组织数字社会,推动组织化调控从分散走向整合、从条块走向整体、从事后打击走向源头治理、从现实空间走向网络空间。


数字看门人不仅以“控制者在线”方式感知用户的网络违法,还对现实世界施展巨细无遗的数字镜像,将源头问题和重大风险及时纳入国家视野,使组织化调控更为高效和科学,在相当程度上避免了因资源贫乏、治理能力有限而导致的“间歇性社会控制”。 例如,2020年以来,抖音安全中心封禁色情导流和色情招嫖帐号超100万,封禁黑产作弊账号18万多个,重置仿冒资料用户6万余个,处理问题视频超400万条;截至2020年11月,“啄木鸟举报平台”小程序累计处理用户反馈的违法违规帐号159.5万个。 平台对网络黑产上游违法的日常性治理和精准处置减少了黑产下游各类网络犯罪的发生,成为最经济、最有效、最合理的治理策略。


假设所有超大平台都将安全保护义务全面落实在位,前端治理能够发挥更高水平和更大作用,那么针对网络犯罪的专项治理行动(间歇性社会控制)实际是没有启动必要的。所谓“善战者无赫赫之功”,科学有效的犯罪治理并不体现在事后回应式专项行动的轰轰烈烈上,而浸润于润物无声的日常性预防中。


最后,将超大平台界定为“公共责任公司”可谓数字化时代犯罪治理的顶层逻辑,奠定了未来几十年犯罪治理的基本方略。必须承认,在传统犯罪和新型网络犯罪之间存在陡峭的分水岭,超大平台作为数字看门人成为应对新型网络犯罪的全新主体,将其界定为“公共责任公司”有着深刻的政治逻辑和组织逻辑。


从政治逻辑看,安全保护义务的设定成为国家引导平台承担公共责任的缰绳,对超大平台的义务设定无不体现着国家对大型资本负外部性的系统监管。在超大平台成为社会基础设施的背景下,国家有充分的动机压实超大平台的主体责任,引导平台服务公共利益、人民福祉和治理犯罪大局。国家为超大平台设定更严格、更系统的公共责任,将超大平台视为“公共责任公司”体现着更高层次的人民意志。


从组织逻辑看,我国是一个高度重视和谐发展的共生社会,将超大平台界定为“公共责任公司”有利于数字化时代犯罪治理共同体的构建。看门人作为预防网络犯罪的责任主体,不仅能有效弥补传统治理模式的局限,还以独有的数据优势、技术优势和经营优势最大限度地阻却网络违法犯罪;看门人作为用户行为的监管者,构筑起防控网络违法犯罪的第一道防线,更符合前端治理和源头治理的成本收益原则,有助于以有限的治理资源实现最大的社会效果;看门人作为链接国家和用户的组织者,以平台规则贯彻落实设定平台义务的法律规则、以技术规则执行平台规则,通过平台规则的完善催生出新的社会契约和规则。


总之,在数字科层结构下,超大平台作为数字看门人绝非拥有公权力的“执法者公司”,而是承担安全保护义务的“公共责任公司”。“公共责任公司”的法律主体属性从根本上保障了超大平台在犯罪治理共同体中不可或缺的关键支点作用和组织枢纽地位。


05

结语


在现实空间与网络空间虚实交织的数字社会中,拥有技术优势、数据优势、组织优势、经营优势的超大型互联网平台成为一种独特的超级行为体,创造和运营的互联网生态系统构成了社会治理和犯罪治理的主阵地。由此,超大平台不只是经济主体,更是承担更多平台义务和公共责任的数字看门人。


值得注意的是,平台治理的勃兴并不意味平台成为拥有公共权力的“执法者公司”。从本质看,犯罪的平台治理是数字看门人履行义务,而非行使权力。《网络安全法》《数字安全法》及近期密集出台的规范性文件为超大平台设定了包括协助执法义务、内容审核义务、网络安全审查义务、犯罪预防义务在内的一揽子安全保护义务。


这些体现国家意志的安全保护义务编织成引导平台承担公共责任的法律缰绳。通过超大平台的义务履行,国家权力的触角延伸至网络空间的各个角落。与其说平台“像”政府,倒不如说平台是国家实现犯罪治理目标的组织工具和技术工具。在“国家管平台,平台管用户”的数字科层结构下,超大平台作为数字看门人构成了承担安全保护义务的责任主体,即“公共责任公司”。


END


本文来源:《法律科学》2022年第2期

本文作者:单   勇

本文编辑:尚   鹏

本文审阅:王星雨

(本文观点和内容与本公众号无关)

延伸阅读:

单勇:利用变异黑话发布违法信息案评析 | 2021年网络犯罪十大案例
六万人砍价不成功?拼多多回应来了!

付玉明 | 微信“清粉”案评析——2021年网络犯罪十大案例

主     编:周莙松

副  主  编:吴   芮

来稿请投:zjulaw@aliyun.com

转载须授权


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存