网络法理论与实务前沿

其他

【前沿案例】针对OpenAI集体诉讼第一案起诉书编译

Turley)。ChatGPT诬陷教授对他的一个学生进行性骚扰,甚至提供了一个“消息来源”。犯罪是通过其编造的一篇新闻报道进行的。被告称这是“幻觉”
其他

【前沿案例评析】“Face ID”和“Touch ID”功能构成对用户个人生物信息的侵权吗?评巴内特等诉苹果案

编者按自上世纪末开始,生物医学取得许多重大成果,人体的指纹、虹膜、面部特征、等个人生物信息的获取、采集、存储和应用也越发便利。但同时,生物隐私信息安全问题也引发了一系列争议。2021年4月9日,浙江省杭州市中级人民法院就郭兵与杭州野生动物世界有限公司服务合同纠纷二审案件,依法公开宣判。这起案件被称为中国“人脸识别第一案”。在美国,生物隐私信息的保护完善过程中也出现了一系列典型的案例。本公众号新开设网络与信息法学前沿案例评析专栏,第一期拟推送2021年立案、2022年12月判决的巴内特等诉苹果案。本篇评析对本案中所涉的法律规则及其裁判思路进行解读,以期能为我国生物隐私信息保护带来借鉴。【案件索引】Barrett
2023年1月22日
其他

【前沿学术】张欣、宋雨鑫 | 算法审计的制度逻辑和本土化构建

摘要在全球算法治理实践中,算法审计制度弥合算法透明与专有技术保护之间的治理冲突,助力企业自我规制与政府规制的双轨协同,推动法律、技术和伦理三元共治机制的有效落地。算法作为被审计对象,具有场景化、动态化、跨域性特质。算法审计应以算法全生命周期为链条,分类分级地采取动态审计原则。基于多中心主体协同治理范式,算法审计可以分为科技企业开展的内部审计以及以由监管机关和第三方开展的外部审计。基于审计路径,算法审计可以分为代码审计、抓取审计、马甲审计、协作式审计和非侵入式审计。围绕算法安全综合治理顶层设计,算法审计框架应由“总体风险的控制与治理”模块以及“过程风险的控制与治理”模块组成。我国在构建算法审计制度时,还应注重强制算法审计与自愿算法审计的有效衔接,推动依托平台审计与用户审计的双轨并行以及构建算法审计与平台算法问责的精准对接。关键词:算法审计;算法透明;算法问责;算法治理作者简介:张欣(1987
2022年11月14日
其他

【算法合规编译】《人工智能权利法案蓝图》

【编者按】2022年10月4日,美国白宫发布了《人工智能权利法案蓝图》。该文件旨通过“赋予美国各地的个人、公司和政策制定者权力,并满足拜登总统的呼吁,让大型科技公司承担责任”,以“设计、使用和部署自动化系统的五项原则,从而在人工智能时代保护美国公众”。其五项原则为:(1)安全有效的系统;(2)算法歧视保护;(3)数据隐私;(4)通知和解释;(5)人工替代、考虑和回退。该文件的出台将从科技、经济以及军事等方面为美国人工智能发展提供指引。该文件原文共73页。因篇幅限制,本公众号对文件中的重点内容组织了总结编译,以下为总结编译中文版内容。关注公众号,点击阅读原文可下载英文原文。【译者/编辑】宋佳钰对外经济贸易大学法学院21级法律硕士最喜欢的一句话:每一个不曾起舞的日子,都是对生命的辜负。【执行主编】张旭阳对外经济贸易大学法学院19级本科生【指导教师】张欣
2022年11月5日
其他

【合规译介(下)】欧盟《人工智能法案和新兴的欧盟数字法案》

Foolish.【编辑】宋佳钰对外经济贸易大学法学院法律硕士最喜欢的一句话:每一个不曾起舞的日子,都是对生命的辜负。【执行主编】张旭阳对外经济贸易大学法学院19级本科生【指导教师】张欣
2022年10月29日
其他

【合规译介(上)】欧盟《人工智能法案和新兴的欧盟数字法案》

Foolish.【编辑】宋佳钰对外经济贸易大学法学院法律硕士最喜欢的一句话:每一个不曾起舞的日子,都是对生命的辜负。【执行主编】张旭阳对外经济贸易大学法学院19级本科生【指导教师】张欣
2022年10月29日
其他

【算法合规编译系列】OECD人工智能分类框架报告

编者按人工智能的技术及其应用具有场景性。与之匹配的监管框架也需要精细化、动态化、精准化设置。OECD为促进人工智能政策制定和监管决策的场景性和精准性,发布了人工智能分类框架报告。该报告旨在从政策制定的角度评价人工智能系统的便捷工具,帮助政策制定者、监管机构、立法者和其他机构概括出在具体情境下使用的人工智能系统类别。该报告提出了人类与地球、经济背景、数据与输入、人工智能模型、任务与输出五个主要维度以及各维度项下的子维度。对于我国算法分类分级治理具有一定的参考和借鉴意义。本公众号组织编译了此报告,点击阅读原文,还可下载报告原文。摘要人工智能正快速融入各行各业,不同的人工智能系统各有其益处和风险。通过比较虚拟助手、无人驾驶汽车和儿童视频推荐系统,可知不同类型的人工智能系统所伴随的益处和风险差异很大,这些特殊性要求不同的政策制定方式和治理方法。经合组织(OECD)开发了一种能从政策制定的角度评价人工智能系统的便捷工具,帮助政策制定者、监管机构、立法者和其他机构概括出在具体情境下使用的人工智能系统。该工具结合如下不同的维度广泛应用于各类人工智能系统:人类与地球;经济背景;数据与输入;人工智能模型;任务与输出。该框架的每个维度各有其子维度,旨在明确和评估政策影响,并引导开发其他类似的具有创新性且值得信赖的人工智能系统。本报告第1节概述人工智能系统分类框架的内容和设计目的。第2节详细描述该框架,评估人工智能系统对公共政策的影响。第3节将该框架用于对具体的人工智能系统和应用程序进行分类。第4节讨论了如何使用该框架来帮助评估与特定类型的人工智能系统相关的基本社会、物理和伦理风险。目录一、分类框架概述及目标二、分类框架三、分类框架的应用四、下一步研究一、分类框架概述及目标分类框架的主要目的是描述部署在特定项目和环境中的AI系统的应用,尽管有些维度也与通用AI系统相关。这一分类框架按照以下维度对AI系统和应用进行分类:人类与地球,经济背景,数据和输入,AI模型以及任务与输出(图1)。这些维度建立在先前经合组织工作中建立的通用AI系统的概念视图基础之上。图1从人工智能原则视角分析政策制定的考量因素此框架的每个维度均对应不同的属性,且包含了与特定AI系统相关的子维度。2019年通过的经合组织人工智能10项原则有助于构建与每个维度和子维度相关的政策考量。这些原则涵盖以下主题:表2:经合组织人工智能原则(OECD,2019)本框架的作用本框架允许用户聚焦人工智能典型性的特定风险,如偏见、可解释性和鲁棒性,但它本质上关注到与人工智能相关的各个方面,促进了微妙而精确的政策讨论。由于人工智能系统的特征会影响其实施所需的技术和程序保障措施,该框架还有助于政策和法规的制定。同时,该框架还有助于促进人类对人工智能的共同理解、在系统注册表或登记清单明确人工智能基本特征、支持具体部门制定分类框架、支持风险评估以及风险管理。该框架在人工智能“实验场景”与“实践场景”的适用性该框架的某些标准更适用于实验场景的人工智能,反之亦然。实验场景下的人工智能指人工智能系统在部署之前的构想和开发过程。它适用于数据和输入维度(例如限定数据)、人工智能模型维度(例如训练初始模型)、任务和输出维度(例如个性化任务),尤其与事前风险管理方法和要求相关。实践场景下的人工智能指人工智能系统在部署后的使用和发展,适用于所有维度,与事后风险管理的方法和要求有关。系统分类和人工智能系统的生命周期人工智能系统的生命周期可以作为理解系统关键技术特征的补充结构。生命周期包括以下阶段:规划和设计;收集和处理数据;构建和使用模型、检验和认证、部署、运营和监控(经合组织,2019)。经合组织人工智能系统分类框架的维度与人工智能系统生命周期的各个阶段相关联。同时,确定某一维度的相关参与者与问责制相关。二、分类框架本节描述了每个框架维度的特征、每个维度中的关键角色以及它们在人工智能系统生命周期中的作用。人工智能参与者的确定与问责制密切相关。该框架提供了一种结构化的方法来评估人工智能系统能否促进系统发展成人工智能原则中所述的那般以人为中心的、值得信赖的人工智能,即对人类和地球有益;维护人权、民主价值观和公平;透明和可解释;稳健、安全和安全;运营商负责并在人工智能研发投资领域实施政策建议;数据、计算、技术;支持政策和监管;有利于劳动力和技能发展;以及国际合作(经合组织,2019d[1])人类和地球人类和地球是该框架的中心。该框架关注人权和福祉,考虑“人类”这个整体如何与人工智能系统的整个生命周期进行交互,并受其影响。该维度对于公共政策的重要性在于人工智能用户使用人工智能系统的能力各有不同。这将影响人工智能系统的问责制、透明度和可解释性。影响消费者等特定利益相关者群体的人工智能系统的出现要求公共政策考虑增强消费者保护和产品安全意识。用户和利益相关者通常在是否受人工智能系统影响方面有不同程度的选择,或者在选择退出或逆转系统输出方面有不同的能力。此外,人工智能系统的结果可能对人权产生影响,例如在刑事判决或决定教育机会方面。因此问责制和透明度至关重要。该维度的人工智能参与者包括终端用户和使用或受人工智能系统影响的利益相关者,后者包括直接或间接参与人工智能系统或受到人工智能影响的所有组织和个人。下述标准描述了人工智能用户和受影响的利益相关者以及人工智能系统如何间接或直接地影响他们:
2022年9月25日
其他

【算法合规译介】欧盟排序算法透明度指南

编者按算法透明度治理已经成为全球算法治理的基础共识。但各国立法者仍然在保护商业秘密和专有知识产权以及算法透明义务之间探索平衡边界。欧盟于2020年12月发布了《排序算法透明度指南》。该《指南》指出,排序算法是指“不论采用何种技术手段,由在线中介服务供应者或在线搜索引擎供应者呈现、组织或传达的,对在线中介服务提供的商品和服务给予的相对突出性,或对在线搜索引擎搜索结果提供相关性”的算法。对于算法服务提供者,应当提供相应的描述,以使用户充分了解排序机制的原理、特征、参数等信息,从而提高用户对排序算法的合理预期。对于解释程度问题,该《指南》指出算法服务提供者应对其排序机制,特别是所使用的主要参数作出有意义的解释。为了使解释对用户有意义,提供者应该考虑到特定服务的“平均”用户的类型、技术能力和需求。相关解释的语言应当以简明易懂的语言起草。算法服务者提供的解释必须与起到决定性作用的参数相关。当遇到临时性、随机性或者个性化因素时,也应当遵循“相对突出性”和“最重要相关性”的原则予以解释。在平台企业最常提出的算法原理披露可能导致算法安全风险和恶意操纵排名的问题,该《指南》提出算法服务者不能仅凭过去从未披露过任何参数或所涉及的信息具有商业敏感性这一理由拒绝披露主要参数。在具体披露时,建议企业可以将书面解释与技术工具结合使用,例如提供付费对排序算法预期影响的动态模拟器。该《指南》原文近30页。本公众号组织了系统翻译,以下为《指南》中文版。关注公众号,点击阅读原文可下载英文原文。【译者】翁艺恬
2022年9月4日
其他

张欣、高奇 | 人工智能算法金融应用的风险类型与监管方案

Initiative)通过创建数字信任标签增强了客户对金融科技的信任程度。再如,美国算法正义联盟(Algorithmic
2022年8月16日
其他

熊定中、田宁子 | 中美算法监管差异及借鉴

作者简介熊定中清律律师事务所首席合伙人本文第二作者为田宁子,清律律师事务所实习生。目次一、《加州自动化决策系统问责法》和《互联网信息服务算法推荐管理规定》简述二、《加州问责法》及网信办《规定》规范差异1.
2022年5月19日
其他

【算法合规编译】欧盟可信人工智能自评估清单

【编者按】2019年欧盟委员会人工智能高级专家组发布了《可信人工智能伦理指南》。该指南中包含了一份评估清单,以帮助评估正在开发、部署、采购或使用的人工智能系统是否符合指南中规定的“可信人工智能”的七项要求。2020年7月,最终版《可信人工智能自评估清单》发布,它为人工智能开发者、部署者、使用者提供了评估可信人工智能的初步方法,有助于推动可信人工智能七项要求的践行和落实。The
2022年4月20日
其他

【算法合规前沿译文】《沟通:构建面向人工智能的欧洲方案》中译本

【编者按】面对人工智能技术的快速发展,以及越来越多国家大力投资人工智能的全球政策背景,欧盟认为,其必须要统一行动,以经得起未来检验的方式,利用人工智能带来的诸多机遇,应对人工智能引起的挑战。为了促进人工智能的发展,同时应对人工智能对安全和基本权利带来的潜在高风险,欧盟委员会于2021年4月公布了人工智能监管框架的提案和经修订的人工智能协调计划。同时,欧盟委员会致函欧洲议会、欧洲理事会、欧洲经济和社会委员会以及欧洲地区委员会,提出《构建面向人工智能的欧洲方案》,对新提案和新计划进行了介绍,本公众号推出该文件的中译本,与各位研习分享。【译者】赵雅泽对外经济贸易大学2018级法学专业本科生【编辑】赵雅泽,对外经济贸易大学2018级法学专业本科生【指导教师】张欣,对外经济贸易大学数字经济与法律创新研究中心执行主任
2022年3月22日
其他

【算法合规编译】应当如何开展人工智能风险管理?

【编者按】美国国家标准与技术研究院(NIST)近期发布了人工智能风险管理框架。由于人工智能系统具有动态性、复杂性和潜在影响性,因此NIST提出应当科学管理人工智能系统的总风险,尤其是那些发生效率较低但可能带来较大影响的风险。在此份文件中,NIST非常明确地对“风险”进行了定义,提出“风险”是指事件发生概率和相应事件后果的综合度量。NIST提出的框架概念文件以有意义、可操作和可测试的方式提出了人工智能系统可信度的衡量标准,并列出有效的人工智能风险管理计划的组成部分。人工智能的风险管理拟议结构由三个部分组成:1)核心层,2)概况层和3)实施层。各个部分中又包含了不同的功能、类和子类,贯穿整个AI系统生命周期。NIST发布的这份文件对于企业构建算法合规风险管理框架具有积极的参考意义。概述
2022年3月18日
自由知乎 自由微博
其他

【算法合规编译】自动化决策应用的规制框架

【编者按】人工智能时代,自动化决策系统的应用由商业领域逐步拓展到政府公共治理范畴。根据华盛顿自动化决策工作组的最新研究,自动化决策系统在提高效率、节省成本、提升公共服务水平等方面带来一定收益,但同时也存在歧视、不准确、偏见、不透明、缺乏可解释性、缺乏责任机制、威胁隐私、是否合法、公众信赖度等方面的风险。因此,法律与政策改革应聚焦于自动化决策系统对公民基本权利、司法决策等的影响。本期报告中,华盛顿州首席信息官办公室成立自动化决策系统工作组,选取华盛顿惩教署罪犯需求评估系统——WA
2022年3月5日
其他

【算法合规编译系列】NIST发布可解释AI的四项原则

【编者按】人工智能技术虚实结合、嵌入广泛,加剧了信息不对称,致使立法和治理决策缺乏有效参考点。人工智能治理范式不可避免地从单一的以国家为中心、以命令和控制为核心的“硬法”模式向基于多中心主体参与的,以协同性、动态性、分层性、复合型为特征的“软法”治理体系转变。在人工智能“软法”治理的工具箱中,人工智能技术标准和指引成为体现全球共识的重要抓手。美国国家标准与技术研究院(NIST)在执行第13859号行政命令部署联邦政府对人工智能系统开发和部署标准化的优先需求时建立了公开、透明、包容、敏捷的协调统筹机制并出台了一系列标准性和指南性文件。本次编译的是NIST出台的有关人工智能的解释原则和评估体系的指南性文件,里面提出了四项解释原则,并提出了评估可解释AI算法的规则体系。目●录可解释人工智能的四项原则1.
2022年2月28日
其他

【算法合规编译系列】如何识别和管理算法偏见?

【编者按】算法歧视一直以来被视为引发公众算法焦虑和算法信任危机的重要来源之一。如何识别和管理算法系统中的偏见成为各国立法者和监管者需要有效应对的重要挑战,也是未来算法合规实践的重点和难点。我国《互联网信息服务算法推荐管理规定(征求意见稿)》曾在第十条规定:“算法推荐服务提供者应当加强用户模型和用户标签管理,完善记入用户模型的兴趣点规则,不得将违法和不良信息关键词记入用户兴趣点或者作为用户标签并据以推送信息内容,不得设置歧视性或者偏见性用户标签。”我国《个人信息保护法》第二十四条亦规定:“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。”本期编译的NIST最新发布的提案中表明,算法偏见通常由三种情况导致:(1)使用具有固有偏见的数据集和/或实践数据,造成了历史性的负面影响。(2)在能够影响人们生活的环境和场景中配置了基于这些偏见的自动化决策机制。(3)使用的技术或未经充分测试,或存在过度宣传,或基于可疑或不可靠的科学而导致有害和偏见的结果。在算法偏见的管理机制中,目标不是“零风险”,而是以一种有助于产生更公正结果的方式来管理和减少偏见,从而提高公众对人工智能的信任。本提案中按照人工智能生命周期将算法偏见管理划分为三个阶段:A.预设计阶段;B.设计和开发阶段;C.部署阶段。按照这三个阶段的技术特点和偏见产生的来源,NIST提案分门别类地提供了可资借鉴的识别和管理方法,颇有启发,值得一读。关于识别和管理人工智能偏见的提案【文章结构目录】Ⅰ.
2022年2月5日
其他

【算法合规编译系列】如何对人工智能系统分级分类?

【编者按】国家网信办等九部门联合发布的《关于加强互联网信息服务算法综合治理的指导意见》中提出,“坚持风险防控,推进算法分级分类安全管理,有效识别高风险类算法,实施精准治理。”在(九)算法备案部分也明确提出,要“健全算法分级分类体系,明确算法备案范围”。《互联网信息服务算法推荐管理规定》第二十三条规定,“网信部门会同电信、公安、市场监管等有关部门建立算法分级分类管理制度”并对“算法服务提供者实施分级分类管理。”由此可见,我国的算法治理方案中预期以分级分类为内核践行精准治理。但如何对算法及算法服务提供者实施科学有效精准的分类还需要一系列精细规则的支持。本期编译的文献聚焦人工智能系统的分类。作者指出,好的分级分类方法应当是通过易懂理解的方式,以对用户友好的方式进行。同时分类的核心依据应当是与政策相关的特征而非技术特征,同时应基于广泛的利益相关者的参与。作者进一步通过实证研究指出,与自主性维度相比,使用影响维度来分类能够产生更多一致准确的结果。用户也更擅长于通过系统的使用场景,而非技术特征来分类。保证这一途径的前提在于确保用户能够访问相关的系统信息,包括技术性系统特征。【编译文献信息】标题:Classifying
2022年1月28日
其他

梅夏英 | 社会风险控制抑或个人权益保护——理解个人信息保护法的两个维度

本文作者梅夏英对外经济贸易大学法学院教授对外经济贸易大学法学院院长本文系《社会风险控制抑或个人权益保护——理解个人信息保护法的两个维度》一文的正文,注释从略,全文发表于《环球法律评论》2022年第1期,原文请参见环球法律评论网站:http://www.globallawreview.org,或点击文末左下角“阅读原文”。内容提要:个人信息在《民法典》中被确认为一种人格法益,在理论和立法上确立了我国个人信息的私法保护面向。个人权益保护成为构建和理解个人信息保护的重要维度和线索。由于个人信息保护的公共目标和功能可能被个人私益保护的进路所覆盖或消解,因此有必要将社会风险控制作为个人信息保护的重要维度来对待。社会风险控制一直是电子化时代个人数据保护的基础性目的,它对于个人信息保护的相关理论和制度具有很强的解释力和动态构建作用。社会风险控制和个人权益保护两种进路在相关基础问题上出现分歧,如个人信息与隐私的基础关系、一般性保护与场景化保护以及本权与保护权的关系等。在《个人信息保护法》实施过程中,社会风险控制进路有助于合理解读和执行法律,把握风险大小与控制措施的合理匹配,以及在平衡相关立法价值的前提下,释放信息的流动性。关键词:社会风险控制
2022年1月27日
其他

孔祥稳 | 论个人信息保护的行政规制路径

作者简介孔祥稳对外经济贸易大学法学院助理教授、院长助理本文原载《行政法学研究》2022年第1期摘要个人信息保护存在私法诉讼与行政规制两种主要路径,私法诉讼多以侵权之诉的形式展开。由于个人信息处理者与信息主体的地位失衡,信息主体举证困难,维权难度高;由于损害难以界定,诉讼存在成本与收益不均衡的激励困境;同时,个别性的诉讼也难以有效回应系统性的社会风险。行政规制路径以基本权利的国家保护义务作为法权基础,在专业性、信息充分程度、治理效率等方面具有比较优势。个人信息保护立法应当更妥善地处理两种路径的协调。未来个人信息保护的行政规制路径需要进一步明确规制体制,充分运用行政处罚、自我规制、内部管理型规制、第三方规制等多元化的规制机制。#1
2022年1月23日
其他

赵精武、唐浩隆 | 从注销到删除:“账号注销权”的体系定位与制度构建

作者简介赵精武助理教授,博士,工业和信息化部工业和信息化法治战略与管理重点实验室办公室主任,主要从事民商法、网络法研究康浩隆工业和信息化部工业和信息化法治战略与管理重点实验室助理研究员,主要从事民商法、网络法研究本文原载《重庆邮电大学学报(社会科学版)》2021年第6期,转载对注释和参考文献进行了省略。摘要《网络数据安全管理条例(征求意见稿)》,首次将个人信息删除权与账号注销进行关联,凸显了账号注销的体系性地位。账号作为用户访问手机移动应用的主要媒介,集成了大量用户在使用移动应用过程中主动提供、被动获取和自动生成的个人信息。用户常通过账号注销的方式切断与运营者之间的联系,以期保护个人信息与财产安全,但账号注销仍存在主动注销复杂、被动注销缺位以及注销后信息处理模糊等难题亟待解决。结合我国当前的立法现状以及域外被遗忘权制度的实践经验,我国账号注销管理制度的建构应当以释法取代立法作为有效的解决方案,围绕《个人信息保护法》第四章所规定的权利体系,构建以知情为引导、以删除为核心、以查阅为保障的流程化账号注销行为规范,以此解决账号注销过程可能存在的信息泄露风险。
2022年1月21日
其他

【算法合规编译系列】算法解释合规的落地方案

【编者按】自《互联网信息服务算法推荐管理规定》颁布以来,算法合规的重要性与日俱增。各平台企业面临着如何推进落实算法透明度、算法自评估、算法审计、算法备案、人工干预、科技伦理审查等一系列算法合规义务的挑战。本公众号拟推送算法合规编译系列,针对国内平台企业的算法合规需求重点编译域外相关文件和研究报告,以期为探索算法合规框架提供些许参考。本期编译的文献是英国信息专员办公室(ICO)和艾伦·图灵研究所共同编制的《人工智能决策解释指南》。在该部《指南》中,一个与算法解释性合规相关的启发是:算法可解释性合规实践其实是平台与用户建立信任性沟通的过程,因此围绕这一目的设计的算法可解释性框架应当是用户友好型的。《指南》中提出了基本原理解释、责任解释、数据解释、公平解释、安全和性能解释、影响解释六种解释方法,并确定了可以提供帮助的五个关键因素,包括算法适用场景、部署算法的部门或环境、算法系统的影响、算法系统使用的数据性质、紧迫性、用户特点等。在考虑可能产生的影响时,《指南》建议算法提供者根据具体情况选择相关的解释方式,确保用户可以充分理解算法系统决策的潜在影响。
2022年1月20日
其他

彭錞 | “算法防沉迷”义务首次写入我国法规,亦属世界首创

图|网络以下文章来源于法治周末报,作者彭錞智道聚焦前沿科技与法律伦理的交汇碰撞栏目主持人:於兴中投稿邮箱:zhidao0101@163.com2021年12月31日,国家互联网信息办公室、工业和信息化部、公安部、国家市场监督管理总局联合发布《互联网信息服务算法推荐管理规定》(以下简称《规定》)。作为世界首部专门针对算法的法律文件,这一《规定》也标志着我国的算法规制走在了世界前列。就《规定》中的诸多创新之处,《智道》栏目特邀三位专家进行深入的分析与评论,以飨读者▶
2022年1月9日
其他

张凌寒:平台算法治理制度的中国方案——《互联网信息服务算法推荐管理规定》解读|前沿

文章来源于中国民商法律网,作者张凌寒本文选编自张凌寒:《平台算法治理制度的中国方案——〈互联网信息服务算法推荐管理规定〉解读》,载中国网信网2022年1月5日。【作者简介】张凌寒,北京科技大学副教授。全文共2261字,阅读时间约6分钟2021年12月,国家互联网信息办公室联合工业和信息化部、公安部、市场监管总局发布《互联网信息服务算法推荐管理规定》(下文简称《规定》),并将于2022年3月1日起施行。这是我国第一部以算法作为专门规制对象的部门规章,具有重要时代意义。《规定》调整的生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法,被各大平台广泛应用,已经成为平台收集和处理数据、推送信息、调配资源的核心力量。平台运行的技术逻辑是算法,平台商业价值和竞争优势的基础是算法,同时,给国家利益、社会公共利益和公民合法权益带来风险的也可能是算法。《规定》立足中国数字经济实践与产业特色,向世界提供了平台算法治理的中国方案,建构了具有中国特色的平台算法治理制度。《规定》为平台应用算法划定明确的法律界限,对保障信息内容安全、维护市场竞争秩序、保护公民权益等具有至关重要的作用。一、算法安全理念:明晰平台算法治理的价值取向《规定》所秉持和贯彻的算法安全理念与我国《网络安全法》《数据安全法》和《个人信息保护法》等上位法一脉相承。算法安全理念,要求算法导向正确、正能量充沛,算法应用公平公正、公开透明,算法发展安全可控、自主创新,有效防范算法滥用带来的风险隐患。《规定》要求平台作为算法推荐服务提供者坚持主流价值导向,重视算法安全,积极传播正能量,不得操纵舆论。《规定》相关条款对未成年人身心健康、老年人合法权益、劳动者基本保障给予重点关注,充分体现了以人民为中心的发展思想。与此同时,《规定》引导算法推荐服务提供者促进算法应用向上向善,保护消费者权益,保证算法决策公平透明,这也与世界范围内已有的算法治理实践不谋而合。算法安全理念内涵丰富,这与平台算法应用涉及的社会领域广泛性相适应。《规定》贯彻的算法安全理念既涵盖了我国一贯重视的信息内容安全,也包含着对市场竞争秩序的规范,更体现了对普通用户和未成年人、老年人、劳动者、消费者等特定群体的用户权益保护。二、健全多元共治:深入平台内部的算法技术监管《规定》创新性地构建了算法安全风险监测、算法安全评估、算法备案管理和涉算法违法违规行为处置等多维一体的监管体系。这标志着我国的平台治理直接深入到了平台的底层技术逻辑——算法。人工智能时代的平台监管,既应符合平台底层的技术逻辑,也应符合主客观相一致、责罚相适应的法律原则。《规定》建立的算法技术监管体系穿透了平台运行的“算法技术面纱”,将平台监管的触角和追责视角直接指向背后的算法责任。技术的应用是包含主观意图的,平台在算法设计、部署、运行中包含的主观意图与平台是否尽到合理的注意义务,是平台算法追责的根本指向。作为算法推荐服务提供者的平台企业要强化责任意识,对算法应用产生的结果承担起算法安全的主体责任。《规定》要求平台企业应建立算法安全责任制度,设置平台内的算法安全管理组织机构,并配备与算法推荐服务规模相适应的专业人员和技术支撑。平台要对算法的数据使用、应用场景、影响效果等开展日常监测工作,感知算法应用带来的网络传播趋势、市场规则变化、用户行为等信息,预警算法应用可能产生的不规范、不公平、不公正等安全问题。《规定》要求平台企业等算法推荐服务提供者建立算法安全责任制度,与网络服务提供者的网络安全运营制度、数据处理者的数据安全保障制度和个人信息处理者的个人信息保护制度一起,共同构成了我国平台企业需建立完善的安全责任制度体系。《规定》还勾勒出了我国平台算法多元共治的治理体系蓝图。在平台算法治理中,要求算法推荐服务提供者依靠自评估、第三方评估等,深入分析算法机制机理、模型、数据和应用结果等,评估算法设计、部署和使用等应用环节的缺陷和漏洞,避免算法应用产生的社会公平、道德伦理、内容管理等安全问题,共同形成了治理结构高效运行,有法可依、多元协同、多方参与的治理机制。三、主体权责明确:构建平台算法责任的问责机制当技术造成了损害后果时,如果不能穿透技术面纱,由明确的主体来承担责任,就会存在潜在的责任缺口。如果不能解决“谁负责”的问题,放任平台以“技术中立”和“算法黑箱”为由继续逃避法律责任,那么所有的治理努力最终都将失之空泛。《规定》构建了平台算法全生命周期问责机制。我国创新性地在世界范围内率先设立了算法备案制度,要求具有舆论属性和社会动员能力的算法推荐服务提供者在提供服务之日起十个工作日内履行备案手续。算法备案制度的设立,是因为合理的平台算法问责有赖于清晰的主观过错认定,需通过算法备案对平台事前和运行中的问责点进行固定,以有效判断平台是否可以评估、控制、纠正算法带来的危害。算法备案是一种存档备查的行为,目的在于获取平台设计部署的具有潜在危害和风险的算法系统的相关信息,为今后追责提供信息。备案本身即存在着监督效应,算法备案制度的信息披露模式、内容、范围的设置体现了对于监管与自律、商业秘密与算法透明、源头治理与事后追责等利益的衡量。《规定》第五章“法律责任”则明确规定了算法推荐服务提供者如违反相关规定,需承担的法律责任,责任形式包括警告、通报批评、罚款等,必要时还将给予治安管理处罚和追究刑事责任。主体权责明确的平台算法问责体系,必将为实现我国算法治理安全目标起到关键作用。算法规制与平台治理是人工智能时代世界各国面临的重要议题。《规定》的出台不仅直接将算法作为规制对象,更使得平台治理的层次与方式迈上了新的台阶。《规定》作为我国算法综合治理体系的重要组成部分,势必在提升算法创新能力,促进平台算法应用安全,增强我国平台企业核心竞争力等方面发挥重要作用。
2022年1月7日
其他

《互联网信息服务算法推荐管理规定》生效文本与征求意见稿对照版本(附官方解读)

算法推荐服务提供者不得向未成年人用户推送可能引发未成年人模仿不安全行为和违反社会公德行为、诱导未成年人不良嗜好等可能影响未成年人身心健康的信息内容,不得利用算法推荐服务诱导未成年人沉迷网络。第十九条
2022年1月5日