李彤|通用人工智能技术提供者义务的审视与优化
李彤
南京航空航天大学人文与社会科学学院副教授、法学博士
要目
一、问题的提出二、智能技术的飞跃迭代与提供者义务区分规制的基本前提三、精准赋能风险管控与提供者义务区分规制的正当逻辑四、应用风险层级的评估维度与提供者义务区分规制的标准设定五、通用人工智能技术提供者义务区分规制的优化重构余论合理设定通用人工智能技术提供者的义务是化解技术应用风险的重要保障。从适度容忍新技术风险的必要性出发,以保障行业发展为基本导向,对该主体的行为规制应符合国际惯例、运行要件、技术逻辑等底线要求。同时,依据区分规制的理念,应以适用场景的风险差异为固有维度,以提供者技术控制力、用户鉴别能力、外部监管能力为变量维度动态评估应用风险层级,并对应阶梯式的义务设定方向。最后,应通过具体义务内容的优化来达成技术安全与发展同向并行的双重目标。
一、问题的提出
被认为是人工智能高阶质变形态的通用人工智能技术正展现出具象曙光。人们惊讶地发现,ChatGPT-4不仅在自然语言的处理能力上无与伦比,同时具有整合多学科知识解决复杂问题的实力,这正是通用人工智能技术应用能力的初阶呈现。通用人工智能技术依赖于大模型的良性运转,具有一般场域的应用能效、通用任务的处理能力和持续学习的更新能力。通用人工智能技术的迭代速度和强大能力已引发深切担忧,作为其发展前哨的生成式人工智能技术对前线行业造成了明显冲击,引发一些反对呼声。比如好莱坞编剧和演员行业已展开了史上罕见的联合罢工,他们希望自身的
2023年4月28日召开的中共中央政治局会议强调需重视通用人工智能的发展并关注其应用风险的防范。鉴于生成式人工智能技术是通用人工智能技术发展的初级阶段,有效应对技术风险的切入要点可从对前者的监管策略中寻求可靠思路。2023年4月11日,国家网信办发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《管理办法》),主要通过设定生成式人工智能技术提供者(以下简称“提供者”)的义务来达到规范目标,但其中包含的义务标准总体较高。2023年7月13日,国家网信办等七部门联合公布《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)。《暂行办法》对《管理办法》中的提供者义务进行了部分修正,但仍有呈现过高标准或欠缺合理性的义务设定。一是要求提供者在训练环节承担的数据审查义务过高。第7条规定,要求提供者增强训练数据的真实性、准确性、客观性、多样性。这在数据确权和流通制度并不完善的状态下存在实现障碍。二是要求提供者对网络信息承担过高义务。第9条规定,提供者应当依法承担网络信息内容的生产者责任,履行保障网络信息安全义务。这实际上要求提供者对网络信息安全承担无过错责任。三是提供者对违法内容的处置义务和用户违法使用行为的监管义务不合理。第14条第1款规定,一旦提供者发现违法内容不论轻重,不论是否出于技术原因,一律要整改和报告,可能让提供者疲于应付。第14条第2款规定,提供者发现用户的违法活动,不仅要保存记录,还要向主管部门报告。首先,用户的违法行为可能不在提供者的服务平台上发生,提供者保存记录的难度较大。其次,如发现的违法内容过多,需频繁报告的要求会使提供者不堪重负。四是对提供者的主体范围未从技术背景角度作明确限定。第22条第2款所界定的提供者是指利用生成式人工智能技术提供相关服务的组织、个人,这意味着可能完全不了解技术内容的提供者会落入需要技术能力支持的义务主体范围。
化解新技术的应用风险固然重要,但上述义务的设定方式是否适配当前所需是值得深入思考的问题。提供者处于该技术的运行前端,对其设定合理的义务框架将有助于该项技术在免受不当裹挟的状态下得到良性运转。是偏向安全还是更需效率,这是影响义务设定的价值倾向所在,需要谨慎作答。学界对人工智能的现有研究主要涉及:一是人工智能生成内容的法律定位。学界对人工智能生成内容能否落入法律保护的范围存在一定争议。比如对是否应对生成内容进行著作权或专利权保护存在不同看法。二是人工智能与法律相关的普遍议题和理论架构。三是人工智能对具体法律部门的挑战及其应对方案。学界普遍认为人工智能对传统法学理论和治理模式造成了明显冲击,需要结合技术特点进行有效的理论探讨和系统的方案回应。上述研究成果对通用人工智能技术提供者义务这一具体问题尚未作出回应。为此,本文以区分规制为视角,在对提供者义务审视的基础上,提出优化路径,以促进理论的发展,亦对实践有所裨益。
二、智能技术的飞跃迭代与提供者义务区分规制的基本前提
通过技术革新实现快速发展的人类社会已进入风险社会时代。鉴于人类理性的有限性,对新技术的认知存在天然局限,这使新兴技术的开发和应用常常附随风险,而试图化解上述风险的尝试往往会面对“科林格里奇”困境。通过设定较重义务来降低风险固然可以达成实效,但也应考虑到在技术发展的现实需要下,适度容忍合理风险的必要性。一方面,风险到损害中间横亘着或然性,这意味着风险未必会产生损害。因此,在这个需要同时拥抱人工智能与人类智慧的时代,两者无法实质共存的零和博弈思维应得到彻底扭转。但另一方面,人工智能应用风险具有共生性、时代性和全球性,这也提示法律规制的方向不应是先发展再治理,也不应是强治理弱发展,而是应选择边发展边治理的折中路线。
一是实现通用人工智能技术专利布局的迫切需要。专利技术自诞生以来就成为推动社会快速变革的润滑剂,但独占性的权利特征又让其润滑功能的发挥带着人为阻力。虽然算法模型一般不属于可专利的客体,但算法模型与应用的结合有可能会形成专利客体,如谷歌已获得了一些关于深度学习的AI专利。这表明,为了防止形成跨国专利壁垒,我国在该领域的技术专利布局是存在现实需要的。专利布局以技术方案的迭代升级为前提,需要提供者尽可能展现聪明才智,而较宽松的制度环境能为这个殚精竭虑的过程不附加额外的束缚因素。
二是通过通用人工智能技术掌握国际话语权的现实需要。一方面,保障国内通用人工智能技术快速发展是大势所趋。当今世界多个国家均拟定了人工智能的长期发展战略。2017年我国国务院印发了《新一代人工智能发展规划的通知》,计划到2030年,国内人工智能在理论、技术与应用方面达到世界领先水平。另一方面,从保证国家安全,实现文化输出,避免意识形态渗入的侧面看,保障国内相关技术的稳定发展也是十分迫切的。当前用户增长速度最快的通用人工智能技术前哨产品Chat-GPT是由美国人工智能公司OpenAI开发的,其使用的中文语料库内容有限,对其过度依赖会导致不符合中国现实和价值观的生成内容大幅上升。因此,我国亟须积极发展通用人工智能技术,以掌握该技术的国际话语权。显然,这对国内相关技术研发的主动性和时效性提出了较高要求。
三是针对通用人工智能技术应用风险谨慎评估的客观需要。通用人工智能技术不再仅仅具有针对海量数据的被动处理能力,还具有生成类人应对方案的能力。但总体来看,现阶段的人工智能技术仍是工具性的,由此决定了其法律地位的非独立性。而应用风险存在扩大解释的可能性,需要进行必要限定,应避免《红旗法案》的适用悲剧再次重演。《红旗法案》是英国在1865年出台的,该法规定,每辆上路的汽车必须有三位驾驶员,其中一位必须一直在车前50米摇动红旗作为危险警示,车辆时速不得超过4英里。到1896年对车辆时速的限制才提高到14英里,1903年进一步提高到20英里,并取消了红旗警示规则。然而几十年间的强力限制已使英国错失了行业发展的良机。这一历史事例表明安全与效率始终相携相伴,过于偏重一方所付出的代价既是不必要的又是昂贵的。
综上可见,为实现专利优化,促进科技创新,防止风险论扩大化,以储备维护国家利益的战略资源,我国对通用人工智能技术的支持力度应大于规制力度。理由是,虽然风险客观存在,但过分地担忧和遏制,会使我国在通用人工智能技术的发展过程中受到不当束缚,从而失去国际层面的领先优势。
不可否认,通用人工智能在数据安全、信息保护、伦理价值维护等方面会存在一定滥用风险。2023年4月3日,斯坦福大学“以人为本”人工智能研究所(Stanford HAI)发布《2023年人工智能指数报告》,指出“诸如ChatGPT,Stable Diffusion,Whisper,和DALL-E2等这些模型已能适用于越来越广泛的任务领域,包括文本处理分析、图像生成和前所未有的,性能优越的语言识别。这些系统在回答问题,文本、图像和代码生成领域展现出在十年前无法想象的能力,在很多方面都超过了现有的技术标准。但这些系统容易产生幻觉,经常存在偏见,可能被用于邪恶目的,从而伴随着技术发展带来了复杂的道德挑战”。因此,对具有广泛应用场景和卓越处理能力的通用人工智能进行必要法律规制已形成广泛共识,但规制时需要考量底线,把好规则设定的方向关。
一是面向通用人工智能技术的国际规制底线。欧盟已完成人工智能法草案,试图对人工智能的技术风险进行有效规制,但其出台过程并不顺畅。这体现了妥善压制风险和促进技术革新双重目标下的规制困境。因此,在通用人工智能技术的国内规制进路上,应充分考虑国际视域中的规制底线,依据国际惯例,力求从合规利用的角度化解应用风险。
二是判断通用人工智能技术的运行底线。通用人工智能技术的效能发挥需要依赖一定的先决条件。该技术是基于数据的智能,在进入应用环节之前需要接受足够的数据投喂和充分的数据训练才能实现良性运转,如片面追求数据的绝对安全与完全授权,那么在技术应用的前端就会构成“卡脖子”的状态。也就是说,对提供者在上述环节中的义务设定不能导致技术运行所需的必备数据要素被不当剥离,故相关义务内容规则应结合数据审查的实际情况而设计。
三是衡量通用人工智能技术的逻辑底线。通用人工智能技术所对应的较强智能状态的形成逻辑与人类智慧的生成过程截然不同。后者一般遵循从特殊到一般的体验式过程,通过家庭、学校、社会的长期教育沁润和主动思考学习,逐步形成多样的知识体系,对日常问题可以作出相应的知识应对和与之匹配的价值判断。而前者服从于贝叶斯定理,即先对应答内容进行概率性的判定,而后通过模型运转再验证回答的可靠性。贝叶斯定理中对先验概率的处理存在明显不足。同时,技术生成过程中的文化属性较弱,进而会直接影响价值判断能力。这是技术自身存在的天然缺陷,毕竟现阶段通过对人脑运行样态的真实观察与完美复制来促成类人智能尚有诸多技术难题。由此,可考虑从弥补技术缺陷的可行性角度出发,合理设定优化技术过程中的主体义务。
三、精准赋能风险管控与提供者义务区分规制的正当逻辑
对提供者义务进行粗放型的一体化设定,会忽略提供者与其他主体在应用风险治理上的互动关系,也让提供者的有限力量分散在疲于应付当前难以完成的事务上。与之对应的区分规制是将提供者从可以被解除规制的场域中解放出来,通过共治链条和集中革新来达成化解应用风险的目标,同时不会对行业发展造成阻碍。
化解技术应用风险并非片面加强提供者的单方义务即可达成,区分规制视角下的义务设定是扩展共治主体,降低管控成本和突出治理重点的必然要求。
一是风险共治渠道的社会化建构。鉴于该技术应用效果的社会价值,提供者不应在化解应用风险和技术弊端上孤军奋战。通用人工智能的综合治理应贯彻系统化思维,需要技术应用链条上的多主体实现通力配合。提供者义务的区分规制意味着该技术的部分治理责任应由政府、平台、用户等其他主体承担。
二是风险管控策略的效率化应用。风险控制效率的提升仰赖于发现风险速度较快及有效应对方案的快速生成,而提供者义务的一体化设置不能匹配效率化的要求。其一,在生成内容侵权信息的发现上,提供者并不在技术应用的用户端,无法及时发现违法信息,其主动审查义务的设定不符合效率性的要求。其二,在该技术相关算法模型安全性评估的问题上,鉴于提供者较多关注应用获利立场的局限性,有效方案的应对立场存在问题,外部专业力量的引入是提升效率的重要方法。其三,通用人工智能应用可能引发的风险损害类别是多样的,应从风险产生的原因是否可归责于提供者入手来对应差异化的义务设定。
三是风险规避行为的精确化规制。提供者在技术开发和应用环节面临差异化的管控需求和风险后果,行为控制的具体内容也应对照区分。比如开发时数据审查义务的要点应服务于保障数据安全,避免显著违法虚假数据进入训练环节的规制目标。同时还需要考虑在庞大数据库中获得所有权利方的授权是否是过于困难的行为规制方式,是否没有精准考虑技术革新和发展的客观需要。而在应用端对用户权益的保护,应从用户和提供者互动的可行渠道出发来实现私权保护的需要。另外还应结合具体场域的应用需求来匹配精准化的行为要求,比如因司法实践领域中的知识结构和语言表达存在专业性和复杂性,应用于其中的人工智能技术不能简单平移,提供者有义务进行对应的技术革新,需向法律实务部门提前预警应用风险和提供对应技术参数,了解法律实务工作的基础原理以提升技术的适配度,为尽可能减少风险投入更多的技术力量支持。
一是依据风险的可容忍程度来区分底线义务与倡导行为。建立提供者义务设定的底线思维,依据已知风险和控制能力的实际状态来划定切实可行的行为红线。如应用风险所对应的价值损害是社会运行中无法容忍的基础部分,比如涉及国家安全,应不论效率成本,以安全优先的原则来强化义务内容。在强制实现存在一定现实障碍的规制领域,则可通过明确最佳倾向的方式引导提供者朝着存在更优解的方向努力。
二是考量风险的损害情况来区分公共侵扰与私权受损。美国法上的公共侵扰一般涉及损害公共权利或损害大量人员利益的公共属性,典型情形涉及因灰尘、烟雾、有害物质泄露所造成的环境污染事件。在普通法司法实践中对公共侵扰的认定标准总体较宽,不同州管辖范围内的认定要素存在差异。加利福尼亚州将公共侵扰界定为对整个社区、临近地区或相当多的民众造成损害,即便每个人身上所遭受的损害程度存在差异。上述较灵活的界定方式使依托公共侵扰理论来解释通用人工智能技术可能造成的,带有公共属性的应用损害具有可行性。公共侵扰部分的行为规制显然应采用强制性的较高标准,以有效避免社会动荡和秩序混乱。同时风险损害也可能对应私权受损,具有损害内向性和主体有限性,此时提供者对特定主体权益的主动保护义务标准不宜过高。
三是确认风险的来源方向来区分技术缺陷与系统问题。通用人工智能应用风险的来源之一是技术缺陷,因此督促提供者履行技术更新义务有助于消除应用风险。另外,通用人工智能的应用风险也来自多重因素的衔接错位,如数据权利制度的不健全影响着数据训练环节的合规性,庞大的用户群体及其不可预控的使用行为可能让技术应用的良善愿景落空。这些风险的彻底消弭受制于复杂的社会条件及其对应制度的构建完善,是社会运行的系统性风险,很难通过简单加重提供者义务来实现规制目标。
一是强制要求与软性引导的互通融合避免提供者义务的封闭性。提供者义务可能随着技术的发展和应用场域的变动而产生一定的变化,仅有强制规范不利于迎合实际变化进行及时呼应,而软性引导的柔化规范则为义务内容的延展提供了可靠指引。强制要求以对违背义务导向法律责任的压迫感来达到规制目标,而通过软性引导所实现的规制部分是不需要公权力强力介入的低成本规制方式,两者的协同配合可显著扩充主体责任的实然范畴。
二是可做到的行为纳入与难做到的行为排除增强提供者义务的可实现性。在义务设定上充分考虑现阶段的技术发展需要和提供者的实际能力范围,在现实可行和能力可及的场域中设定较高的义务标准,从而使义务的实现预期得到充分释放。针对当前技术状态难以实现的部分,果断免除或减轻提供者义务,换之以倡导性规范,让其可在相对宽松的规制条件下,尽可能实现技术进步,这也有利于进一步消弭应用风险。
三是建立在多元共治基础上的主体区分设定模式提升提供者义务的协同性。提供者义务是保障技术安全的关键,但并不是唯一侧面。技术应用带来社会效益的整体提升并附从社会化风险,在治理策略上建构多主体参与的协同共治体系会增强治理效果。应用风险不仅来自技术本身的风险,还来自社会化应用场域的原有风险、用户的违规行为和政府监管能力的欠缺等多重因素。提供者享受到技术红利,但并不是唯一的获益方,用户、政府、平台等技术应用链条上的其他主体也应通过义务设定的方式参与治理链条。
四、应用风险层级的评估维度与提供者义务区分规制的标准设定
鉴于通用人工智能技术广泛的应用场景和多主体的参与链条,考虑到危险和义务产生之间的基础逻辑关系,当以应用风险层级的评估维度为标准设定导向,在区分规制的视野下设置阶梯式的义务系统,以便提升义务设定的实效性。可贯彻动态评估的思路,以固有维度为基本要素,以变量维度为浮动因子,对应用风险层级的高低进行综合判定,而后根据风险度高低的当前判定结果来联动提供者义务区分规制的强弱标准。
应用风险层级的固有维度涉及应用场景与技术结合后的风险情形,风险程度有差异化表现,继而会协同影响提供者义务区分规制的标准设定。
从传播属性上看,对带有公共属性的传播模式需要硬性的严格规制。来自通用人工智能的虚假信息在具有私密性的聊天模式中影响范围有限,而在公共传播模式下将很可能产生大规模的认知错位,影响正常的舆论生成,甚至成为引发社会动荡的导火索。利用互联网信息制造对立,诱导冲突,并服务于特定政治目标的做法并不罕见。根据2018年11月国家网信办发布的《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》,面向社会公众应用、具备舆论影响能力的通用人工智能技术显然也应落入安全评估的范畴。
从应用领域来看,对通用人工智能技术硬性限制的管控需要,一方面来自其服务内容与某些应用领域的底线要求相悖。比如在受教育者利用该技术完成作业的过程中,该技术的运行促成了与教育活动的目标本质背道而驰的消极效果。再如在学术科研领域内,利用通用人工智能完成学术论文,有违学术道德底线和科研自律要求,故应得到严厉禁止。另一方面,通用人工智能技术也对应着无法获得主导性地位的领域,比如在涉及价值判断的司法裁判领域,任何人工智能技术都只能作为辅助性的工具。究其原因,来自过去经验的数据训练可能不适合当前裁判的需要,而完全不关注社会影响力的智能裁判过程也会影响司法审判的适用力。
对于违规应用的社会损害力而言,应从公私法分立的角度进行义务内容的硬性区分。一方面,对存在违反国家强制标准和影响社会公共利益可能的应用风险情形,需加强提供者的审核义务。如涉及存在影响网络安全,引发漏洞攻击的恶意代码,则需提供者确保安全,主动审核,防止为实施违法犯罪行为提供不当助力。另一方面,如牵涉文字作品框架内容设定,翻译文字、图像或形象生成等方面,可能涉及人格权、知识产权等民事权利受损,对相关侵权信息的审查义务可考虑被动路线,并以司法为最终防线。
应用风险层级的高低还会随着提供者技术控制力、用户鉴别力和外部监管力的大小发生继发变动,构成了应用风险层级的变量维度,并对提供者区分规制标准的设定造成动态影响。
1.提供者的技术控制力与区分规制标准的对照
提供者较强的技术控制力可显著降低应用风险层级。该技术中的算法模型具有专业化、黑箱化和多变化特征,这使对提供者的义务设定不能通过提升用户方的注意义务来得到相应缩减,因为缺乏专业知识的用户缺乏了解技术原理的有效通道,也无法进入数据训练环节来提升技术算法的效能。不仅如此,现阶段的通用人工智能仍缺乏实质创造力,其整体驱动还会受制于人,这表明提供者的主导控制能力并没有得到根本改变。由此可见,具备技术更新的专业能力、对影响生成结果数据训练环节的管控能力和生成内容仰赖技术程序的现状是促成提供者义务生成的重要侧面。另外,提供者从该技术应用中大量获益,这为其技术研发和风险规避能力的提升提供了必要的经济基础。
另一方面,虽然提供者需要对技术的应用风险负责,但此种负责状态存在限度,如同无法要求无民事行为能力人理性控制行为一样,对没有技术控制能力的主体施加义务的做法因超出了必要的能力范围,显然会导致法律适用效果的落空。这表明提供者的义务履行应以技术控制力为必要条件。
需要注意的是,技术控制力存在弹性侧面,这为区分规制软性标准的适用提供了必要前提。提供者的技术控制力在具有一定的浮动空间。一方面,提供者在现阶段尚无法全面管控和预测生成内容,存在一定的控制弱点。另一方面,有些更优应用状态的达成仰赖进一步的技术研发,比如深度人文内化的技术方案在实现上仍存在障碍,由此在类似领域不宜设定较高的硬性规制标准,以便给技术成熟和方案养成提供必要时间。
2.用户的鉴别力与区分规制标准的界定
与充斥大量鱼龙混杂信息的互联网中的状态类似,通用人工智能所提供的快速而多样的生成内容也存在违规可能。就此问题的规制,可参照网络服务提供者义务设定中的避风港原则。理由是通用人工智能产品的用户众多,生成内容基于个性化的请求产生,具有海量特征,且在相对不公开的用户界面生成,同时涉及隐私问题。提供者既不是违规信息生成的触发主体,也无法全面快速获知违规信息,因此一般情形下的主动审查义务应被排除。
对鉴别能力较强的用户,即具有完全民事行为能力的人群,可考虑倾向形式审查的弱标准。通过明确用户接入服务的资格审核来设定提供者义务,让有足够鉴别能力的用户可以在发现违规失当信息时,不仅不会受到错误影响,甚至还可以通过适当对话纠正错误,引导正确内容的生成。此时提供者通过保障生成内容的可追溯性即可达到便于事后审查的要求,而不需随时进行耗时耗力的全面彻底审查。
对鉴别能力较弱的用户,如对老人、未成年人这类特殊人群,提供者的义务应适当增强,应该采取有效手段避免技术缺陷对上述人群的不利影响。但针对精神病人,提供者相关义务的履行不具有可行性,该类患者的生病状况属于个人隐私,其一般不会主动上传公开。另外,提供者往往没有医学专业知识和疾病认定资质,故通过提供服务前的问卷方式来考察用户的身心健康状态并进行相应定性,存在偏见和失当可能。
3.监管方的管控力与区分规制标准的划定
鉴于通用人工智能技术应用风险可能是提供者并未发觉或难以自控的,该技术的合规运行还会受制于外部监督的常态化和规则化,故配套监管机制的完善程度将直接影响技术的合规运行效果。就典型情景来看,一是若保障海量数据的安全性要求已超过提供者的能力范围,则需借助外部力量为技术运行中数据合规使用划定红线。二是提供者对算法模型的开发和理解易陷入自娱自乐的境地,对适用风险和技术偏见往往视若不见。不仅如此,人工智能领域的技术黑箱相比以往有过之而无不及,因此进行公开、谨慎和中立的外部评估实属必要。三是通用人工智能领域已成新兴热点投资领域,但在运行中耗费了大量的社会成本,耗能程度较高,一定程度也影响到经济秩序和环境安全,故也需要来自国家层面的监控规制。
但需注意的是,外部监管同样面临海量数据审查、算法模型评估的现实困境,同时受制于监管力量配置、经验积累等方面存在能力波动空间。对不涉及公共利益,不会引发严重损害的应用环节,应防止太多监管介入影响到行业发展和服务提供的持续性。在监管中,要求对代码进行全面完整的备案甚至公开的可行性也不高。“代码层面的算法透明最显而易见的阻力来自商业秘密,此外其他负面影响还包括增加公众的认知负担、侵犯国家机密等。”另外,算法黑箱的破除还会受制于认知局限,因而无法通过完善监管做到绝对透明化。
五、通用人工智能技术提供者义务区分规制的优化重构
提供者义务的区分规制应充分考虑适度容忍应用风险的基本前提,以应用风险精准管控的逻辑为导引,在对应用风险层级进行固有维度和变量维度的综合动态研判的基础上,结合技术发展的现实需要,合理优化相关义务内容。
数据对通用人工智能技术性能的发挥意义重大。不同类型的数据对该技术的合规利用会造成影响。通用人工智能技术的典型数据问题有,一是作为第五种生产要素的数据之上存在权利附着,提供者随意使用会造成权益侵害。二是训练数据本身是否存在违规信息,通用人工智能的表现状态和其预先学习的数据内容有直接关联。
欧盟通用数据保护条例提出了“经由设计的数据保护”。该《条例》第25条第1款规定:“考虑到行业最新水平、实施成本及处理的性质、范围、目的和内容以及处理给自然人的权利与自由造成的影响,数据控制者应当在决定数据处理方式以及进行处理时,以有效的方式采取适当的组织和技术措施。”这表明将数据合规处理的义务施加在有能力处置数据的数据控制者之上,使其按照现实情形和实际能力来实施恰当的处置措施具有合理性。
一是在审查主体上,将该项义务局限在具有相关技术能力的提供者。如提供者仅是技术服务中介平台,并不了解技术模型和数据训练情况,则提供者的数据审查义务应转化为在提供服务前备案,真正负责数据训练和优化主体信息,并在发现数据违规后对相关责任主体负有及时告知义务。
二是在审查内容上,应集中于对数据来源合法性的确认,包括但不限于确认信息是否来自可信数据库,是否排除明显包含权利标记的数据,是否排除未经授权以网络爬虫等不当方式所获得的可确权数据等。尊重其他企业对所获数据的财产权益,也在我国司法实践中得到了确认。但上述审查应以形式审查为表征,同时提供者不应对权利状态模糊不明的相关数据的最终合法性负责。理由是在数据确权流通制度尚未完善的领域当中,数据权利的归属还不明确,后续流通利用环节的权利表征存在不甚明晰的可能,系统性社会风险问题的解决不应寄托于单方加重提供者的义务来达成目标。
三是在审核方式上,考虑到海量数据使用情景及数据多重流转环节的复杂性,提供者不需对数据本身的合法性承担主动逐个审核的高强度义务。如数据应用涉嫌侵犯人格权、知识产权、存在构成不正当竞争等情形,权利方应可通过申请程序,要求提供者做出被动回应。
应明确提供者对生成内容进行主动审核的类型和方式。在审核领域上,主要针对风险度高、容错度低的应用领域。在审核方式上,提供者可通过招聘提示工程师或其他适当方式定期模仿用户群的使用习惯,结合当前社会关注要点,深度呈现生成内容,对通过上述途径知悉的违规信息的生成状态进行有效纠错。同时,提供者应通过提炼关键词等方式定期总结用户高频互动领域内的生成内容,展开实质审查。为了保障上述目标的达成,提供者依据必要性原则,合规存储可识别用户身份的输入和使用信息,以便为审查义务的达成提供前提条件。另外,虽然当生成内容构成网络信息时,会放大违规信息的风险度,但提供者的预先标记行为已可达到提示风险的目标,同时鉴于违规信息的产生源头还有用户,因此不宜由提供者承担单纯的生产者责任。
设定提供者对生成内容进行被动审核的程序。提供者应设置审核专员和限时审核程序。对存在侵权嫌疑的生成内容,提供者可基于用户申请对生成内容启动审核,限期做出审核结果的反馈,并明确告知申请人。提供者应提示申请人如对审核结果存在异议,可向国家网信办等相关部门投诉或向人民法院提起诉讼。相关管理部门应设有接受和反馈通用人工智能用户投诉的受理机制,以便对提供者上述义务的不当履行情况进行及时纠正。在申请人为提起诉讼要求提供者向其披露用户信息时,提供者应予以配合,否则应承担连带责任。
如发现违规生成内容是因技术缺陷造成的,提供者应立刻采用屏蔽、删除、过滤等必要措施进行内容隔离并在合理时间内通过优化算法模型等方式避免违规内容的再次生成。其中的合理时间应以行业内相关技术完善所需的平均时间来确认,通过征集行业意见,形成判定时限的明确规则。但在违规生成内容的产生原因不明的情形下,提供者应通过向主管部门和专业委员会报送情况的方式来寻求可能的解决方案。
提供者监管用户行为义务的实现应以其对用户身份信息的识别义务为前提,即提供者可在用户行为导致技术运行失控时追溯到相关用户,并对低自控力和低鉴别能力的用户进行有效保护。由此在用户接入相关服务时,提供者应采集可以识别用户身份的必要信息,包含姓名、身份证号、联系方式等关键信息。
应设定提供者对用户行为规制的底线义务。提供者应采用关键词屏蔽、不当问题预警提示等相关合理方式避免用户试图通过不当提问获取违背社会主义核心价值观、有助于实施违法犯罪行为等不可容忍的违法生成内容。
应明确提供者对鉴别能力较弱用户群体的高强度义务。针对未成年人这类群体,可仿照未成年人保护法第75条,确立单独的统一未成年人通用人工智能使用身份认证系统,也可与现行的网络游戏电子身份认证系统对接,强制要求实名制和人脸识别,避免未成年人借用身份信息注册。提供者应结合未成年人的年龄特征和生理特点,建立互动内容的负面清单,避免未成年人利用该技术获得违规信息。同时,应对未成年人使用时间进行必要限制,可考虑其生长需要,对晚间的服务时间进行限缩。针对六十周岁以上的老人,提供者应在注册时细化提示操作流程,提高老人使用程序的便利度,在运行环节可考虑采用页面的弹窗强化应用风险的告知义务。
应当强调的是,提供者对实名用户利用生成内容的后续违法行为没有主动监管义务,这已明显超出提供者的管控能力。另外,提供者就偶然发现的用户轻微违法行为,也不具有固定证据和报告主管部门的义务,除非涉及侵犯国家利益、公共利益或涉嫌刑事犯罪等严重情形。
一方面,通过强化外部监管可达成避免该技术的无序野蛮增长。一是在高风险的应用领域,则应进行严格限制。如在自动武器装备、教育教学、司法裁判、学术研究等敏感领域的适用需经过全面细致的安全评估。对在上述领域的扩展应用应足够谨慎。与国外保守倾向相比,我国法院对在司法实践中应用人工智能技术抱有更乐观的态度。我国地方政府如深圳在普通高校毕业生的落户审批上已经实践无人自动秒批。这种宽松态度和实践倾向放置在具有更高类人智能的通用人工智能之上会进一步放大应用风险。具体而言,该项技术依托智能算法给定生成内容,可直接适用的特性更强,因此在高风险领域掌握决策能力的风险程度更高。对此,应明确设置禁止或限制应用的负面清单。在涉及限制进入的应用场域时,一是提供者应向监管部门主动提供能够充分确保技术安全的研发资料并详细阐释技术机理。二是提供者就所采用的算法模型应主动接受安全性评估,有效规避存在高上瘾性、高错误率等显著缺陷的相关技术进入应用环节。三是负责数据训练的提供者应就相关能耗状态接受监管,主动向相关部门准确汇报真实的耗能情况。提供者为便利上述强监管目标的实现,应主动配合备案,提供完整资料和接受定期实质审查。
另一方面,如通用人工智能技术适用场景具有目标用户鉴别能力强、非依托公共平台等低风险因素,则应免除提供者接受高频率和高强度的管控义务,一般只需进行应用场景的备案即可。当为安全审查目的获取类似源代码等不宜公开的相关信息时,监管机构应有完善的保密机制。
科技伦理是新科技发展过程中需要特别关注的关键要素,是化解新技术风险的必备选项。2023年3月中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,其中要求加强源头治理,将科技伦理贯穿于科技活动的全流程和全环节。对人工智能的伦理化要求来自非技术中立的特征,故“人工智能的发展并不能以技术中立为由来回避它的商业偏好、善恶价值和社会风险”。通用人工智能应用风险的重要来源之一也可以归结为技术本身的伦理失当状态,而智能状态的提升与道德标准的要求存在同向关系,提供者就此应负有伦理驯化义务。该项义务主要涉及价值观塑造和人文内化,旨在使技术应用走出人文荒漠,避免价值脱缰,成为内在向善的技术方案,但价值观塑造和人文内化两方面对社会秩序和利益维系的效用以及实施难度上并不完全相同,由此应对应不同的行为规制层级。
强化提供者对技术符合核心价值观、保障国家安全的驯化义务。在实现方式上,提供者应定期就上述目标的达成状况展开自查自纠,在接受外部实质审查时,应说明为了达到上述目标所采用的必要措施、测试方法及可信效果。这是技术应用的底线所在,也是提供者承担社会责任的重要体现。
倡导提供者对技术实现人文内化的驯化要求。通用人工智能具有类人化的智能表现,但其不具有依赖持续经验累积和反馈式学习的文化内在,此时可通过具有倾向性的数据训练使技术内容符合本国的人文特征。但在这一侧面只倡导不强制的原因在于,一是人文内化的内容太多,常常挂一漏万,未必可达到内容全面驯化的目标。二是人文内化过程中的价值判断会涉及一些灰色地带,很难用非黑即白的方式来进行驯化,比如类似电车难题的场景,无法从伦理角度得到显性一致的答案。三是人文内化的内涵外延存在一定的模糊性,难以匹配需要明确行为界限的义务内容。可参考2021年9月国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》的要求来推动行业内确认人文内化的标准策略。
在常规实现渠道上,可要求相关企业内置专门机构来实现技术伦理驯化要求。国外科技公司已存在相关实践。与此同时,国外相关科技公司对伦理部门进行裁撤的做法也在引发公众对技术安全性的担忧。由此,需从规则设定上保障相关义务实现的稳定性,应使科技伦理审查部门成为AI开发者的标配,构成保障通用人工智能技术安全的内在力量。
余论
无论人类社会中的应对情绪是恐惧还是接受,通用人工智能的发展已势不可挡,无所不知和有问必答是人类一直向往的智能状态,在与浩瀚宇宙和强大自然抗争的过程中,人类对不受束缚的自由生活的向往始终存在。虽然风险始终存在,但收获与代价同向而行实在过于常见。因此,风险不足以成为抗拒新变化的理由。
与此同时,审慎与理性的观察又足够重要,以往的技术运行都仰赖于占据智力高位的人类,但通用人工智能不仅能完成人类生活中的常规任务而且具有类人的创造力,在持续学习中精进能力,这对人类社会的冲击是前所未有的。没有行动边界的自由往往会引发颠覆性的失序状态,所以法律规制和伦理引导也需箭在弦上。为此,合理设定通用人工智能提供者的义务框架是从可能制造危险的源头出发,保障该项技术合规发展的钥匙之一。
往期精彩回顾
上海市法学会官网
http://www.sls.org.cn