查看原文
其他

陈全真|生成式人工智能与平台权力的再中心化

陈全真 上海市法学会 东方法学 2023-12-16

陈全真

南京大学法学院博士研究生

要目

一、问题的提出:生成式人工智能如何影响平台权力?二、Web3.0时代平台权力的流散三、生成式人工智能:Web3.0时代的网络集权工具?
四、生成式人工智能与平台权力的再中心化五、“平台+生成式人工智能”带来的治理挑战与应对结语

Web3.0时代,区块链技术构筑的分布式网络使得用户开始掌握数据主权,网络内容从生产到价值分配均归用户所有。但以ChatGPT为代表的生成式人工智能的出现,意味着散落于用户手中的数据资源将再次聚集,其与下游互联网平台结合后将改变知识权威性的来源,生成式人工智能将会成为Web3.0时代的网络集权工具,平台权力再次走向中心化将成为可能。对于“平台+生成式人工智能”可能引发的技术风险,不宜过早地实施外部法律控制,而是应当采取“技术先行”的方案,首先依靠技术手段予以内部优化,同时,在政策层面秉持包容审慎的态度,采取一种“边发展,边治理”的应对策略。

一、问题的提出:生成式人工智能如何影响平台权力?

早期万维网的“去中心化”试验表明,互联网的初衷是构建一个去中心化的空间。也就是说,在网络空间中鲜有特权和偏见。但后来伴随着互联网商业化进程的加快,以攫取和扩张为天性的资本在互联网这块公共荒地上不断开垦,技术性强制措施和对财产的排他性占有重新成为互联网领域的权威法则。一批具有媒体属性的门户和垂直专业网站,形成吞噬互联网流量的超级黑洞,而不久后这些超级网站的流量和影响力又不得不依附于更齐全、更强大的门户网站。网络空间中形成中心化的平台权力。但在Web2.0与Web3.0的过渡时期,平台权力发生流散。一方面,国家开始频繁介入互联网平台内部治理机制,开始收回弥散在“平台社会”的中间制度的创设权和实施权;另一方面,一种新的分布式网络被构筑,用户创造的权利与价值的分配,不通过第三方即可得到高效、准确、可信的执行,用户开始拥有数据主权。

然而,以ChatGPT为代表的生成式人工智能的问世,预示着用户享有数据主权的美好理想将化为泡影。美国人工智能研究机构OpenAI将ChatGPT定义为人工智能技术驱动的自然语言处理工具。它解决了这样一个核心问题,即如何让人工智能模型的产出和人类的常识、认知、需求、价值观保持一致。与从大量数据中寻找隐藏模式并形成预测的分析式人工智能不同,生成式人工智能最显著的技术优势在于它可以基于人类反馈的强化学习寻找完成人类指令的最优解,拥有对自然语言的理解、解释和生成内容等方面的能力,甚至在人类知识贮存与计算机超级算力的加持下,其能力可以远远超过人类。作为一种基石性的大型语言模型,生成式人工智能可以被应用到搜索引擎、内容平台、应用软件等一系列下游场景中,可以作为数字技术市场的“看门人”,与下游应用场景的结合将会带来巨大的市场支配力量。这是否意味着,在嵌入生成式人工智能后,Web3.0时代的互联网平台将迎来重新赋能的机会,进而产生一种更为中心化的平台权力?倘若如此,此种平台权力的生成、作用方式以及对用户权利的影响将是我们不得不思考的问题。未来如何通过技术、法律或政策的指引,既不遏制人工智能技术的创新和产业化应用,又能实现“平台+生成式人工智能”的规范化运行,引导其向有利于人类福祉的方向发展,将成为一项重要议题。

二、Web3.0时代平台权力的流散

就本质而言,平台权力是一种社会权力形式,或者说平台权力是社会权力的Web2.0形态。在前互联网时期,传统社会权力至少在社会团体内部是一种中心化的权力,但又不可避免受到国家权力的侵扰甚至解构,时刻面临去中心化的威胁。Web2.0时期,互联网技术迎来大规模的商业化应用,互联网寡头借助原始资本和技术先占优势,重新改造权力的发生机制和作用于人的方式,使得传统社会权力进化为平台权力。平台借助技术架构控制信息生产、筛选和分发机制,制造平台与用户之间的信息不对称,从而过度参与社会公共管理,引发社会公众质疑,国家开始加强对平台经济的规制。从国家互联网治理实践来看,平台所能掌控的公共空间正在缩小,所能参与社会公共管理的深度正在下降,平台权力正在发生流散。
从竞价排名的法律定性看平台权力流散
竞价排名的法律定性之所以产生争议,立法的缺失、行政机关的回避以及司法裁判的分歧仅是表面原因,竞价排名引发的社会风险在归因层面早已超出了其法律定性,更深层次的原因在于其从信息生产到信息交换,再到信息发布的整个过程,不再像以往的广告发布那样依赖和遵循市场逻辑,而是更多地依靠互联网平台的技术架构。在平台技术架构的支撑下,广告不再是一种基于特定媒介的信息发布形式,而是在搜索引擎、商品或服务经营者和广大网民三方互动中呈现出的信息动态交换过程,从整体来看是由搜索关键词、算法匹配系统、搜索结果页、链接跳转页等内容构成的一系列信息和技术架构。因网络搜索的技术壁垒和信息不对称问题尤为严重,网民完全依赖中心化的平台了解商品和服务信息,缺少可替代性的选择。在信息过剩的前提下,平台逐利倾向驱使其滥用技术选择性呈现出价更高、质量更低的商品或服务信息,引发公众认知偏差,最终导致“逆向淘汰”效应。平台权力的中心化使得既有的信息筛选机制失灵,消费者的知情权、选择权受到侵犯,甚至生命健康权都遭受到威胁。竞价排名引发的社会风险表明,平台公司试图将自身定义为独立且中立的工具性客体,企图和使用者、生产关系和生产背景等社会性要素相分离,免于承担雇主责任,即便与使用者存在法律关系,也只是单一的服务关系,持续获利的同时不需要承担更加直接的生产责任。

从根本上而言,社会公众的注意力并非仅仅停留在竞价排名的定性上,而是开始担忧平台设置的技术壁垒和信息不对称导致的公众知情权和选择权受限。在价值认同层面,部分平台的技术架构受到公众道德质疑,公众信任度降低。在规则治理层面,面对舆论质疑,国家机关开始否定部分平台对竞价排名的自我定性,试图收回散落在平台中的治理权力。《互联网广告管理暂行办法》和电子商务法均将竞价排名定性为商业广告。这将产生如下两种法律效果:其一,搜索引擎服务商成为广告发布主体,对广告主的资质以及广告内容具有较高的审查义务,这也说明国家法律开始介入,尤其对于那些影响公众判断和选择的行为机制,平台的自我定性权力受到否定,主体责任却在加强。其二,竞价排名被认定为商业广告,意味着广告发布主体即平台公司将不再受到民法典“避风港规则”的庇护,而是要纳入刚性更强的广告法加以严苛的公法规制。这都在一定程度上表明,国家权力开始注意到平台权力的过度中心化现象,开始在规则层面确立对平台经济的规制权。
从信息监控的法律边界看平台权力流散

曾经有直播平台实时直播通过智能摄像机拍摄的公共场所影像,引发网民围观和评论,这被部分公众认为是侵犯个人隐私而遭到声讨。从该事件来看,摄像头原本只具有监控功能,用于公共领域的安全防范,本应是公众喜闻乐见的,而在摄像头上加上直播功能,却引起部分公众的反感。这实际上反映了互联网时代人们对于全场景监控的担忧。平台通过与具有监控功能的摄像头相连接,具有了直播功能,这实际上是模糊了私人领域和公共领域的边界。一般意义上的“公共领域”是指可以随意进出的公共场所,但公共场所并非全无隐私之地,公共场所还包含那些“掩面而过不为人知”的私人领域。平台公司通过技术的滥用达成权力的扩张,将“公共场所”中具有私人性质的空间不断暴露在社会公众面前,导致“公共场所”这一概念的范围不断扩大,极大地压缩了私人空间的范围。而与此相对的是,社会公众的隐私保护诉求在提升,法律在回应公众诉求时,会尝试扩大隐私保护范围,并时刻注意划清私人空间和公共空间的界限,统筹兼顾公共领域安全防范与个人隐私、个人信息权益保护。

在平台权力扩张所导致的私人领域被侵犯的问题上,一些学者已经给出初步建议,通过考量互联网隐私侵权行为与损害结果之间的分散化,以及侵权人与被侵权人之间举证能力的悬殊地位,倾向于采用一种实质标准判别隐私利益,在归责原则上采用较为严苛的过错推定原则来重构侵权规则,以增加被侵权人胜诉的可能性。在当前的司法实践中,“侵犯公民个人信息罪”的认定,也已开始从狭隘的“隐私权保护模式”转向更为宽泛的“公民个人信息”概念进行解释,这实际上对平台隐私合规提出了较高要求,对平台权力的蔓延作出了较大限制。这些对策,有的已经被国家立法机关所采纳,有的被司法机关在审判实践中予以倾斜解释,这些应对方法都遵循一个基本思路,即力图划清私人领域与公共领域的界限,扩大私人空间的保护范围。

从近年国家互联网立法和司法实践来看,平台权力过度中心化问题已得到足够的重视,并得到一定程度的管控,平台权力扩张引发的信息不对称,以及公共领域与私人领域之间的紧张关系也已得到一定程度的缓解。种种迹象表明,平台权力正在发生流散,面临去中心化。

三、生成式人工智能:Web3.0时代的网络集权工具?

Web3.0时代,分布式互联网的构筑使得原本由平台所经手的各项数据权益分散在用户手中,用户所创造的数字内容及其控制管理权归用户所有,用户内容所创造的价值也由自动化合约来分配。在这种情况下,平台权力发生流散是预料之中的现象。但生成式人工智能的出现,意味着这些散落在用户手中的数据资源可能会再次聚集,生成式人工智能与下游平台的结合,可能会使得互联网寡头重新掌握用户数据,作为一种基础性平台,生成式人工智能将会沦为互联网寡头的网络集权工具。
生成式人工智能的知识生产
生成式人工智能主要依赖于以源源不断的数据输入人机交互接口,辅之以算法技术对大型语言模型的训练,从海量的数据中学习各种知识以输出新内容。从生成式人工智能的发展历程来看,自GPT1.0开始,大型语言模型就被视为通往通用人工智能的必由之路。在美国人工智能研究机构OpenAI看来,未来的通用人工智能应拥有一个能够无差别完成人类任务的超大型语言模型,可以从海量的数据中学习各种知识,通过自动生成新知识解决实际问题。

生成式人工智能的强大功能主要源于具有强大自主学习能力的大型语言模型。生成式人工智能的知识生产高度依赖数据,也就是学习材料,想要让生成式人工智能应对无数未见的情况,就必须提供数量足够多、种类足够丰富以及质量足够高的学习材料,否则将无法学到通用规律,给出的回答将是以偏概全的。生成正确且权威知识的前提是以算法技术对大型语言模型的训练,即通过人类反馈进行强化学习的训练方式,包括人类与机器相互提问和回答,训练出语言模型对答案的评判能力。生成式人工智能之所以能够生成符合人类偏好的新知识,是因为向模型中输入的初始数据并非世界知识,而是带有人类价值偏好的知识。当人类偏好知识注入反馈模型的训练中,大型语言模型就能够轻易听懂人类语言并可以进行一定程度的价值判断,主要包括语言生成能力、上下文学习能力和世界知识生成能力。通过这一训练过程,生成式人工智能的知识输出质量将会得到大幅提升,输出的知识会越来越符合人们的需求和认知观念。当然,模型训练的背后离不开海量数据的支持。大型语言模型虽具备强大的数据记忆能力,但这并非促使生成式人工智能变得更加“聪明”的关键因素,只有具备强大的推理能力才意味着生成式人工智能的“智力”得到提升。推理能力的本质是综合运用丰富多样的知识点,推导出新知识,当语言模型的规模足够大时,就会具备相应的推理能力。生成式人工智能的一大贡献就是实现了一种较为理想的人机交互模式,通过设置语言模型的接口层,让语言模型去适配人类习惯的命令表达,而非让人类去理解和适配语言模型。人类只需要以自己现存的知识形式包括数据、文字、图片等信息输入语言模型中,生成式人工智能就能理解人类诉求并进行解答。

生成式人工智能生成知识的关键一步是数据的输入,Web3.0时代分布式网络的构筑使得平台数据开始逐渐流向分散的用户,只要用户自愿将其所拥有的知识数据输入接口层,那么知识的生成将是水到渠成的事情。Web3.0时代的一个重要特征,是分布式文件传输和存储的区块链网络带来的“去中心化”效应。这不仅仅是一种技术上的革新,更多的是一种理念上的创新,即互联网发展将从平台技术创新走向用户理念创新。在这个时期,作为知识的范畴,思想观念将成为影响他人和社会的重要力量,它可以延伸到社会成员存在的每个角落,不同的思想观念在互动沟通中会产生更具吸引力的知识和观念,进而爆发出巨大的作用和能量。信息分布式呈现使得社会结构中掌握信息的主体发生改变,打破了政治权力和平台权力的垄断地位。正如美国学者曼纽尔·卡斯特(Manuel Castells)所定义的,网络社会围绕用户的信息权力组织起它的制度,人们建立了自己的生活并决定自己的所作所为,这种权力来源于人们的心灵。与其他权力形式相比,卡斯特这里所指出的信息权力,不像以往源自意识形态的少数精英权力,权力的主体来自社会公众,源于人们的思想和观念,是一种分散化的、大众化的权力。每个人都可能成为信息传递的发起者,处于数据区块链条当中的每个人,都可能因为了解事实真相而掌握话语权,数据信息弥散在社会个体手中。当互联网平台嵌入生成式人工智能后,这些散落在用户群体中的数据将再次汇集到平台上。
知识权威性来源的改变

传统知识往往来自人类自身的经验和思考,而生成式人工智能的知识生产主要源于技术人员“投喂”海量的数据,“投喂”数据的质量基本上依靠互联网公司及其人工智能工程师把关,通过输入基础数据材料,然后对大量数据进行分析和计算,自动生成新的知识或者推理出未知的知识。

有观点认为,生成式人工智能的知识生产本质上是知识的重组,即把已有的知识构造和知识材料重新组合起来,在一定时间内、一定的限度内抽象出来,然后重组一套答案。数据主义者的阐述证明了上述观点:大型语言模型以新的方式综合文本,重组它们所接受训练的内容,而不是提供简单的重复或并置。也就是说,如果收集的数据足够多且计算能力足够强,就可以创造足够权威的知识。在这种观念之下,知识的来源是那些能够创建海量数据以及提供超强算力的技术人员。简言之,不但知识本身正在被重新定义,而且知识的权威性正在被技术巨头所垄断,因为生成式人工智能创造知识的方法反映了互联网技术寡头的知识观。传统的知识源于科学家,其权威性在于科学家的专业知识、研究成果和经验。而生成式人工智能创造的知识,虽然主要来自计算机技术人员,但其算法和数据源也是经过科学研究和验证的,因此在一定程度上也能具备权威性。因而知识权威性来源的改变,并不意味着知识的权威性会降低,而是说明知识权威性的来源变得更加多元化。这意味着知识权威性的来源将不仅仅是科学家对专业知识和研究成果的验证,而是也可以源于计算机技术人员,或者更直接地说是源于互联网技术公司。

当然,知识是否权威还要考虑知识的合法性问题。就知识的合法性而言,生成式人工智能在生成知识内容的过程中学习了大量人类之前已有的作品,这是否侵犯了他人的著作权?现阶段已有权威杂志进行了表态,比如《科学》杂志就发表声明,表示不接受ChatGPT作为论文的作者,但这并不意味着ChatGPT生成的内容侵犯了著作权。这是因为,生成式人工智能仅仅是学习这些文本内容,是根据已知文本规则使用概率模型来生成新的文本,并非单纯的复制粘贴。在ChatGPT上输入“生成式人工智能在生成文本时抄袭了人类已有作品,这是否意味着侵犯了他人的著作权”。ChatGPT回答,生成式人工智能并不会直接抄袭人类作者的文本,它很多时候表现为一种知识的组合。的确,在制度层面,著作权法律制度并不保护人的观点或思想,只保护观点或思想的表达形式。所以说,生成式人工智能所创造的新知识很可能规避既有著作权制度。除了著作权制度之外,更为公众所关注的是隐私保护问题。在分析式人工智能时代,隐私保护问题已经是一个十分严峻的问题,生成式人工智能的出现使得这个问题更加恶化。一方面是因为生成式人工智能的训练需要大量的数据,其中难免包含一些个人私密信息,一旦泄露会给用户造成损失,比如在GPT-2的训练过程中,就出现了用户私密信息被泄露的现象;另一方面,生成式人工智能在嵌入下游互联网平台后,所采集的数据一定是散落在用户群体中的数据,用户完全是基于自愿交出数据控制权,否则就无法使用嵌入生成式人工智能的互联网平台。因此,隐私与公开的边界如何确定,隐私又在多大程度上可以获得保护,都是难以确定的,在这种情况下,很难说嵌入生成式人工智能的互联网平台侵犯了人们的隐私。

当然,生成式人工智能创造的知识不一定都是权威的。生成式人工智能通过学习大量数据来生成新的内容,生成的新知识是否权威、有价值,取决于所使用的数据集和算法的质量。如果数据集不足或者不准确,算法也不够优化,生成的知识可能存在偏差或错误。因此,需要谨慎地审视生成式人工智能创造的知识,不应一概地看作是权威的,否则将有可能引起平台权力的异化或腐败。
知识生产者的集权倾向

随着社会生活的复杂化,绝大多数社会问题都不再能够凭借个人的或群体的经验得到解决,而必须求助于系统化的知识。同样,当生成式人工智能与下游平台相结合,知识的供给方式、知识本身的内涵以及知识的来源都发生了改变,许多现实问题的解决都不能再仅凭个人或群体的生活经验,而是开始求助于嵌入生成式人工智能的互联网平台。这就导致人的行动开始受到代码化逻辑的支配,互联网平台及其背后的技术寡头作为知识的生产者,产生了集权化倾向。

由于生成式人工智能的知识创造过程融合了专门学科和现实经验,所创造的知识必然有着技术理性的影子。人们在实际生活中将会养成一种价值分离、不作判断的立场。无论是哪一种社会组织,知识的产生都依赖于整个组织网络的管理,知识生产的过程既是组织服务的过程,也是组织管理的过程。两者的显著区别就在于,组织管理中的知识生产意味着要经过“符号化”改造。平台作为知识生产的组织者和管理者,在知识的生产和管理过程中也一定会将所有用户的行动纳入规范的平台系统中来,而平台系统所遵循的规则就是代码或符号。只要运用这些统一的代码或符号,就必然伴随着权威出现以及得到权威的支持,也就会在寻求共识的过程中以尊重技术理性、尊重客观事实的名义控制不同的意见。此时权威就会被用来操控代码或符号,而代码或符号也会反过来支配用户行为。所有的行为都要符合平台系统的要求,而不是符合人的要求,这就是代码化的技术逻辑。福柯曾在《知识考古学》一书中指出,真理并不外在于权力,真理可被理解为生产、规格、分配、流通以及运作声明的一套有条理的程序系统,真理在一种循环的关系上连结到生产并维持它的权力系统,以及它所召唤出来并反过来扩张它的权力效应。概言之,知识产生权力,知识为权力辩护,继而权力又生成新的知识。

福柯认为,知识是权力产生和掌握的重要手段。他强调,知识和权力之间的关系是一种互动和透明的关系,即权力不断地利用和塑造知识,同时知识也在不断地影响和重塑权力。福柯在《规训与惩罚:监狱的诞生》中提出了“惩罚技术”这一概念,即通过知识来实施惩罚,并倡导“知识权力”的观念。他认为,现代制度中的权力并不是像过去一样简单地依靠暴力和强制,而是依靠知识来制造和维系的。通过掌握和运用知识,权力可以不断地在创造和建构中掌握和维持对人的支配关系。福柯提出了知识的“规范化”和“权力化”两个重要的概念。规范化是指社会和文化中逐渐形成的约束人们行为的规矩和标准。这些规范和标准随着许多机构的建立,如学校、医院、监狱等,逐渐被系统化、普及化和正规化,从而使得人们的行为逐渐受到约束。而权力化则是指在知识的形成、传播和运用过程中,权力不断地利用和支配知识,在人们的行为和思考中起到潜移默化的作用。诚然,知识虽然是可以创造的,并一再地被创造出来,但知识并不是权力的目标,而是权力作用的手段,权力也只有依凭不断创新的知识才能维持、延续、扩张其影响力和控制范围。从外部视角来看,由于缺乏科学验证过程,人们对技术的依赖导致其成为人工智能的被动接受者,对于ChatGPT所构建的知识网络感到敬畏而非理解。在福柯看来,人类所有的行动都被“权力”“知识”“真理”这些观念所迷惑。这就从根源上剥夺了人们理解、质疑和挑战的能力。换言之,只要生成式人工智能所创造的新知识既能引导人们的行为,且这种新知识又能被互联网平台利用来加强对用户的支配,从而剥夺人们对自己的控制力和判断力,使得人们成为权力的被动拥护者和执行者,那么生成式人工智能就具有集权化倾向,也就能够被潜藏在背后的互联网寡头利用,从而沦为Web3.0时代的网络集权工具。

四、生成式人工智能与平台权力的再中心化
生成式人工智能重新掌握用户数据
Web3.0时代,普通社会成员均可通过互联网的接入,形成自下而上并向周边辐射的信息力量。就其本质而言,Web3.0致力于服务庞大的经济和社会组织体之上的复杂商业链条、社会系统和交易契约。在其中的一些应用场景中,Web3.0改变了信息传播的起点或发源地,改变了社会少数精英与普通公众之间在信息资源拥有上的不对称关系,增加了信息自下而上传播的通道。基于此,普通社会成员借助区块链网络获得了可以将知识、意志、观念和评价等作为信息资源,为其他社会成员提供信息评价、情感倾诉和寄托的可能,进而生成价值以巩固社会契约关系,各区块中的每一社会成员都可能成为自身数据信息的掌控者。人与物、物与物之间基于契约经济建立商业连接,数据存储技术发生底层重构,“分布式网络”的兴起减少了对平台信息中心的依赖。因此,与Web2.0时期存在中心化的实体控制机构不同,Web3.0时代的分布式网络遵循用户创造、用户所有、用户控制和协议分配利益,即用户掌控数据主权,平台的中枢功能逐渐降低,更多地表现为数据生产主体对自身数据的控制。

当然,数据资源作为互联网时代最为关键的生产要素散落在用户手中,一定会引起互联网寡头的觊觎。因而Web3.0时代分布式网络所建构的分配秩序是不稳定的,互联网寡头可以随时打破这种分配秩序,设法重新收集散落在用户中的数据资源。这说明,Web3.0并非意味着用户重新掌控自身的数据资源,而是意味着互联网寡头对数据资源的重新分配,进而在市场上重新占据垄断地位。比如目前市场上已经出现的生成式人工智能,其中部分著名产品都是由谷歌、微软、脸书等公司生产的,其中微软是OpenAI的大股东,而谷歌则是DeepMind的控制者,因此现阶段整个人工智能市场其实是少数互联网寡头的舞台。从目前这些互联网公司的态度来看,它们均全力支持生成式人工智能产品,最重要的原因就是借助生成式人工智能收集的基础数据,和自己下游业务相结合,从而强化在相关业务领域的市场优势地位,而这将会强化它们各自的市场力量。

由于大型语言模型所能改善的是群体协作过程中创造和应用知识时的语言处理效率,因而只有和下游互联网平台相结合才能发挥出效用。对于用户而言,因为需要连接互联网应用,倘若生成式人工智能嵌入下游互联网平台,则会产生新的方式和形式来聚集用户数据。不同于以往通过用户输入、网页浏览等方式获得数据,生成式人工智能可以通过图像、视频等用户生成的内容获取数据,从而扩大数据来源。同时,生成式人工智能也能够分析和理解用户生成的内容,更好地挖掘用户需求和偏好。对于互联网平台而言,最重要的就是数据材料,而且数据材料越多越好,除非用户断开互联网,否则数据将会重新被收回平台中,生成式人工智能最重要的功能就是将分散在大众手中的数据资源、知识贮存再次集合起来。
生成式人工智能对平台权力的重构

生成式人工智能基于人类反馈的强化学习这一方式,可以使得“人工智能+深度学习”这一方式在社会生活各个领域得到普及应用。从社交媒体、网上购物到影视娱乐、深度写稿,生成式人工智能的出现有望形成“思维革命”,改变人类思考和处理问题的方式,与下游平台结合后可能会颠覆每个原本需要人类创作的行业,由此重塑各领域生态。如卡斯特所言,权力是基于对信息及其传播的控制。如果说Web3.0时代的网络空间中仍有权力存在,那么也只是一种分散的、大众化的权力。Web3.0走向的是一种协议互联网,它的初衷是构建一个去中心化的空间。也就是说,Web3.0时代的网络空间中不存在信息特权和偏见。但是,生成式人工智能所具有的技术逻辑将驱使其成为Web3.0时代的互联网连接中枢。复杂网络科学的“中介性”概念指出,一个人在网络中的中心度取决于其多大程度参与网络中的信息链,当其成为信息传递的中间人,那么他就在网络中占据中心位置。从网络中介性的概念出发,生成式人工智能具备从网络社会中汇集来自无数节点的知识和数据信息的能力,基于海量的用户数据和复杂的信息链条,生成式人工智能将成为Web3.0网络社会中具有极高中介性的枢纽。从技术与“空间—权力”的关系视角来看,生成式人工智能作为一种“权力的媒介”,通过创造新的权威知识重新分配权力,其性质早已超出技术工具本身。

因此,生成式人工智能的兴起很可能会强化互联网寡头在市场上的垄断。当互联网平台嵌入生成式人工智能,生成式人工智能需要海量的数据来训练模型,如果一个互联网平台掌握了大量生成式人工智能所需的数据,并且能够有效地进行分析和应用,那么它就将成为市场的主导者,其他竞争者将很难进入。从这个层面而言,生成式人工智能其实是传统力量的延伸,是互联网中心化垄断模式的又一次强化,所有与生成式人工智能相关的产业,其背后都站着互联网技术寡头。因此,当互联网平台嵌入生成式人工智能,两者的结合也意味着平台权力再次走向中心化成为可能。

传统社会权力的生长多依赖于市场,以市场资源的占有和累加达成权力聚集的目的。但当平台嵌入生成式人工智能,数据和算法成为新的权力要素,平台赋权不再过多地依赖于市场,而是更依靠计算机原理实现代码控制,以及借此对数据和算法进行操控,通过掌握社会基础设施来实现对人的影响和支配,进而对整个社会产生支配力。平台的控制能力是借助技术来实现的。平台的技术控制能力直接体现为平台通过应用场景、嵌入程序和分发结构的设计来控制信息流,并将一系列规则、条款作用于用户主体,保证用户信息在平台技术框架体系内有序流动。这本质上是一种技术性的权力,凭借其在数据资源获取、分析和使用上的技术性优势,对公民、社会组织甚至政府产生决策和行为等方面的控制力或影响力。当用户数据被导入生产、消费环节,平台就会利用算法技术组织框架体系,通过应用场景汇聚数据资源,形成数据关系,促成高效的信息流通,并对用户形成数据监控和追踪。这一过程类似于商业数据监控,但同时具有极高的智能性、隐蔽性和精准性,在用户行为分析、商业情报挖掘以及社会舆情监控等方面均发挥着重要作用。也正是在这一过程中,平台通过算法架构体系吸引和保持用户数量,增强用户黏性,使得用户一直处于平台所设计的应用场景、通信协议以及分发模式所决定的信息流中,用户数据被分解为更细小的微粒。人们在不知不觉中成为平台进行资本积累的“数字劳工”,在无形之中接受平台权力的控制和影响。

Web3.0所秉持的包容、开放、共享、自由和平等的技术规则和价值观,原本意味着用户将从财产排他性占有的垄断中挣脱出来。但生成式人工智能的嵌入,意味着平台权力的重新崛起,Web3.0时代网络空间去中心化的理想可能会落空。

五、“平台+生成式人工智能”带来的治理挑战与应对

英国科技哲学家大卫·科林格里奇曾在《技术的社会控制》一书中指出,如果因为担心一项技术产生不良后果而过早实施控制,那么技术很可能就被扼杀在摇篮中而难以惠及民众;相反,如果控制过晚,技术已经内嵌于经济社会结构中,此时再来解决技术引发的社会问题,成本将会变得高昂且为时已晚。这说明,技术的社会控制,关键在于时机的把握。就本质而言,以ChatGPT为代表的生成式人工智能是一种基础性平台,和下游互联网平台结合后,它的影响将是基础性、全局性和社会性的。相关的制度建设与保障,不仅关系到产品管理秩序、精神文化的生产繁荣,也关乎研发者、投资者、制造者、使用者等多元主体的切身利益,政策与制度安排可以说是牵一发而动全身。因此,就“平台+生成式人工智能”的治理而言,首要的问题就是时机的把控。生成式人工智能的作用并不在于作为聊天机器人或者搜索工具,而是未来将会作为一种基础性平台,被陆续整合到下游互联网平台中,呈现出高度的渗透性和延展性,进而支撑起整个科技、社会、文化、商业、经济等不同层面。比如微软不但将ChatGPT嵌入Bing搜索引擎中,还嵌入Office办公软件中。因此,虽然生成式人工智能的出现和应用提升了人工智能技术在互联网及其下游产业中的主导性地位,并且可能会带来一系列的社会治理困境,但当生成式人工智能并未大规模嵌入下游互联网平台时,其对社会治理造成的影响并未完全显现,在具体制度层面进行规制依然为时尚早,可以借鉴域外国家或地区的人工智能治理经验,先从技术控制和宏观政策方面入手,引导“平台+生成式人工智能”实现规范化运行。
技术控制先行
技术问题的治理必须首先立足于有效的技术手段和技术工具之上,倘若一项新兴技术引发的社会问题能够依靠技术手段予以内部优化,那么治理路径应该以技术为先,外部政策与法律控制无需过早介入。生成式人工智能的内容生成机制依托数据库和算法模型两大关键技术。因此,内容生成的基础是数据,对海量数据的分类和管理是实现技术控制效果的重要前提,主要包括对基础数据材料的采集整理、数据的质量检验、数据的标准化、数据的存储和数据的分类管理等环节的把控,以实现数据的安全、高效和可靠的利用。内容生成的关键技术是算法,对于训练模型的训练是实现技术控制效果的关键因素,主要包括对算法程序的选择、评估、优化和可解释性的治理,尽可能排除算法程序的偏见,提高算法的安全性和可靠性。

具体而言,互联网平台应建立由相关领域专家参与的生成式人工智能的训练机制,开发可信赖的增强学习算法,人工智能从业者需要对生成式人工智能的工具能力和可靠性进行持续跟踪和反馈,预防将偏见注入训练模型。比如,在训练阶段,人工智能工程师需要采取理性中立和客观真实的立场提供人类反馈,这样在强化学习阶段就不会产生不必要的偏见。OpenAI也承认在对ChatGPT的训练中,“投喂”的训练数据存在某些类型的偏见,比如工程师更喜欢更全面、更长的答案。此外,人工智能工程师需要设计方案来评估生成式人工智能生成新知识的偏见程度,以及时矫正偏见。若用户恶意误导,某些恶意言论可能会通过大型语言模型自动生成误导性或虚假内容,从而制造影响力暗中操纵舆论。对此,对于采用生成式人工智能的互联网平台,应当要求用户实名认证,规定用户不能上传虚假信息和发布色情、暴力等不良信息。
包容审慎的政策立场

生成式人工智能刚刚崛起,其在产品形态、社会化应用和产业发展方面的走向都处于初期但快速发展阶段,因而坚持一种包容审慎的政策立场,对于塑造一个良好的智能互联网产业生态至关重要。

作为全球智能互联网制度建设的风向标,欧盟正试图在人工智能全球治理规则的制定上掌握主动权。以往的人工智能监管主要集中于传统的人工智能模型,而非以ChatGPT为代表的生成式人工智能模型。随着ChatGPT的出现,欧盟委员会正尝试增加规制此类生成式人工智能的规则,拟出台全盘的人工智能治理方案。欧盟人工智能法案修正案第4a-4c条规定,可用于任何高风险领域的通用人工智能系统,如就业、医疗、信用评分、行政执法都必须遵守人工智能法对高风险系统规定的全部义务。这一条款一定程度上可视为监管生成式人工智能的核心条款。可见,欧盟制定的人工智能法案对高风险人工智能系统的提供者课以较重的义务。但一些学者提出,此类法规可能会阻碍大型人工智能模型的开发和使用,对人工智能产业的发展带来不利影响,欧盟应将人工智能法案的全盘监管方案转到具体的监管职责和内容治理方面。目前,人工智能法案的修改草案在欧盟议会受阻。

欧盟的人工智能监管态度可为我国相关政策的制定提供一定的经验。就我国而言,必须认识到过去直接针对信息、内容和传播过程的互联网规制模式可能不再那么有效,但在目前生成式人工智能尚未完全落地应用之前,过于超前地规划立法方案和建构规制路径,可能会阻碍人工智能技术的创新,迫切推进基础性人工智能立法并不合时宜,单纯的“围追堵截”模式将处于防不胜防的尴尬境地。为了确保不阻碍人工智能领域的创新,同时保障社会公众免受新技术崛起带来的不利影响,针对生成式人工智能的治理不宜过早地实施法律控制,以免妨碍人工智能的研发和社会化普及,但也不能放任发展,而是需要在其社会化普及之前掌握好主动权,积极酝酿相关政策。在前期政策层面,我国可以秉持“边发展,边治理”的立场,采取一种包容审慎的监管态度。目前,ChatGPT主要用于机器人聊天和搜索引擎整合,主要面向个人消费者,但ChatGPT的横空出世,对于大型互联网公司而言是一个完成颠覆性创新的绝佳机会。因此,当下可以先采取包容审慎的治理态度,在政策层面既要强力支持相关互联网公司,激发其积极参与生成式人工智能产业布局,当技术应用出现负面影响时,又要避免一刀切式的消极治理,坚持问题导向,有针对性地对在社会层面产生严重负面影响的内容进行整治,避免出现简单一刀切的情况。

在人工智能政策方面,我国政府及其部门正在积极探索,包括国务院发布的《新一代人工智能发展规划》、人工智能治理专业委员会发布的《新一代人工智能治理原则》《新一代人工智能伦理规范》,以及科技部等六部门印发的《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》。2023年4月11日,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》),目前正面向社会公开征求意见。《征求意见稿》第1条开宗明义地指出,“为促进生成式人工智能健康发展和规范应用……制定本办法”,官方层面表明鼓励和支持人工智能技术及其产业创新发展的态度,所制定的一系列对策也均以引导和规范为主;同时,国家也对人工智能技术可能引发的伦理和法律风险保持重点关注,《征求意见稿》第4条规定,“提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗”,并提出了具体要求。值得一提的是,当前我国的人工智能政策几乎建基于分析式人工智能进行的,对于生成式人工智能可能引发的知识体系再造,以及与下游平台结合后对数据的收集和利用、互联网内容生产、网络社区环境等问题未有回应。《征求意见稿》的发布,意味着我国将在原有人工智能政策的基础上进行补充和完善,出台专门适用于生成式人工智能技术及其产业化应用的官方政策,“平台+生成式人工智能”的运行将具有专门性政策的规范和引导。

结语

在前互联网时期,权力形式较为单一,只有国家权力和社会权力之间的博弈。Web2.0时代,以互联网企业为代表的社会力量借助资本与技术的双重加持,演化出平台权力,并在国家与个人之间创制了一系列的“中间制度”,这一定程度上分散和削弱了国家在网络空间中的治理能力。随着国家对网络空间治理不断加强以及人们权利意识的增强,平台权力发生流散,社会成员开始掌握信息生产、分发和利益分配环节。从传统社会权力到平台权力,再到Web3.0时期的分散化的用户数据主权,每一种中心化的权力都不可避免地面临去中心化的命运,而权力的每一次去中心化都将有一种更为中心化的权力产生。大型语言模型ChatGPT的出现,意味着用户数据主权的存续时间是短暂的,潜藏在ChatGPT背后的的互联网寡头将可能从根源上剥夺人们对知识的理解、质疑和挑战的能力,Web3.0时代可能会再次形成更为中心化的平台权力。当互联网平台嵌入生成式人工智能,平台权力出现恣意和过度中心化特征时,如何确保现代法治的基本原则能够在网络空间有效贯彻和实施,防止平台利用其中心化的角色滥用权力,这将是互联网发展进入Web3.0时代所要面临的法治难题。

往期精彩回顾

罗培新|世界银行新旧营商环境评估规则及方法的比较——兼论优化营商环境的道与术

目录|东方法学2023年第3期(数字化专刊2)

商建刚|生成式人工智能风险治理元规则研究

袁曾|生成式人工智能的责任能力研究

唐林垚|具身伦理下ChatGPT的法律规制及中国路径

周维栋|生成式人工智能类案裁判的标准及价值边界



上海市法学会官网

http://www.sls.org.cn



继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存