AI治理专栏丨胡凌:人工智能生成作品版权保护与生产方式变迁
人工智能生成作品版权保护
与生产方式变迁
胡凌(北京大学法学院副教授)人工智能生成内容的可版权性是一个老话题,相当多的论者都在抽象意义上分析语词,这可以开展无尽甚至是哲学层面的想象,但这也会因为没有实际纠纷而缺乏对人工智能具象直观的理解和对具体利益的权衡。北京互联网法院最近作出的相关案件一审判决,有助于我们重新思考这个话题,并理解司法裁判在个案中的价值。
现有评论集中在人工智能生成内容的老问题上,抽象认为如果人工智能生成内容不以用户自由意志为转移,那么就不构成著作权法保护的作品,简言之是人介入的程度太少,不足以控制机器生成内容,从而无法体现人在创作过程中的独特性。这一标准在字面上容易理解,如果一些内容完全由机器基于简单指令自动生成,就像“人工智能生成内容”(AIGC)这一语词字面上暗示的那样,那么确实不太需要特别讨论。但这个词容易产生偏差,可能涵盖了从人类用户深度参与使用到一键生成的相当范围的光谱,这取决于不同类型的软件和界面呈现,甚至也掩盖了背后不同的软件商业模式,如果只是抽象地使用该词,不同论者头脑中想象的对象可能不是同一种东西,由此形成理解冲突。目前说起这一问题时,基于启发式,很多人马上会想到ChatGPT这种基于对话界面的大模型人工智能,在免费许可的使用协议基础上进行对话,即在聊天框中发送简短指令,机器即迅速返回某种图像结果。在这种模式下,人类参与程度确实很低,但这种想象在本案中并不契合,甚至相差甚远。
本案的独特之处是原告使用了Stable Diffusion,一款较为专业的国外开源大模型绘图软件,也较为小众。为使用这一软件,用户不仅需要一定程度的学习来熟悉软件运行和各类提示词的使用效果,更需要不断变换提示词对作图效果进行筛选,制作一张令人满意的图像可能会经过相当多次的调试与试验。这一过程外表看起来是大模型软件自动生成,但实际上融合了相当多的人类劳动和创作行为,法院的判决书对这一过程已经较为充分地进行了展示。如果研究者们熟悉这个创作过程,就不会把“自动生成”过程想象成用户仅仅给出几条简短指令,屏幕上就会出现令人满意的结果。当然,和传统的CG绘图软件相比,大模型软件绘图确实增加了相当的不确定性和多样性,这也取决于大模型训练使用的语料库内容和质量,生成图像的很多细节也确实无需用户考虑,以至于有观点认为生成物仍然和用户行为无涉。特别是随着开源大模型的不断演进变化,同样的提示词可能会生成不同的结果。但在笔者来看,这都不意味着人类在创作过程中变得更加无所事事。相反,对提示词的琢磨、编排、调整,对风格模式的筛选等并非没有意义,而是意味着用户不是简单对图像进行取舍,而可能是在软件辅助的意义上对作品创作进一步提升。提示词越详细,大模型给出的答案和图像复杂程度可能就越高,不同用户使用该软件进行的创造就会有很大不同。此外,可能会有人觉得提示词很容易学会,只要在软件中进行默认设置或通过创作社群分享复制粘贴即可,成本很低,但本案表明这并非易事,在本案中的正向与反向提示词达到上百个,增减特定提示词和参数都会带来不同的结果。对提示词和参数掌握的熟练程度本身不能说明对Stable Diffusion的使用门槛就更低,而这种图像结果目前在简单对话的大模型软件中难以直接生成得到。笔者仅想说明,可能有必要摆脱一种意识形态,即只要被贴上“人工智能”或“自动生成”的标签,似乎某种软件就很容易得到便宜快捷的结果,而不需要询问关切人在其中的作用。无论是以往的数据标注还是本案,我们都看到了人在软件使用中的真实劳动地位,即使和过去工业时代的创作过程不同,在这个具体案件中,笔者仍然觉得可以认定用户的独创性存在且有意义。
问题可以继续问下去:本案到底保护了什么?如果都是某种边际价值,那么不保护是否也可以?这样还能迎合一般学者对人工智能生成的抽象理解,并与国际接轨,何乐不为。严格说来,在两可案件中决定是否保护在后果上确实可能差别不大,特别是如果该案的发生在概率上可能是随机的,涉及的当事方利益并不显著,赔偿的数额也不大。但仍然可以进一步分析。在大模型软件发展现阶段看,该案实际上保护的是用户对此类软件学习使用的投入成本和思考创作成本。就本案而言,如前所述,使用Stable Diffusion生成图像并未简单到和用户界面对话一样,这意味着创作过程不是像有些论者想象的那样是简单发布指令得来。如果缺乏保护,可能会降低人们对此类软件使用的学习投入,并可能在整体上减少对此类软件的探索,进而进一步降低该行业对大模型软件的进一步开发。当然,这些影响都是间接的,甚至只是一种可能。从这个意义上说,如果本案判决有什么激励的话,那就是明确表明使用此类专业软件进行创作仍然有门槛、稀缺性和社会价值,此类生产能力值得著作权法保护。简言之,法院是通过保护使用此类软件的生成结果,鼓励更多使用行为和投入,进而推动社会创作转向更多的基于大模型软件的使用,带动进一步的市场和营销行为。由此该案确实不仅在字面意义上否定了对传统创作过程的想象,更提出了一种面向未来的价值判断,这种判断承认创作者从传统工具转向大模型软件工具的特定行为利益。从这个案件开始,我们将会不断见证一种更多由机器辅助创作的生产方式的扩展,有意义的研究问题便是追问,这种生产方式中人类用户的地位在哪里?这种生产方式需要何种法律支撑?不同发展阶段是否会有不同?
随着技术飞速变化,个案中的裁判完全可能动态调整。例如,如果在未来随着类似人工智能绘图软件的进一步增加和普及,也许在一般聊天对话框中就会直接通过自然语言生成高质量图片,如通过文心一言或ChatGPT生成的图像的升级版。在这种情况下,不排除用户不再提供更加深入的提示词创造和筛选,而且学习和生产成本进一步降低,那么大模型的生产能力就并非稀缺,法律就不太需要耗费公共资源进行专门保护,因为人人都可以自己生产高质量图片,每张图片的社会和经济价值很低,甚至也不会有人专门进行权属主张。这时法院就可以适时转换标准,将此类复制行为视为负外部性较低的合理使用行为或认为机器生成内容进入公有领域。因此动态而非一成不变地看待行业和技术实现的变化及其规则可能比纠缠于某个特定语词更有意义。
本案还有一个默认但重要的前提即商业模式。当前很多内容平台也都基于用户创作内容对大模型进行训练,并辅助用户生产更好的内容。在这种模式中,平台允许作者使用大模型软件生成并上传图像,相互分享学习,其结果是平台需要为生成和上传的图片承担管理责任。即使有巨大投入,平台可以主张也可以不主张对这些具体图像的著作权,而仍然可以通过反不正当竞争法来保护其整体性利益,例如不受爬虫大量爬取或被竞争对手软件学习。但本案中Stable Diffusion的用户协议一开始就将自己塑造成一个基于开源的工具,即放弃任何生成图像的著作权,没有开发平台服务模式,进而也降低了管理成本和可能带来的风险。用户享有其著作权,但也自担风险。无论将来是否有调整,这种放弃控制的策略也可以使用户有更多动力使用和创作,迅速塑造新的生产过程和市场。
最后,如果非要进行严格的社会后果分析,我们不得不承认任何司法行为也都是内嵌于特定社会结构和利益过程,只是没有那么直接罢了。国外目前涉及大模型软件侵权的官司主要集中在语料库训练合法性问题上,利益冲突较为明显,国内也开始有类似纠纷争议。本案中涉及到的隐性利益冲突并非是图像使用群体与创作者之间的冲突,而更可能是与Stable Diffusion(或类似软件)相互竞争的手工画师群体或使用CG软件等既得利益群体。后者会担心前者的大量使用以及法律保护会进一步削弱自身群体的竞争优势和市场份额,特别是如果大模型软件的训练也要基于人类画师的创作,也许会产生更为激烈的冲突。其中还隐藏着另一个行业悖论,即如果越保护人工智能生成作品,人类画师就越缺乏动力进行生产,甚至退出这一行当,这会潜在地导致训练的语料库数量和质量下滑,进而反过来影响大模型软件的服务水平。如何平衡和推动两类利益群体的竞争和共生关系,稳妥地纳入同一种生产方式中,需要进一步观察。
编辑:王璇琦