王兆艺:人工智能生成内容的侵权风险及其规制路径——以ChatGPT为例 | 娱乐法内参202304
【来源】北大法宝法学期刊库《娱乐法内参》2023年第4期(文末附本期期刊目录)。因篇幅较长,已略去原文注释。
内容提要:ChatGPT等人工智能生成内容工具给现有法律体系带来了挑战。在私法领域,人工智能生成内容技术的潜在侵权风险是多领域的,既存在侵犯著作权等知识产权的潜在风险,也极有可能导致对肖像权、名誉权、隐私权与个人信息权等人格权的侵害。现有的专门性规范多是公法领域下的监管性要求,难以化解上述侵权风险,人工智能生成内容应用场景下的侵权责任体系函待重构。应当严格区分不同生成内容方式下的责任承担主体,并借鉴《民法典》侵权责任编中关于无过错责任的规定,原则上由生成式AI的开发者对人工智能的自主生成行为承担严格责任,但可设置若干法定免责或减责事由,以实现法律保护与促进技术发展两者之间的动态平衡。
关键词:人工智能生成内容;AIGC;侵权风险;无过错责任
一人工智能生成内容相关问题的提出目次 一、人工智能生成内容相关问题的提出
二、人工智能生成内容的侵权风险及现有规制路径
三、人工智能生成内容的侵权责任体系的重构
四、结论与展望
ChatGPT的横空出世,使得人工智能生成内容这一概念成为了2023年初的流量密码。实际上,人工智能生成内容(Artificial Intelligence Generated Content,以下简称AIGC)并不是一个新生概念。相反,在过去十年,这一技术呈现出了爆发性的快速发展,类似于 DeepFake、ChatGPT的人工智能生成工具不断诞生。人工智能生成内容是指由人工智能技术所生成的文本、图像、音频或视频等可被人类所感知的内容,AIGC通常是通过训练机器学习模型和分析大数据所产生的,并通过机器学习和数据分析不断实现自身优化。在国外,生成式AI所涵摄的应用场景是丰富的,上文所提及的ChatGPT是一种文字生成式AI,此外还有诸如以DeepFake等换脸应用程序和DALLE2等绘图应用程序为代表的图像生成式AI,以及Meta公司所开发的Make-A-Video等视频生成式AI。我国AIGC技术水平近年来也已有了长足的发展,人工智能生成内容的商业化成果不断涌现,例如商汤科技所开发的AIGC“虚拟IP”直播、“数字员工”等AI生成内容,以及昆仑天工所开发的天工巧绘SkyPaint、天工乐府SkyMusic、天工妙笔SkyText、天工智码SkyCode等AIGC模型,覆盖了图像、音乐、文本、编程等生成场景。
令人遗憾的是,在这样一个新兴技术不断加速出现在人类日常生活中的时代,现有的法律体系往往不能解决新兴技术所带来的风险与挑战,这一矛盾在AIGC技术的应用场景中尤为明显:因为AIGC技术具有较强的不确定性,这就必然与法律制度所追求的确定性相冲突。人工智能生成内容技术的深刻复杂性及其潜在的法律风险也无疑引发了法学研究者的重视,在现有国情下探索出一条妥当的规制路径,在有效规范人工智能技术的同时,也为AIGC技术的快速发展预留必要的制度空间,实现两者的动态平衡,确有必要。
国内现有研究对于人工智能生成内容的探讨多集中在生成内容的法律属性这一问题之上,而缺乏对人工智能生成内容的侵权风险的分析;或虽有探讨人工智能生成内容的侵权风险,但也多集中于知识产权领域的讨论,而非系统的体系化分析。有鉴于此,本文将展开对国内外规制路径的比较分析,并集中探讨AIGC应用场景下的典型侵权风险及其责任承担问题。例如,在AIGC应用场景下,如果代码开发人员负责创建一个算法,该算法随后通过自我学习而不断变化,在某次具体应用场景中,其生成内容最终导致了损害的发生,那么开发人员是否仍对损害负责,即使其在客观上没有直接实施侵权行为,在主观上也无故意或过失的侵害意图?再如,受技术水平的限制,现有的大部分人工智能生成工具的机器学习水平不高,其生成内容多受制于操作者的输入内容,并在此基础上生成相应的文字、图像、音频等内容(例如上述ChatGPT、DeepFake等应用程序便属于基于用户输入的人工智能生成工具),对于此类人工智能生成场景而言,如若其生成内容在客观上造成了损害结果,其责任主体又当如何确定?承担侵权责任的,其责任构成要件相较于一般侵权责任而言是否应当有所异化?对于人工智能生成场景中上述侵权法问题的梳理和分析,确有必要。
(一)AIGC 场景下典型侵权风险的类型化梳理
在展开对生成性AI场景下的潜在侵权风险之前,有必要先对其基本运作逻辑及其分类展开介绍。
1.对著作权等知识产权的侵权
生成型AI在模型建构和优化的过程中,都不可避免地会涉及到基本素材的收集,无论是通过非数字作品数字化的手段获取素材,还是通过脚本实现对互联网上已有作品的抓取,都可能会被认定为是一种复制行为,进而可能侵犯作品人的著作权。二是生成内容也可能涉及对他人作品改编权的侵犯。有学者总结出,“人工智能进行创作时有三种可能的输出结果:一是输出具有独特风格的全新作品;二是输出与原作品构成实质性相似的作品;三是输出带有原作品创作元素等基本表达的新作品。”现有的AIGC技术所生成的内容往往难以达到第一种结果,而在第二、第三种情况下,则可能会分别侵害到相关权利人的知识产权。例如 ChatGPT的答复当中拼接了其语料库当中的受著作权保护的作品,那么在生成行为没有取得相关权利人的授权,也不构成合理使用的场景下,这一行为应当被认定为侵权。
另外,现有的著作权侵权认定标准,即实质性相似规则,在人工智能生成内容场景下也具有应用难题。实质性相似规则在本质上是一种较为抽象的判断标准,其在认定侵权时只能起到“定性”的作用而难以起到量化的作用。但在AIGC技术应用场景下,由于生成式AI 能够自动化地从大量素材中提取较为抽象的基本元素,并进行不确定的组合与变化,最终生成的内容可能难以被认定为与某个原作品之间具有实质性相似。因此,即使社会一般人均认为在常理之下某一生成行为显然侵犯了原作品的某种知识产权,其侵权性质仍难以被证成。
根据前文所述,人工智能在生成文字、图片等内容的过程中很可能侵犯他人作品的复制权、改编权等权利,那么AIGC场景下是否可能适用《著作权法》第二十四条所规定的合理使用原则,以消除在生成内容过程中所潜在的侵犯著作权的风险?所谓合理使用,是指他人可以在法律规定的情况下,不经权利人的许可而自由合法地使用享有著作权保护的作品。遗憾的是,在我国现行《著作权法》所规定的合理使用框架下,人工智能很难以合理使用作为法定豁免事由。关于合理使用认定标准的直接规定体现在《著作权法实施条例》第21条:“依照著作权法有关规定,使用可以不经著作权人许可的已经发表的作品的,不得影响该作品的正常使用,也不得不合理地损害著作权人的合法利益。”在生成式AI场景下,目前主流的开放性人工智能生成内容平台对他人作品的使用基本很难满足上述判断标准。一是因为现有生成性AI的开发者多为商业公司,因而难以排除生成行为本身具有商业目的;二是因为AIGC技术的运行逻辑便是在海量基础数据的深度学习基础上,不断优化算法模型自身,并自主生成相应的内容,因而便不符合“少量复制”等客观要求,而收集原始数据这一行为自身就可能被认定为影响权利人合法权益的正常实现,更何况现实中不乏有暴力爬取数据乃至于破坏权利人所设置的保护机制等情形的发生。
2.对民事主体人格权的潜在侵权风险
在人工智能生成技术的应用场景之下,特别是在深度合成技术的应用领域,极有可能会导致对肖像权、名誉权、隐私权与个人信息权等人格权的侵害行为的发生。
近日,杭州互联网法院审结了一例AI换脸侵犯肖像权案件,法院认定“AI换脸”应用程序开发者涉嫌使用深度合成技术侵犯原告肖像权,判令其赔礼道歉并赔偿损失共5000元。在该案中,原告的某段发布在互联网上的视频被“AI换脸”应用程序开发者收集为素材,该应用程序的用户可通过上传个人照片,将视频模板中的人脸替换成用户上传的人脸,除五官发生实质性变化之外,其余内容都与原视频保持一致。
杭州互联网法院认为:“民法典明确将‘不得利用信息技术手段伪造等方式侵害他人的肖像权’作为侵害肖像权的一种典型形态予以规制。‘利用信息技术手段伪造’是指利用信息技术手段编造或者捏造他人肖像,以假乱真,以达到利用不存在的事物来谋取非法利益的目的...本案中,原告对案涉要素模板视频及替换后视频中所载对应形象的人物肖像均享有肖像权。对于换脸前的视频,原告虽以古风妆容并着汉服出镜,但从其面部形象、体貌特征,普通人仍可对其主体身份进行轻易识别。该视频被上传至App作为模板供他人使用时,视频内容未做篡改,亦不发生主体形象不可识别的问题。对于换脸后的视频,原告仅留存身体形象,但对比原视频素材,普通人仍能通过未被修改的相应场景和细节识别出身体形象对应主体为涉案原告。被告未经原告同意,通过技术手段提取涉案古风肖像视频,并擅自上传至其运营的换脸App中供用户选择使用,该行为本身已侵害原告肖像权...综上,被告未经原告同意,利用深度合成技术使用其肖像制作了伪造视频,依法应认定为构成对原告肖像权的侵害。”
该案属于人工智能合成场景下的新型侵权案件。实际上,这并非是“AI换脸”应用程序的“首次登场”。早在2021年,艺人刘昊然被深度合成技术伪造出不雅视频并在网上大量传播。尽管刘昊然工作室及时公开澄清和声明,但8月这段假视频再次在社交软件上广泛传播,对刘昊然个人声誉造成负面影响,该生成内容的制作行为显然侵犯了刘昊然的肖像权与名誉权,但由于难以追踪其始作俑者,受害人最终也难以维权。
AI生成内容行为除了可能侵犯相关民事主体的肖像权与名誉权,还可能涉嫌侵犯相关民事主体的隐私权与个人信息自决权。例如在生成式AI建模过程中,开发者可能会通过数据爬取等未授权方式收集到公民手机号、照片、聊天记录等隐私信息并进行不当处理,如若处理不当,还可能会导致隐私泄露至相关人工智能生成内容当中。再者,在用户使用ChatGPT 等生成式AI 工具时,也会被告知可能需要其提供相应的个人信息以更好地发挥该工具的功能。但这一信息收集行为的范围和程度可能是未经正当考量的。人工智能技术实际上影响了个人隐私等敏感信息自决行为的“自治性”,因为人工智能的便利性是以收集和使用用户的个人信息为基础的。“用户表面上虽享受到人工智能技术的便利,实际上却是在‘便利性’与‘让渡个人信息’二者之间作出选择。”上述收集与处理相关信息的行为均涉嫌侵犯到相关民事主体的隐私权与个人信息相关权利。
现实中类似于上述涉案“AI换脸”程序的生成式AI数量还有不少,并且随着AIGC技术的发展,其应用场景也不断出现和丰富,比如虚拟偶像、定制表情、声音复制、音乐合成、类人创作等,但由于AIGC技术固有的不确定性、自动性,生成式AI的开发者也难以控制生成内容过程中的侵权风险。考虑到AIGC技术应用场景的丰富性,其生成内容行为可能涉嫌侵犯相关民事主体肖像权、名誉权及隐私权等多种人格权,潜在危害极大,而传统侵权责任法可能难以应对这一新兴场景下的诸多难题,探寻到一条适当的法律规则路径具有现实紧迫性。
(二)国内外人工智能生成内容的法律规制路径
如上文所述,AIGC技术带了诸多潜在且不可控的侵权风险,构成了对传统侵权责任法的实质性挑战。在面对这一挑战时,中国和美国在对人工智能生成内容的法律规制上各有侧重,选择了不同的法律规制路径。
就针对包括AIGC技术在内的人工智能的法律规制而言,我国目前更多的是从宏观政策的角度加以支持与规范,而非直接展开更为具体的立法工作。在监管层面上,目前对人工智能生成内容的法律规制在电子商务、数据安全和个人信息保护等领域的相关立法中已经有个别条款分别涉及,但尚未形成统一、周延的法律规则体系。
2023年由国家互联网信息办公室、工业和信息化部、公安部联合出台并实施的《互联网信息服务深度合成管理规定》是第一部专门规范人工智能生成内容的部门规章,这一规范性文件分别从制定目的依据、适用范围和总体要求;深度合成服务提供者的义务;深度合成信息内容标识管理制度;多方服务提供者的监督管理相关要求;法律责任五个部分对生成式AI这一领域展开规制,具有较强的针对性,可以在一定程序上填补该领域的法律漏洞。
总体而言,我国目前对包括AIGC在内的人工智能技术的法律规制仍然是以分散式立法模式为主,相关法律规范分布在不同层级、不同领域的法律规范中。这符合我国一贯针对包括人工智能在内的新兴事物所采取的渐进式立法思路,但现有的专门性法律规范也体现出效力层级不高、内容不够具体等显著问题。
在国外,人工智能生成内容的监管也从未停止。当然,美国当前也尚未在AIGC技术领域形成统一立法。但早在2021年,美国国会众议院议员便提出了DEEP FAKES 问责法案(DEEP FAKES Accountability Act,117 Bill Tracking H. R.2395),以填补该领域监管规则的缺失,这是美国联邦层面的首次立法尝试。该法案规定了深度合成的合规要求,并规定了对相关违规行为的刑事处罚。具体而言,它要求深度伪造的生产者通常遵守某些数字水印和披露要求(例如口头和书面声明),不得制作不符合相关水印或披露要求的深度伪造品,以及不得更改深度伪造品以删除或有意义地掩盖此类要求的披露。违反者将被处以罚款,最高五年监禁,或两者兼而有之。它还规定了民事处罚,并允许个人提起民事诉讼要求损害赔偿。
而在州层面,关于人工智能生成内容的立法草案也在近年来不断涌现,最新的州立法进程当属是美国马萨诸塞州参议院第1827号法案(2023 Massachusetts Senate Docket No.1827)。在法案摘要部分,立法者指出了该法案目的便在于规范生成人工智能模型,如 ChatGPT,以保护公众的安全、隐私和知识产权。具体到法案内容部分,立法者则从定义、操作标准、登记要求、执法几个章节对诸如ChatGPT的生成式人工智能的监管要求加以说明,这是美国州层面的最新立法尝试。
通过对上述国内外法律规制路径的审视,我们可以发现针对人工智能生成内容技术的现有规范多是公法领域下的监管性要求,尚不能很好地解决人工智能生成内容场景下存在的诸多私法问题,例如侵权风险的化解。不可否认的是,就AIGC技术的发展水平及其当下应用情况而言,采取“传统法律修正”的模式是一种可行的进路,但这就要求我们合理使用法律解释技术,以解决好AIGC技术所带来的诸多问题。针对上文所提及的诸多侵权风险,尤为重要的是这一场景下侵权责任体系的重构。
(一)AIGC 场景下的侵权责任承担主体的明确
侵权责任承担主体的模糊是造成生成式AI场景下侵权风险难以控制的主要原因之一。试问如若难以确认责任主体,又如何确保AIGC技术应用场景下相关民事主体的合法权利能够得到保护?
部分学者认为在人工智能侵权场景下,特定的算法开发人员应对该算法造成的伤害负责,这是传统侵权法视角下的正确做法。但在AIGC技术的应用场景下,不仅存有生成式AI工具自动侵权的情况,也有用户输入相关指令后所生成的内容侵权的情况,如果适用单一责任主体的侵权责任架构而不加区分,则可能会导致责任承担主体识别错误的发生。
事实上,在这两种不同运作模式下,应当对侵权责任的承担主体加以区分。在简单的指令输入输出型生成式AI场景下,例如利用初级换脸技术进行换脸,如若换脸后的图片侵犯了相关主体的肖像权,则原则上应当追究指令输入人,也即图片制作者的相关责任。当然,在互联网时代,考虑到信息不对称等问题,受害人可能很难确认原始图片制作者的真实身份。这就有必要强调在AIGC应用场景下,人工智能生成内容服务提供者也应适用“通知-删除”规制,在接到通知后应采取删除、屏蔽、断开链接等必要措施,快速制止侵权行为以防止损害结果的不当扩大,并提供相关指令输入者的身份信息,协助受害人展开有效维权。
而在更为复杂的自主生成式AI应用场景下,对于人工智能的自主侵权行为,则原则上应当由开发者承担最终的侵权责任。这是因为人工智能生成行为在本质上还是体现着算法编写者—生成式AI开发者的意志,可以将其自主生成行为视为“代理”开发者从事行为或作出决定,相应的就应当由开发者承担包括潜在侵权责任在内的法律后果。还有学者认为,这在本质上是一种替代责任,也即可以比照父母对未成年人子女的责任或者说监护人对被监护人的责任,或者雇主对雇员的责任,让人工智能开发者承担替代责任。当然,不论从哪种解释进路出发,得出的结论也是一致的。在对人工智能生成内容场景下的侵权责任承担主体作出二元区分后,就有必要转入对归责原则的进一步讨论当中了。
(二)AIGC 场景下归责原则的明晰——无过错责任的适用
归责原则是强调责任人承担侵权责任的依据和基础,也是处理各类侵权纠纷案件所应遵守的基本准则。《民法典》继承了原《侵权责任法》的二元归责体系,即以过错责任为主,无过错责任(严格责任)为补充。无过错责任的适用具有严格的法定性,这就意味着,由于法律没有特别规定,对于人工智能生成内容场景下相关主体侵权责任的判定只能采取过错责任的归责原则。但事实上,适用单一的过错责任原则难以解决AIGC技术所带来的诸多侵权难题,一是该场景下受害人的举证难题问题,二是该技术潜在的侵权风险与其侵权成本之间的高度不对称性。
呼吁适用无过错责任而非过错责任的主要原因之一便是考虑到AIGC技术的独特性,尤其是“黑匣子”问题严重影响了相关民事主体之间的法律关系的可预测性与相对稳定性。所谓“黑匣子”问题,主要是指“在人工智能时代,由于算法的复杂性,算法带来的结果可能无法预测,并在更大范围内带来系统性的不利后果。”如前所述,现在的人工智能生成工具多数具有自主学习能力,这就意味着人工智能生成工具不是简单地实现人类设计的算法:它们可以通过修改原始算法,甚至完全从头开始独立生成输出来创建自己的算法,这被称为“机器学习”。为机器学习而开发的计算机具有内置算法,不仅可以从数据输入中学习,还可以发展并做出定向和独立的未来决策。通过反复收集和处理用户数据并分析用户行为,人工智能技术背后的算法不断自主地进化并变得“更智能”。
正如人工智能生成工具ChatGPT在网站的显著位置所标识的那样:“我们的AI可能会审查对话以改进我们的系统”,但这可能也意味着AIGC技术的发展趋势之一便是将更多的不确定性因素纳入进来。虽然各国监管者均在逐渐重视人工智能算法的“透明度”和“可解释性”,但就目前看来这些概念的实现是存在着技术壁垒的,人工智能生成内容开发者都难以完全控制机器学习的结果,以及准确实现对生成内容的事先控制。例如据《纽约时报》报道,美国新闻可信度评估与研究机构NewsGuard对ChatGPT进行了测试,虚假信息的研究人员对 ChatGPT提出充斥误导性叙述的问题,发现它能在几秒钟内改编信息,产生大量令人信服却无信源的内容。但因为这一平台尚且没有完全的控制生成内容的能力,这可能被那些有心之人所利用,成为高效的“犯罪工具”。事实上,开发者OpenAI也于该平台的显著位置处表明虽然ChatGPT有适当的保护措施,但系统可能偶尔生成不正确或误导性的信息,并产生令人反感或有偏见的内容,它无意提供建议。
那些主张对生成式AI实行严格责任制度的人常常从产品责任的角度来进行类比。在产品责任制度中,产品制造者对其产品缺陷所造成的损害负有无过错责任。依照学界通说,适用无过错责任的主要原因在于它节省了复杂而漫长的诉讼的交易成本,并将责任归置到最能吸收或转移成本的行为主体身上。本文赞同上述观点的结论,即人工智能生成内容侵权场景下应当采取无过错责任的归责原则。但除了上文所提及的诉讼成本问题、举证责任问题等,至少还有两个论点清楚地表明,无过错责任的归责原则应当适用于AIGC技术的应用场景。
第一个理由是与“委托-代理”的法律关系背景相类似。首先,高级人工智能与开发者之间的关系最好被类比为“委托-代理”的法律关系,其中生成式AI是代理人,包括实体机器和虚拟算法。解释为“委托-代理”的法律关系的当然结论便是应当适用“上级负责制”原则,即生成式AI法律行为的后果都应当由开发者承受,包括侵权责任。作为一种法律拟制,“上级负责制”原则实际上广泛体现在侵权责任法当中,例如动物致人损害责任,其本质上就是责任主体的身份被简化为最有能力控制和监督动物(代理人)活动的主人(委托人)。
在“上级负责制”的原理下,人工智能生成内容工具的开发者应当对生成式AI的运作过程中所导致的损害承担责任。这一类比是恰当的,因为生成式AI对受害者来说是不透明的,也就是说,当受害者面对生成式AI的侵权行为时,她无法事先采取任何预防措施来排除妨害。相反,生成式AI的开发者处于优势地位,可以采取积极主动的行动来防止潜在的事故,减轻损失。例如可以预先为AIGC工具购买保险,或通过系统测试等途径消除潜在侵权风险。
适用严格责任制度的第二个理由是考虑到AIGC技术应用场景下的风险不对称问题。原则上,受害者有权对由风险造成的伤害进行追偿。而如果某一行为具有相对于受害人创造风险的活动而言不相称的、过度的伤害风险,那么在损害实际发生时,行为人就应当承担无过错责任,即严格责任。生成式AI在运行过程中具有造成大范围且不可控风险的潜在可能,并且相较于人类个体而言,人工智能能够以更高效的方式与这个社会进行互动,这导致他们可能给他人带来更大的风险。特别是在互联网时代,生成式AI在接入互联网之后拥有快速、重复和同时在大量网络平台上交互的独特能力。在这一背景下,即使人工智能生成内容的开发者事先采取了合理的预防措施,对其课以较重的无过错责任也是适当的。更何况,开发者为了避免生成式AI侵权结果的发生,施加无过错责任在一定程度上能够反之促进AIGC技术的完善和发展。反观,过错责任的归责原则则很难起到上述作用,因为生成式AI开发者只有在有过错即未能采取合理的预防措施的情况下才要承担侵权责任,这在具有高度风险的人工智能领域下是不恰当的。
此外,与过错责任归责原则不同,无过错责任制度能够避免对“一般理性人”等非客观标准的分析,从而最大限度地降低责任判定的难度,这在生成式AI侵权场景下尤为重要,因为考虑到上述“黑匣子”问题的现实存在,故难以针对过失或有责的概念形成一种具有可操作性的证明方式。
综上所述,对于生成式AI自主侵权行为的发生,应当适用无过错责任的归责原则。当然,即使设置了无过错或过错推定的归责原则,仍然可以参照其他无过错责任类型设置一下法定免责或减责事由,例如在能够证明损害是因不可抗力而产生或受害人故意造成的情况下,则开发者不承担责任;被侵权人对损害的发生有重大过失的,可以减轻开发者的责任。如此,既可实现设置无过错责任制度的最初立法目的—保护弱势群体的合法权益,也蕴含着对实质公平观的追求,避免对一方当事人的过度偏袒。
结论与展望
技术进步总是会给法律提出各种挑战,但是法律的可预测性与可解释性也为我们着手解决诸如人工智能生产内容技术等新兴事物所带来的现实挑战提供了切实可能性。ChatGPT等生成式AI的火爆既让我们看到了科技快速发展给人类带来的一丝曙光,也不禁让法律人沉下心来思考其所可能带来的诸多法律风险。通过对现实案例的审视,可以看到AIGC技术应用场景下的诸多潜在侵权风险。然而,这一领域下的现有国内外法律规范多集中在公法领域,而难以解决侵权法下的诸多现实难题。现有法律无法覆盖与解决生成式AI所带来的诸多侵权风险,就必须诉诸于民法解释学的帮助,寻求对人工智能生成内容场景下侵权责任体系的重构。上文指出一方面应当严格区分不同场景下的责任承担主体,另一方面应当变革人工智能生成内容场景下的现有归责原则,转而探索适用无过错责任制度。
本文也只是一次对人工智能生成内容应用场景下若干侵权风险的类型化分析及其规制路径的初步探索,究竟什么样的规则最适合应对未来人工智能生成内容技术所带来的责任挑战,并无定论。希望借此机会能够引起人们对AIGC技术的关注,共同探索恰当的规则,为我国AIGC技术的快速发展提供规范支撑。
《娱乐法内参》2023年第4期目录【主题研讨】
1. 人工智能生成内容的侵权风险及其规制路径——以ChatGPT为例
王兆艺
2. 著作权视角下人工智能生成内容的权利认定与归属
李航
【典型案例】
3. 观澜网络(杭州)有限公司与上海医米信息技术有限公司其他不正当竞争纠纷案
-END-
责任编辑 | 金梦洋
审核人员 | 白雪 张文硕
本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。
▼往期精彩回顾▼专访ChatGPT:2023涉外律师高度关注的十个问题,我给出了高质量回答一位法官刚刚使用ChatGPT做出法庭裁决
热度“狂飙”的ChatGPT,亟待“合规刹车”
李立丰、王俊松:人工智能嵌入刑法体系的障碍与定位 | 法治研究202301
雷磊:人工智能时代法律推理的基本模式 | 比较法研究202201
郑曦:司法人工智能运用背景下的被告人质证权保障 | 政法论坛202206
刘泽刚:论算法认知偏差对人工智能法律规制的负面影响及其矫正 | 政治与法律202211
叶涛:公共场所人脸识别技术应用的利益衡量与类型构造 | 浙江社会科学202207
周光权:涉人脸识别犯罪的关键问题 | 比较法研究202106
关注下方公众号,获取更多法律信息