查看原文
其他

林华 | 以进为路——AI法律责任的分析和建构

The following article is from 林华 Author 林华

原文发表于公众号“林华”【点击跳转】
 
相关阅读:

目次

每个问题都有正确的打开方式

1.1 监管共识和路径差异

1.2 生成式技术的特征影响责任模式


2 AI提供者法律责任的中国模式

2.1 内容生产者责任模式的行政法溯源

2.2 内容生产者责任模式的法律溯源

2.2.1 法条依据

2.2.2 法律转向——从身份到行为


3 AI提供者法律责任的国外模式

3.1 积极而独立的美国态度

3.1.1 加快中的立法步伐

3.1.2 明确的积极态度

3.2 遭遇挑战的欧盟立法

3.2.1 人工智能法案,平行立法中的基本层

3.2.2 人工智能责任指令的困境


4 安全的创新——理想的立法目标优先级

4.1 内容生产者责任模式的问题

4.1.1 未能完整评估行为链条

4.1.2 过度追求当下安全引发长远风险

4.1.3 过度责任违反技术发展规律

4.2 舒默观点中的美国方案

4.3 生成式——人工智能的奥本海默时刻


5 传统的再生——以产品责任模式对内容承担责任

5.1 区别适用不同类型的人工智能责任

5.1.1 区分人工智能类型

5.1.2 区分纠纷法律性质

5.2 对AI生成内容适用产品责任的模式设计

5.2.1 传统模式的新塑造

5.2.2 AI生成内容适用产品责任的法律分析

5.3 福报还是祸患

  

1 每个问题都有正确的解决方式

1.1 监管共识和路径差异

本篇作为人工智能法律问题研究系列的第二篇,仍然集中研究以生成式AI为代表,向通用智能发展的人工智能技术。原标题是《人工智能服务法律责任的建构基础》,为简化阅读做了调整。
生成式人工智能服务提供者(以下简称“AI提供者”)对AI生成内容承担什么样的法律责任,是对生成式人工智能监管体系的核心。

全球普遍存在的反差是,主流立法和学术主张都倾向不给予人工智能生成内容著作权保护,不论是通过否认独创性、否认内容价值或者直接主张只有人类才是版权适格主体。同时全球主要国家立法都在非常认真的制定AI提供者对AI生成内容的法律责任。生成式人工智能实际就处在无权利可主张但却要承担刚性责任的悖论之中。
微软、谷歌、OpenAI和特斯拉等互联网和科技巨头集体参加的美国参议院人工智能洞察论坛,就引进政府对AI的监管形成一致意见。【《美国国会人工智能论坛落幕 马斯克称监管AI已成强烈共识》,https://economy.caijing.com.cn/20230914/4959608.shtml】。不论政府监管还是AI提供者对AI内容承担责任已是全球共识,但不同思路指引下产生的不同监管模式会对生成式人工智能的未来发展产生巨大影响。

1.2 生成式技术的特征影响责任模式

有一个关键但似乎没有被关注的重要问题,全球立法和学术议题中AI提供者对AI生成内容承担法律责任的模式,其出发点是基于行政监管而不是民事责任认定。不仅如此,对AI生成的不同内容,以及内容涉及不同权利或社会利益情况下,AI提供者承担的责任也应该区别对待,即根据具体场景采取具体归责原则

国家互联网信息办公室等部委发布的《生成式人工智能服务管理暂行办法》(以下简称“生成式暂行办法”)第二十二条(一)项规定,生成式人工智能技术是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。顾名思义,生成式是能自主产生不同于训练数据的新内容的技术。暂行办法其实应该直接突出而不用暗示“生成”是产生“新内容”的能力,因为生成新内容正是生成式技术不同于包括传统人工智能在内其它技术的根本特征。

生成式人工智能的设定机制是产生新内容。理论上生成式人工智能只有在出现bug情况下才会复制现有内容,包括抄袭他人作品或者直接利用他人数据、隐私、商业秘密等。这种情况下生成式AI具有相对较高的对内容负责的能力,有义务保证新生成内容不出现复制、抄袭等导致侵权的故障。

相反,在涉及社会、观点、技术等内容的对话中,话题本身就复杂多变。例如涉及人工智能是否会取代人类、货币政策合理性、照顾特定族裔升学机会的美国平权法案是否合理等,专家群体和不同决策人也会产生冲突,要求生成式人工智能根据训练数据和自我逻辑能力就给出完美答案或者面对问题避而不谈,都是不合理的。这类对话全程对AI的理解和逻辑能力要求极高,要求AI提供者对AI生成内容承担严格责任显然不合适。


2 AI提供者法律责任的中国模式

《生成式人工智能服务管理暂行办法》是全球首个生效的,规定AI提供者对AI生成内容承担法律责任的法规。根据《生成式暂行办法》,AI提供者对AI生成内容承担直接的内容责任。

2.1 内容生产者责任模式的行政法溯源

《生成式暂行办法》第九条规定:“生成式人工智能服务提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务”。这条规定是中国AI提供者对AI生成内容承担内容生产者责任的基本依据。
对《生成式暂行办法》对第九条所称“网络信息内容生产者”,法律法规中最早规定和定义的来源是网信办于2020年发布的《网络信息内容生态治理规定》(以下简称“生态治理规定”)第四十一条一款:“制作、复制、发布网络信息内容的组织或者个人”,以下简称“内容生产者”)

《生态治理规定》第四十一条二款和三款进一步规定“网络信息内容服务平台”是指提供网络信息内容传播服务的网络信息服务提供者(以下简称“平台”);“网络信息内容服务使用者”是指使用网络信息内容服务的组织或者个人(以下简称“服务使用者”)。

和网络信息内容生产者对内容承担直接法律责任不同,《生态治理规定》第八条规定平台履行信息内容管理主体责任,承担本平台网络信息内容生态治理等责任;第三十四条进一步解释平台在网络信息内容生产者违规时应依法依约采取警告、限制功能、关闭账号、消除违法信息内容等措施。


2.2 内容生产者生产模式的法律渊源

1. 法条依据
司法实践和相关法理论述普遍使用“网络服务提供者”的统一概念,并一度根据提供技术服务还是内容服务,将网络服务提供者分为网络技术服务提供者(ISP)和网络内容服务提供者(ICP)。人大法工委王胜明在《中华人民共和国侵权责任法释义》中就认为,“网络服务提供者”不仅应当包括技术服务提供者,还应当包括内容服务提供者。所谓技术服务提供者,主要指提供接人、缓存、信息存储空间、搜索以及链接等服务类型的网络主体。所谓内容服务提供者,是指向网络用户提供内容的网络主体。【王胜明:《中华人民共和国侵权责任法释义》,法律出版社2010年出版,第189-190页。】

《民法典》延续使用“网络服务提供者”的传统。《民法典》第一千一百九十四条规定:“网络用户网络服务提供者利用网络侵害他人民事权益的,应当承担侵权责任。法律另有规定的,依照其规定”。这里使用的“网络用户”相当《生态治理规定》所称“服务使用者”,“网络服务提供者”则包含《生态治理规定》所称的“平台”和“内容生产者”两个角色

但是《民法典》第一千一百九十五条第一、二款进一步规定:“网络用户利用网络服务实施侵权行为的,权利人有权通知网络服务提供者采取删除、屏蔽、断开链接等必要措施。通知应当包括构成侵权的初步证据及权利人的真实身份信息。网络服务提供者接到通知后,应当及时将该通知转送相关网络用户,并根据构成侵权的初步证据和服务类型采取必要措施;未及时采取必要措施的,对损害的扩大部分与该网络用户承担连带责任。……”。本条所指可适用接通知+删除的避风港规则的网络服务提供者,实际又仅指平台。

《信息网络传播权保护条例》对网络服务提供者进行了细分,条例第十四、二十和二十二条分别规定网络服务提供者包括提供信息存储空间或者提供搜索、链接服务,提供自动接入服务或自动传输服务,以及提供信息存储空间服务的网络服务提供者。提供以上服务的网络服务提供者的法律责任模式相当于《生态治理规定》所称“平台”,在符合法定条件情形下可适用避风港规则,对侵权内容承担接通知+删除的责任而无需对内容承担直接责任。
2.法律转向——从身份到行为
《民法典》和《信息网络传播权保护条例》规定的网络服务提供者在各自立法体例内,以及在法律整体中都有歧义,和人大法工委对侵权责任法的解释也不尽相同。要理解法律体系中“网络服务提供者”概念是否同时包含提供技术等服务的“平台”和“内容生产者”,还需要参考最高人民法院2020年修订的《关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》。

司法解释第六条规定:“原告有初步证据证明网络服务提供者提供了相关作品、表演、录音录像制品,但网络服务提供者能够证明其仅提供网络服务,且无过错的,人民法院不应认定为构成侵权”。在这里可以发现,司法不是单纯根据网络服务提供者的身份,而是根据行为具体认定法律责任模式。即以网络服务提供者身份而为提供内容行为,也不适用为平台设计的避风港规则。

关于法律从关注提供者的身份分析提供行为本身转向的变化和过渡,是在多年法律实践中逐步积累和定型的共识。其中流变正好可参见我2011年的相关文章(《从身份识别到行为识别 以快照侵权判定为研究例》【期刊名称】《电子知识产权》【年(卷),期】2011(000)007,54-57页]

3 AI提供者法律责任的国外模式

3.1 积极而独立的美国态度

1. 加快中的立法步伐
如本文前引介绍美国国会在本月(23年9月)召开的高规格大型人工智能论坛,以及国会图书馆下属美国版权办公室开展关于以生成式人工智能为代表的AI版权问题的大规模意见征询【< Artificial Intelligence and Copyright>, https://www.copyright.gov/ai/docs/Federal-Register-Document-Artificial-Intelligence-and-Copyright-NOI.pdf】,美国参议院和版权主管机构的大规模立法活动相当活跃,正在加快深入征集具有广泛代表性的不同阶层和团体对人工智能意见的步伐。

在美国积极展开的立法活动中,对人工智能责任承担的讨论焦点和中国立法所规定的内容生产者责任并不一样,相关争议集中在人工智能提供者是否享有美国1996年《通信道德法案》第230条规定的豁免(<the Communications Decency Act 1996>,也有译为《通讯规范法》)。

《通信道德法案》第230条 (c)款大意为"善意人保护"(Protection for "Good Samaritan" blocking and screening of offensive material),第 (1)项“出版商或发言人”规定任何互动计算机服务的提供者或用户,不得被视为其他信息内容提供者所提供信息的发行人(“Treatment of publisher or speaker - No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider)。这项规定的实际含义是网络服务提供者不需要为他人提供的内容承担直接法律责任,为网络服务提供者承担避风港责任提供了先决条件。

简而言之,美国人工智能立法焦点只在是否取消AI提供者的避风港,即使最终取消AI提供者适用第230条 (c)款也只进入到讨论AI提供者将为AI生成内容承担何种责任的阶段。

2. 明确的积极态度
一个高度值得关注的信号是,参议院多数党领袖、在国会具有举足轻重影响力的舒默(Chuck Schumer)积极主张美国加快对人工智能研发和应用的全面立法。2023年6月,舒默提出“人工智能安全创新”框架,力图在不限制科技创新同时降低人工智能的潜在危害。

舒默在国会名为安全创新框架的发言中明确提到支持人工智能技术创新:“支持美国主导的人工智能技术创新,包括安全、透明度和问责制方面的创新,重点是释放人工智能的巨大潜力并保持美国在技术方面的领先地位”【“Innovation: Support US-led innovation in AI technologies – including innovation in security, transparency and accountability – that focuses on unlocking the immense potential of AI and maintaining U.S. leadership in the technology”,< Schumer: SAFE Innovation Framework:>,https://www.democrats.senate.gov/imo/media/doc/schumer_ai_framework.pdf】。

舒默的将鼓励创新设计为人工智能立法的第一目标,舒默的意见还将在本文第四部分“安全创新”中展开。本节援引前段方向明确的论述只为说明,可以预见不论美国是否对AI服务提供者适用《通信道德法案》第230条,美国立法都会站在平衡发展和安全的角度权衡,对人工智能生成内容规定合理而有弹性的责任而不会无条件适用严格责任。


3.2 遭遇挑战的欧盟立法

1. 人工智能法案,平行立法中的基本层
欧盟人工智能立法特点之一是以《人工智能法案》(AI ACT)和《人工智能责任指令》平行展开,立法结构有其复杂性和特殊性。作为平行立法中最底层的《人工智能法案》草案已在2023年6月由欧盟议会以压倒性多数通过并进入和欧盟委员会、成员国三方谈判的最后立法阶段,其大概率会平稳生效。

《人工智能法案》在对人工智能系统分类上有自己特点,基于不同风险评估的方法(risk-based approach)将人工智能系统分为不可接受风险、高风险、有限风险以及轻风险,其中前三类人工智能将受相应监管。

但《人工智能法案》并没有规定AI提供者对AI生成内容应当承担什么样的法律责任,而是将任务将给了正在制定过程中的《人工智能责任指令》(<Artificial Intelligence Liability Directive >,AILD)。该项指令在2022年9月28日由欧盟委员会提出《人工智能责任指令提案》。【<Proposal for a DIRECTIVE OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on adapting non-contractual civil liability rules to artificial intelligence(AI Liability Directive)>,https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52022PC0496&qid=1695537152972】

2. 人工智能责任指令的困境
欧盟2022年《人工智能责任指令提案》从立法备忘录、提案说明到提案条文,近3万字内容覆盖面相当庞大。除了感觉略复杂外,对指令的正面印象不太深刻,反而对潜在问题有一定忧虑。

(1)双轨制的脱节风险
如前所述,欧盟人工智能立法是以《人工智能法案》和《人工智能责任指令》平行展开,双轨制的立法模式具有潜在的负面效果。

最明显的问题是影响对人工智能的统一规范。尤其以生成式为代表,人工智能技术正在快速发展,不断对经济、生活和既有观念形成重大挑战。人类对生成式类先进人工智能机制、作用、影响的理解还都在摸索中、对应法律概念也在尝试建构。在复杂多变的全新阶段就对同一个问题分起两个炉灶,显然要考虑脱节风险。

虽然《人工智能责任指令》提案说明部分第15条提及需要与《人工智能法案》保持一致,提案部分第二条也声明本指令所使用“人工智能系统”、“高风险人工智能系统”、“提供者”、“用户”的含义与《人工智能法案》保持一致,但两部法规脱节的问题在下一节就会实例说明。

(2)没有针对生成式人工智能
代表人工智能最先进方向的生成式技术是典型内容生成类AI,而内容正是《人工智能责任指令》忽视的部分。欧盟指令只有提案说明部分第15条提到判断上传内容责任豁免条件,第23条提到遵守欧盟著作权规范,就像为弥补立法不足而强行打的补丁,不但与上下文格格不入,也没有对著作权责任与产品责任之间是并行、重合或者单项优先的必要说明。

从《人工智能责任指令》条款详细说明部分以无人驾驶飞机作为人工智能产品的举例来看,指令实际规范的是以单向度功能性工具性为特点的相对传统的人工智能产品,与趋向通用性、生成内容智能性为特征的生成式人工智能相比,是具有实质差异的技术。不应该用一个尺度同时规范。

相反,《人工智能法案》全篇根据防止虚假内容、防止深度伪造等不同问题,从生成内容角度出发规范人工智能,在规范客体上就已经和指令产生脱节。
(3)立法步调过快
《人工智能责任指令》的一个明显重点在规范人工智能产品侵权的举证责任,提出了包括严格责任+强制保险在内的多种举证责任方案。

当下现实是人类还在摸索生成式人工智能的机理,尤其对生成内容是否具有法律责任、承担何种责任都有很大分歧。在实体责任尚在争议的前提下,提前迈进到举证责任的程序规范有操之过急的嫌疑。

或者可以说,指令所提到的举证责任分配方案,只适合传统人工智能产品而对生成式人工智能难以适用。

4 安全的创新——理想的立法目标优先级

4.1 内容生产者责任模式的问题

和欧盟《人工智能责任指令》泛化覆盖不同类型的人工智能产品相比,中国《生成式暂行办法》明确地垂直规范生成式人工智能是立法上的技术优势。

《生成式暂行办法》第九条规定生成式人工智能服务提供者应当依法承担网络信息内容生产者责任,法律效果相当于要求AI提供者对AI生成内容承担全部法律责任,显然包含至少以下问题。

1. 未能完整评估行为链条
生成式人工智能是内容生成过程中的角色之一,用户在生成过程中也起到关键作用。换言之,人工智能和用户行为都是内容生成行为链条中不可或缺的环节。

举两个例子说明用户对内容生成结果的决定性作用。

首先,Midjourney为代表的多个知名生成式人工智能平台都允许用户建立个人数据库,也就是允许用户参与到数据训练环节中。开源的生成式软件对用户参与的开放程度尤高。在这样情况下生成内容甚至可能主要依赖及代表用户意愿,人工智能平台反而只能发挥工具作用,无法对内容起到决定作用。

其次,即使普通用户也有机会影响生成内容结果。例如很多生成式人工智能平台发现用户提问可能和犯罪方法有关时都会明确拒绝,但当用户刻意规避,例如将违法需求伪装成特殊情况下的合法需求,比如要求AI依据特定要求编写剧本,或者以医生、公安等特定职业身份提问,人工智能原有的合理防御机制可能被绕过。

以上两种情况都清楚表明,用户完全有可能影响以致决定生成内容。要求AI提供者无差别承担内容生产者责任,显然把可能由用户承担的违法责任不合理的转嫁给AI提供者。

2. 过度追求当下安全引发长远风险
短期安全和长期安全在大多数情况下是互相冲突的目标。政府本质上和企业一样对KPI负责,当绩效设定为短期目标或者是长期目标,对政府决策具有决定性影响,并引发企业合规的连锁反应。当决策以当下安全为根本目标,就会排除其它所有可能影响眼下安全的因素,即使以牺牲长期发展为代价。

以生成式人工智能必须的预训练素材为例,数据量越大、覆盖越宽越有助于AI训练质量。生成式技术预训练需要的海量数据是典型的大数据,大数据的基本特点并不是数据质量高或者内容精准,而是数据的全面、包容和庞大。

比尔盖茨在1981年说640KB内存对任何人都足够的时候,完全无法预见需要海量训练数据的生成式人工智能。对生成式人工智能的训练数据来说,数据数量比质量重要的多。典型的大数据就应该包含大量噪音,而机器学习本身就具备在包含大量结构与非结构化数据混杂的数据中寻找规律的能力。

撇开生成式技术利用对抗网络、反复回归等算法降噪的超强能力,即使以追求关联而非因果的统计学原理来解释,只要数据足够庞大和全面,正相关数据就会排除负相关数据。

从理性人角度计算,躺平是追求当下绝对安全的最优策略

对生成式技术过于严苛的要求必然导致AI提供者在训练模型时主动放弃可能包含争议的大量数据,及对生成结果过分自我审核。以下一幅国内某款AI工具生成的正常美术作品被主动屏蔽的实例可见,过分严苛的责任确定将降低生成式人工智能的价值,影响技术的正常发展。

【附:审核未通过图】
3. 过度责任违反技术发展规律
很多技术发展的早期阶段,是先天带有风险性的。

技术发展既是历史趋势,也是全球竞争的基本赛道。过分追求技术的安全发展必然会阻碍,进而导致发展停滞和竞争力失灵。

李彤老师在解释人工智能立法风险时同样想到了英国红旗法案【《通用人工智能技术提供者义务的审视与优化》,李彤https://www.thepaper.cn/newsDetail_forward_24447663】。英国1861年《公路机动车法》规定机动车最高车速应低于16公里/小时,相当鸵鸟用一条腿或成年人用两条腿奔跑的速度。在马车行会的推动下,英国1865年《红旗法案》以安全理由进一步规定每辆机动车行驶时需有三位驾驶员,必须有一位驾驶员始终在汽车前50米引导并摇动红旗提示机车危险,在通过城镇道路时车速不得超过4英里。

于是欧洲大陆的汽车行业被迫赶超英伦同行。

美国食品药品监督管理局(FDA)对食品产业的过度监管是类似的例子。公众食品安全和药物安全当然极为重要,但FDA设计的多道审批和监管流程过分繁琐且费用高企,使得食品和药物研发与上市变得漫长而昂贵,明显阻碍了创新和发展,对经济和社会发展产生了负面影响。FDA最终不得不采用包括加速批准药物计划(Accelerated Approval Program)、创新药物计划(Breakthrough Therapy Designation),及加强与科学界、研发企业合作等多项措施,加快审批过程与促进创新。


4.2 舒默观点中的美国方案

在美国国会正在进行的生成式人工智能监管立法调研中,在美国政界深影响的参议院民主党领袖查克·舒默(Chuck Schumer)于20236月在战略与国际研究中心(CSIS)提出安全创新框架SAFE Innovation Framework)的讲话,清晰的阐述了在美国具有代表性的一种鲜明观点。【<Majority Leader Schumer Delivers Remarks To Launch SAFE Innovation Framework For Artificial Intelligence At CSIS>, https://www.democrats.senate.gov/news/press-releases/majority-leader-schumer-delivers-remarks-to-launch-safe-innovation-framework-for-artificial-intelligence-at-csis
1. 朋友们,我们在革命的这一时刻走到一起。是科学和理解力的革命而不是武器或政治力量,将要改变人类……Friends, we come together at a moment of revolution. Not one of weapons or political power but a revolution in science and understanding that will change humanity.
2. 确实存在真正的风险:失业、虚假信息、新武器,以及无法完全管理AI技术的风险。我们别无选择而必须承认人工智能带来的变革即将到来,在许多情况下变革已经到来。如果我们忽视变革将后果自负(We ignore them at our own peril)。许多人想无视人工智能,因为它太复杂了。但有了人工智能,我们就不能成为把头埋在沙子里的鸵鸟。
3. 创新是我们必定的方向(Innovation must be our north star)。美国一直是创新塑造现代世界的最伟大技术的领导者
4. 人工智能可能是我们迄今最亮眼的创新,一种可以点燃技术进步、科学发现和工业力量新时代的力量

5.  因此,我们必须提出一个计划,鼓励而不是扼杀这个人工智能新世界中的创新(encourages—not stifles—innovation in this new world of AI)
6. 简而言之:我们必须解决的第一个问题是鼓励创新,而不是扼杀创新(In short: the first issue we must tackle is encouraging, not stifling, innovation.
从舒默在国会的发言中可以清晰看出,以舒默为代表的立法观点是承认生成式人工智能是技术革命,承认社会和监管在AI时代将面临多重严峻挑战,但是美国应当坚持以创新为国本,寻求安全创新的道路。

一言以蔽之,在美国具有影响力的舒默立法方案是发展第一,兼顾安全;以创新为基调,以安全作定语

4.3 生成式——人工智能的奥本海默时刻

值得重复的是,人工智能既是历史趋势,也是全球竞争赛道。

即便从不上互联网如俄罗斯总统普金也早在2017年就说过得人工智能者得天下。在生成式技术引发人工智能再次跃进发展的当下,相信中国立法者应该比普金更清楚未来趋势。

如果在人工智能监管立法中过度顾及安全,不但违反技术和人类社会发展的一般规律,而且可能直接导致在全球核心技术竞赛中失利。

美国国会研究机构CSIS在一份《遏制中国人工智能未来进程》的报告中已经明确提议加强对向中国出口AI芯片和其它设备的限制。【<Choking Off China’s Access to the Future of AI>, https://www.csis.org/analysis/choking-chinas-access-future-ai】舒默也认为美国必须在AI创新方面发挥领导作用,制定人工智能的道路规则,不能让中国在内的竞争对手制定技术标准。【< Schumer: SAFE Innovation Framework>,https://www.democrats.senate.gov/imo/media/doc/schumer_ai_framework.pdf】

长远来看人工智能技术对文明的影响可能甚于核技术,推动人工智能技术发展已经成为全球竞争的核心。

技术发展通常不是一个时间点而是一个难以准确估量时长的赛段,发展过程本身也可能充满非线性。但是在关键路段的领先者很可能使后来者再无赶超机会,落后者最终像尼安德特人一样从历史长河中默默退出。


5 传统的再生——以产品责任模式对内容承担责任‍‍

  • 5.1 区别适用不同类型的人工智能责任

1. 区分人工智能类型
确定AI提供者对AI生成内容承担责任,应当首先区分不同的人工智能类型。区分这一点对责任模式的选择合理性具有重大影响。
(1)传统人工智能产品
对于服务机器人、无人飞机、无人驾驶车辆这类通常具有单一功能性和工具性特点的传统人工智能产品来说,其智力综合程度接近猴子。即传统人工智能产品通常会在单项的计算或数据能力上超过人类,但基本不具备创造力而只有执行力。

对传统人工智能产品的提供人,通常直接适用产品责任法即可。

(2)生成式人工智能产品
以ChatGPT为代表的生成式人工智能,具备独立的逻辑推理能力、强大的数据处理、表达以及生成能力,不仅在多个单项能力上超过人类,总体智力水平也接近未成年人。也正是基于这项特点,参考未成年人责任模式对生成式人工智能产品适用与其智能水平匹配的有限法律责任,是符合法理的。

(3)强智能人工智能产品
没有准确答案,也许10年或者50年。未来真正强大的通用人工智能诞生后,以成年人标准适用法律责任则符合法理与逻辑。

2. 区分纠纷法律性质
特别对于生成式人工智能而言,法律纠纷的性质和AI责任界定应当直接相关。

如前所述,生成式人工智能不同于传统人工智能的根本特征在其具有“生成”新内容的能力。如果生成式人工智能的生成内容涉嫌抄袭剽窃,该种侵权行为实质恰好是反生成,与生成式AI的根本特征及基本功能相悖。对涉及生成式AI所生成并非“新”内容(即反生成)的纠纷,适用著作权侵权认定这样的严格责任是可行的

如果生成式人工智能在对话中提供不实信息产生的纠纷,其行为性质就是AI的确在“生成”内容,但其生成的内容存在真假争议。对于生成式AI确实执行生成功能,而其生成内容存在真假对错类争议,参考其接近未成年人能力的实际情况适用过错责任是合理的。

5.2 对AI生成内容适用产品责任的模式设计

1. 传统模式的新塑造
我在前文批评欧盟《人工智能责任指令》的规范没有针对生成式人工智能,但认为对生成式人工智能的生成内容也具有适用产品责任的条件。

同样是产品责任,本文所主张适用的场景并非人工智能产品本身,而是其生成的内容,这是和欧盟人工智能产品责任立法不同的第一点。

同样是生成式AI所生成的内容,区分该内容相关纠纷是反生成(如抄袭)还是执行生成但内容错误/虚假,适用不同责任制度,这是和欧盟人工智能产品责任立法不同的第二点。
2. AI生成内容适用产品责任的法律分析
产品责任的一大特点是过错责任。基于生成式人工智能只有局部能力指标超过人类,总体智能接近未成年人的现状,要求承担过错责任是与其智能水平匹配的设计。

《民法典》第一千二百零二条规定:“因产品存在缺陷造成他人损害的,生产者应当承担侵权责任”。

《产品质量法》第四十一条第一款规定和《民法典》前引条款接近,第二款则进一步提供了生产者免责条件:“生产者能够证明有下列情形之一的,不承担赔偿责任:(一)未将产品投入流通的;(二)产品投入流通时,引起损害的缺陷尚不存在的;(三)将产品投入流通时的科学技术水平尚不能发现缺陷的存在的。”

从以上规定看,产品责任允许产品生产者在无过错情况下免于承担责任,既可以督促AI生产者尽责以满足免责要件,又可以在AI生产者已经尽责情况下为其免除法律风险,是平衡发展和安全的理想制度。

5.3 福报还是祸患

本来会有专门一节,用一组从智能音箱、天气问答、企业咨询到无人机和图片的案例,具体但轻松的讨论人工智能法律责任的适用。因为打字打到快站不住,这个板块留到下一篇和大家讨论。

这一节只想思考一个问题,究竟应该怎样看待生成式人工智能将为社会带来的巨大变化。

举一个例子,生成式人工智能的智能水平和修补BUG的速度都可称赞,但毕竟以当下的技术总有产生错误的概率。再想一想,人类之间的沟通不也经常发生误解,何况AI呢。

那么AI有可能会给我们提供错误信息,这是一件完全的坏事么?

虚假信息泛滥和互联网并没因果关系,互联网只是让虚假信息的泛滥变得更容易而已。移动互联网尤其大数据分析兴起以来,在没有生成式AI的世界里信息茧房也已经足够严重。虽然老年人似乎受虚假信息和信息茧房影响最大,但虚假信息和信息茧房实质在每个年龄段的社会阶层都同样泛滥。

AI有可能为虚假信息的产生和传播创造进一步便利,但是当大家都习惯琢磨一下自己正在对话的QQ号背后或许根本就不是人类,看似酣畅淋漓实际难以令人置信的内容可能和人类无关而只是程序的胡编,当大家因为顾忌AI而不再盲目认为所见即真实,开始学会怀疑、开始被迫独立思考,这个世界不是在变得更好么

         

注释  请向上滑动阅览



[i]《美国国会人工智能论坛落幕 马斯克称监管AI已成强烈共识》,https://economy.caijing.com.cn/20230914/4959608.shtml

[ii]《从身份识别到行为识别 以快照侵权判定为研究例》,《电子知识产权》2011(000)007,54-57页

[iii]< Artificial Intelligence and Copyright>, https://www.copyright.gov/ai/docs/Federal-Register-Document-Artificial-Intelligence-and-Copyright-NOI.pdf

[iv]“Innovation: Support US-led innovation in AI technologies – including innovation in security, transparency and accountability – that focuses on unlocking the immense potential of AI and maintaining U.S. leadership in the technology”,见< Schumer: SAFE Innovation Framework>, https://www.democrats.senate.gov/imo/media/doc/schumer_ai_framework.pdf

[v]<Proposal for a DIRECTIVE OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on adapting non-contractual civil liability rules to artificial intelligence(AI Liability Directive)>,https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52022PC0496&qid=1695537152972

[vi]《通用人工智能技术提供者义务的审视与优化》,李彤, https://www.thepaper.cn/newsDetail_forward_24447663

[vii]<Majority Leader Schumer Delivers Remarks To Launch SAFE Innovation Framework For Artificial Intelligence At CSIS>, https://www.democrats.senate.gov/news/press-releases/majority-leader-schumer-delivers-remarks-to-launch-safe-innovation-framework-for-artificial-intelligence-at-csis

[viii]<Choking Off China’s Access to the Future of AI>, https://www.csis.org/analysis/choking-chinas-access-future-ai

[ix]< Schumer: SAFE Innovation Framework>, https://www.democrats.senate.gov/imo/media/doc/schumer_ai_framework.pdf


‍‍‍‍


    排版/徐源‍‍‍‍
    继续滑动看下一个
    知识产权与竞争法
    向上滑动看下一个

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存