查看原文
其他

【文章推介】马治国︱我国人工智能基础数据的专门法保护研究

马治国等 西北大学学报哲学社会科学版 2023-02-26

点击上方   “蓝字”    关注我们


我国人工智能基础数据的

专门法保护研究


第一作者简介

马治国,博士,西安交通大学教授,博士生导师,从事人工智能法学、知识产权法学研究。




原文刊登于《西北大学学报(哲学社会科学版)》2021年第6期第153—162页。

摘 要

人工智能基础数据作为一种新兴科技领域的数据类型,应以法治思维和法治方式考量其培育过程和后续权属状态的规制。与此同时,作为人类智力成果的新晋形式,人工智能基础数据也应当纳入知识产权法治范畴,并且对其知识产权的保护予以规范化设计。从目前我国知识产权法律相关内容来看,人工智能基础数据保护嵌入成文法体系存在客体和标准等一系列的现实困境,因此,在综合考察域外立法实践的基础上,确立保护的基本原则,明晰基础数据的相关权利义务,建立行政监管与行业自律相结合的保护机制,加强基础数据跨境流动的过程监管,以此作为专门立法的核心进路,制定《人工智能基础数据保护条例》。


关 键 词

人工智能基础数据;  个人信息;  知识产权;  专门法保护













问题的提出


人工智能基础数据包括在对机器学习模型进行训练时所用的训练数据以及对机器学习模型进行测试的测试数据。与其他类型的数据相比,人工智能基础数据具有独特属性。首先,人工智能基础数据需要开源开放。人工智能基础数据作为一种数据资源可以被无限复制,一个标注好的图像或者一批被精心选定的训练数据集可以应用在多个人工智能项目之上。人工智能基础数据的制作和选取是每个人工智能项目必不可少的前期准备工作,这种前期准备工作在相当程度上具有一致性。因此,倘若为每个人工智能项目都制作和选取不同的人工智能基础数据,势必造成大量的人力和物力的浪费。为了避免不必要的浪费,人工智能基础数据需要开源开放,这也正是我国《新一代人工智能发展规划》提出“重点建设面向人工智能的公共数据资源库”的缘由所在。其次,与从互联网上直接获取的数据有所不同,人工智能基础数据往往需要通过智力劳动才能创造取得,并且极具经济价值。比如微软必应团队的研发人员曾有言:“获取足够高质量的训练数据通常是构建基于人工智能服务的最具挑战性的部分。通常,由人类标记的数据质量很高(错误相对较少),但成本高昂,无论是金钱还是时间方面。”

传统理论通常仅从数据交易价值层面对普通数据进行保护,具体包括三种情形:其一,数据保护并未被纳入赋权范畴予以考量,而是通过规制数据使用或交易行为,例如依据《中华人民共和国民法典》(以下简称《民法典》)对数据交易行为实施保护,从而在数据的交易和流转过程中体现其价值。其二,考虑到数据应开放和共享的特点,设立新型财产权,从而促使大数据资源获得更为充分的利用。其三,有学者提出,数据是“网络社会中的公物”,换言之,其是一种无体物。因此,通过物权加以保护亦是传统理论提供的路径选择之一。

然而,人工智能基础数据需要数据创作者根据自己长期积累的知识和经验,对原始数据进行再加工,以期能符合人工智能训练和测试的要求。例如,获得应用于智慧医疗的基础数据,需要医学和人工智能等领域的专业人员对由过往病历数据组成的原始数据开展排列、组合、清洗以及标记工作。一方面,此类工作并非简单和机械的重复劳动,而是对人工智能基础数据的创作有一定的技术要求,并且需要付出相关的智力劳动。另一方面,通过此类工作获得的基础数据的价值内容不仅体现在数据交易之中,还贯穿于数据利用的过程之中。因此,正是由于人工智能基础数据的独特属性,传统理论很难为其找到适宜的保护路径。

除此之外,在数据保护的相关立法层面,2020年5月颁布的《民法典》主要是规制涉及个人信息的数据,2021年6月通过的《中华人民共和国数据安全法》(以下简称《数据安全法》)主要是针对普通数据(包括政务数据)作出的一般性规定,2021年8月通过的《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)则是对以电子或者其他方式记录的与已识别或者可识别的自然人有关的各种信息进行保护。然而与人工智能技术密切相关的基础数据的知识产权问题在这一轮数据法治进程中并未获得更多关注,亟需进一步完善相关立法,从而形成专门的法律规制体系。

人工智能正在深刻地改变着我们的社会生活。目前人工智能主要在不同应用场景下利用大量的基础数据训练和验证人工神经网络,因此人工智能基础数据是人工神经网络是否能够成功生成的重要因素。我国《新一代人工智能发展规划》明确提出了“人工智能基础数据与安全检测平台”。有学者也曾指出:“数据资源与土地、劳动力、资本等生产要素一样,已经成为促进经济增长和社会发展的基本要素。”作为数据资源的一种重要类型,人工智能基础数据是人工智能行业发展的基石,如果没有合适的基础数据,我国很多人工智能应用型企业的产品就难以持续有效地进行训练和验证。然而,目前在通常情况下,以谷歌和脸书为代表的美国大型跨国公司免费开放其所拥有的人工智能基础数据,我国很多应用型企业和研究机构使用的相关基础数据却是从包括上述美国公司在内的国外大型跨国公司直接获取和使用。数据获取的被动性困境严重制约了我国人工智能技术的发展进程,长此以往将对以人工智能为重要技术支撑的国家高新科技实力的提升造成不利影响,因此,积极研发和培育自主性人工智能基础数据资源迫在眉睫。

但是,人工智能基础数据需要大量人力和物力的持续投入,而且为了加快训练速度以及提高产品效果,在特定的应用场景还需要对原始数据进行清洗和标记等预处理,然而这些预处理的过程非常复杂和繁琐,期间不免会产生有关基础数据的归属、管理、交易以及不法利用等法律问题。因此,人工智能基础数据作为一种新兴科技领域的数据类型,应以法治思维和法治方式考量其培育过程和后续权属状态的规制;与此同时,作为人类智力成果的新晋形式,其应当纳入到知识产权法治范畴,并对其知识产权的保护予以规范化设计。然而,我国现行的知识产权法律存在局限性保护的现实困境,人工智能基础数据专门法保护模式亟需确立。


















我国人工智能基础数据的

现行法保护困境

从知识产权法基本理论来看,人工智能技术的重要资源支撑——基础数据的法律属性是智力成果,应当在知识产权法治话语体系中挖掘其保护路径。然而,从立法学角度窥探,现行的知识产权法律体系是否能有人工智能基础数据保护的一席之地,这是实现基础数据保护法治化的重要前提。从目前我国知识产权法律相关内容来看,人工智能基础数据保护嵌入成文法体系存在客体和标准等一系列“格格不入、水土不服”的现实困境。(一)无法进入现行法保护的客体范畴首先,人工智能基础数据本身不是专利法保护的客体。专利法的客体是专利法保护的对象,亦即依照专利法可以被授予专利权的发明创造。《中华人民共和国专利法》(以下简称《专利法》)第2条规定:“发明,是指对产品、方法或其改进所提出的新的技术方案。实用新型,是指对产品的形状、构造或者其结合所提出的适于实用的新的技术方案。”技术方案是对要解决的技术问题采取利用自然规律的技术手段的结合。然而,数据本身是否属于利用自然规律的技术手段却存在广泛争议。因此,在实践中,企业通常在生成人工智能基础数据的方法方面尝试予以保护,但这并非是保护人工智能基础数据本身,因此作为一种间接保护,其保护力度明显不足。其次,人工智能基础数据并不完全是汇编作品。在我国司法实践中,有独创性的数据库通常是归入汇编作品并通过著作权法进行保护。比如北京中易中标电子信息技术有限公司与微软公司、微软(中国)有限公司侵害著作权纠纷二审民事判决书明确指出:“……是一个将四万三千多个自行开发的指令代码分别汇编形成的数据库作品,受《中华人民共和国著作权法》(以下简称《著作权法》)及相关国际公约、条约的保护。”但是,著作权保护的客体是汇编作品之中具有独创性的选择或编排的表达,并不直接保护其中的具体内容。因此,如果不侵犯具有独创性的选择或者编排,他人就可以自由地使用汇编作品之中的内容,这种显失公平的制度安排对人工智能基础数据的创作者而言是一种精神和经济的双重打击。此外,直接将数据纳入到邻接权的保护客体之中也是不合适的。邻接权又称为作品传播者权,是指作品传播者对其在传播作品过程中所做出的创造性劳动和投资而享有的权利。对于人工智能基础数据创作者而言,其创作人工智能基础数据并不是为了广泛传播,而是用于下一步的生产,或者通过数据交易从而实现其价值。再次,人工智能基础数据与商业秘密之间存在属性抵牾,导致前者无法作为商业秘密予以保护。其一,人工智能基础数据一旦向不特定的第三人公开,就不再具有商业秘密的属性。然而,数据得以利用的常态在于既要保障信息能够自由分享和流通并且为公众获得,又要确保数据创作者能够商品化其产品从而为生产提供充分的激励。因此,商业秘密的非公开性与人工智能基础数据的高度可复用性之间是相悖的。其二,根据《与贸易有关的知识产权协定》第39条以及《中华人民共和国反不正当竞争法》第9条的规定,人工智能基础数据作为商业秘密予以保护需要数据处于秘密状态并且已经被所有者采取保密措施。但对于人工智能应用型企业而言,整个算法的测试过程以及模型的训练过程均需要反复地使用此数据,并且由于计算力的稀缺,训练过程会在云端或者算力共享者端进行,然而将人工智能基础数据上传到云端很可能会破坏数据的秘密性。因此,无论从人工智能特殊的应用环境还是从有利于数据交易的角度出发,将人工智能基础数据作为商业秘密进行保护都是难以实现的。(二)创造性(独创性)难以达到现行法定标准首先,根据我国《专利法》第22条的规定,对于发明专利,创造性的要求是指与现有技术相比,此发明具有突出的实质性特点和显著的进步。对于实用新型专利,创造性的要求是要具有实质性特点和进步。然而,根据《专利审查指南》的相关规定,实质性特点是指对于本领域的技术人员而言,技术方案并非显而易见的。人工智能基础数据可能是在原始数据上进行标注等操作予以获得的,经过标注后的人工智能基础数据与原始数据之间的区别往往较小,很难达到《专利法》所规定的创造性标准。其次,我国《著作权法》所称作品是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果。对于独创性,2002年《最高人民法院关于审理著作权民事纠纷案件适用法律若干问题的解释》第15条规定:“由不同作者就同一题材创作的作品,作品的表达系独立完成并且有创作性的,应当认定作者各自享有独立著作权。”换言之,所谓独创性,要求作品不仅是由作者独立完成,并且具有创作性。然而,大多数的人工智能基础数据只是数据的集合或简单标注,因此人工智能基础数据与原始数据的区别度较低,其中的独创性因素并不突出。















保护人工智能基础数据的

域外立法实践


人工智能基础数据对人工智能产业的价值日益凸显,与此同时,伴随着人工智能技术的发展,个人信息受到侵犯的情形愈发增多,涉及个人信息的数据保护问题也逐渐获得立法者的更多关注。德国、美国以及欧盟等西方发达国家或地区为了确保其在人工智能技术方面的领先地位,努力尝试通过立法促进数据资源共享。因此,域外数据保护的相关立法进程也可以被视为保护个人信息与促进数据流通和共享之间的博弈过程。

早在1999年,美国学者莱斯格(Lawrence Lessig)就提出应当赋予个人数据所有权,从而确定个人对自身数据的财产权利。美国企业界也一直推动保护企业数据权的相关立法,促使企业作为数据权主体对自身的数据享有财产权利。与此同时,1999年7月美国统一州法全国委员会通过了《统一计算机信息交易法》,将信息财产确立为一种独立的法律客体,但只有两个州采纳。目前,西方发达国家或地区有关数据保护的立法路径不尽相同,主要包括德国知识产权法保护路径、美国判例法保护路径以及欧盟专门法保护路径。无论是美国模式还是德国模式,都是从现行法的基础上尝试对数据进行保护,但都存在保护不力的缺陷。欧盟模式从专门立法的角度对数据进行保护又陷入了个人数据与非个人数据之间的利益纠缠。

第一,德国《著作权与邻接权法》第87条规定,受邻接权保护的数据是系统的或者按一定方法进行的排列,可通过电子或者其他方式获得的,在搜集、校对或者呈现上需要有质或者量的实质性投资的作品、数据或其他材料的汇集。此法的第二编第六章规定了数据制作者具有排他性的权利,这种排他性的权利涵盖了对数据集在方式或范围上的实质部分进行复制、发行或再利用。由此可见,德国通过将数据纳入邻接权的客体进行保护,因此,对于独创性不高的人工智能基础数据而言,其保护力度较低。

第二,美国判例法制度对于不受版权保护但本身却具有实用价值的非物质信息可以给予一定保护。这种保护手段存在于法院的判决之中,当发生针对版权保护的客体范畴之外的非物质信息方面的纠纷时,法院可以通过判例的形式逐步获得对这类信息的相关权益予以救济的手段。美国在司法实践中形成了保护特定信息的盗用原则(Misappropriation Doctrine)。盗用原则是1918年美国最高法院在International New Service V. Associated Press案中首次确立的,国际新闻服务公司(International New Service)未经联合出版公司(Associated Press)的同意,擅自复制了后者出版的关于一战的新闻。最高法院大法官认为此种行为是一种“在未播种的地方进行收获的行为(endeavoring to reap where it had not sown)”。另外,有学者认为,包括人工智能基础数据在内的商业数据在美国还可以通过适用不正当竞争法的原则性条款进行保护,例如《联邦贸易委员会法》第5条。但是,通过原则性条款的保护只是立法上的次优选择,毕竟使用原则性条款对数据进行保护具有较大的不确定性。

第三,欧盟1996年通过的《数据库法律保护指令》对于数据库使用了较为宽泛的定义,即经系统或有序的安排,并可通过电子或其他手段单独加以访问的独立的作品、数据或其他材料的集合,并且,第三章规定了“非独创性数据库”及其制作者的一系列特殊权利(sui generis right)。但是,欧盟委员会在2005年12月对此指令的立法效果进行调查时发现,立法并未实现促进数据库发展的目的。这主要是因为此指令对于特殊权利范围所使用的措辞较为模糊,无论在欧盟还是其成员国层面都存在解释上的困难,从而使得权利人在适用法律时面临着较大的不确定性。欧盟2018年5月25日正式实施的《一般数据保护条例》过分强调了原始数据特别是个人数据的泄露风险,其保持了欧盟一贯的立法风格,即在保护创新和保护隐私权之间更倾向于后者。从整体上看,《一般数据保护条例》主要突出了私权至上的原则,对数据控制者和处理者使用个人数据进行了严格限制。具体来说,《一般数据保护条例》赋予了数据权主体七项主要权利,即知情权、访问权、修正权、被遗忘权、限制处理权、可携带权以及拒绝使用权。其中,限制处理权和拒绝使用权这两项权利对人工智能基础数据的限制最多。值得注意的是,欧盟议会2018年10月4日投票通过了《非个人数据自由流动条例》,此条例旨在欧洲范围之内消除非个人数据在存储和处理方面的地域限制。此条例的通过是对《一般数据保护条例》的修正,通过将数据二分为个人数据与非个人数据,平衡个人隐私权与数据权之间的关系。由此可见,即使对保护个人权利极为重视的欧盟,其也不会完全无视数据在产业上的重要作用。但是,欧盟的保护路径仍然存在一定的缺陷,即由于个人数据与非个人数据之间的界限难以严格厘清,在实际操作中势必会存在困难。

从人工智能基础数据的保护模式来看,虽然目前德国、美国以及欧盟尚未对人工智能基础数据进行专门立法保护,但是在最新的立法动态中都表现出对人工智能基础数据的重视。美国在2017年12月通过的《人工智能未来法案》提到了要促进人工智能数据共享以及保护个人隐私等问题。同样,欧盟在2020年2月发布的《人工智能白皮书》也提出,要创建可信赖的人工智能欧洲数据池,并明确提出欧盟应抓住“下一个数据浪潮”。随着人工智能行业的快速发展,人工智能基础数据将更加不可或缺,如何激发人工智能基础数据创作者的创作热情,并且平衡人工智能基础数据创作者与个人信息所有者之间的利益将成为各国立法者亟需解决的关键问题。

另外,值得注意的是,世界各国对数据利用和个人信息保护这二者的价值倾向选择有所不同,从而导致了针对数据保护制定的政策和法律也有所区别。从全球范围来看,具体存在以下三种完全不同的模式:第一种模式是从维护商业利益的角度出发,对数据跨境流动进行监管,即优先保护企业的利益,积极倡导行业自律和行业自由发展,相关立法十分谨慎,对数据跨境流动的监管也相对宽松,美国是采取这种模式的代表性国家。第二种模式是从注重保护个人信息和隐私的角度出发,对数据跨境流动进行严格监管。这种模式往往是基于历史传统文化,非常重视对个人信息权和隐私权的保护,例如欧盟根据《一般数据保护条例》严控数据的跨境流动。第三种模式是从注重数据主权的角度出发,对数据跨境流动进行严格监管。例如俄罗斯就通过相关立法予以规定,涉及俄罗斯公民的数据必须在俄罗斯本地服务器进行存储,加工或处理俄罗斯公民的数据也必须在俄罗斯本国进行。这实际上是对数据的“闭关锁国”,不利于人工智能行业的健康发展,是一种以丧失发展机遇为代价的极端保护模式。除了俄罗斯以外,巴西、印度以及马来西亚等国家也都有类似的监管制度。















人工智能基础数据的

专门立法保护进路


人类社会是一切人类行为的总和。从动态视角看,社会运行依托的是人们实施的各种行为,这作为人类社会发展史的一般规律,即使在技术理性高度发达和人工智能技术迅猛发展的当今时代仍然没有过时。因此,法律制度作为规范人类行为和确保社会有序运行的现代规则安排,对于人工智能技术领域的治理发挥着不可或缺的重要作用。其中,基础数据作为人工智能技术的核心要素,对其进行全面、系统和有效的法律保护是确保人工智能技术可持续发展的必要环节。然而,从节约法律治理成本的角度考量,将一种日益凸显的社会问题纳入法治轨道予以应对,人们一般是从“旧法”即现行法律体系之中去寻找与之相匹配的规则内容,并非起初就沿着制定“新法”的方向去考虑。而且,正如前文所述,人工智能基础数据具有知识产权性,这也为人工智能基础数据的法律保护路径进入现有的知识产权法律体系提供了理论支撑。但是,面对人工智能基础数据自身所存在的特有属性及其衍生的应用问题,现有的知识产权法律体系并不能予以有效回应。因此,在进一步考察和分析域外立法实践的基础上,我们有必要另起炉灶式地对人工智能基础数据实施专门法保护,即制定《人工智能基础数据保护条例》,其立法逻辑进路具体如下:第一,考虑到人工智能基础数据具有不同于传统数据的一系列特点,专门法应当确立全新的保护原则;第二,从立法学原理来看,法律作为权利义务的集合,专门法应当明晰基础数据的相关权利义务;第三,考虑到人工智能技术的门槛高和更新快等特点,专门法应当通过建立行政监管与行业自律相结合的保护机制,从而推动基础数据的多元主体保护进程;第四,基于人工智能基础数据自由流动的属性要求,当其涉及跨境问题时,专门法应当作出相应的监管规定。

(一)确立人工智能基础数据保护的基本原则

我国目前与数据保护相关的立法主要是从知情同意、合目的性和最少使用三个方面确立数据保护的基本原则。其中,知情同意原则作为核心原则,是指任何采集、利用和处理个人数据的行为都应事先通知当事人并征求其同意。合目的原则和最少使用原则都指向对个人数据利用和处理行为的规制,要求前述行为不仅受到初始目的的约束,还要尽可能少地利用和处理个人数据。

传统的数据保护三大原则更加重视对数据之中有关个人信息的保护,在数据收集、利用以及处理之前,通过事前积极的预防性控制,明确划定数据收集、处理和利用的界限。但是,考虑到人工智能基础数据的独有特点,直接适用传统的数据保护三大原则存在阻碍人工智能基础数据创作的潜在风险,也不利于人工智能基础数据的开放和共享。首先,知情同意原则的提出是数据权主体行使其个人数据支配权的具体表现。围绕此原则,数据利用者履行了极为复杂的通知义务,但是其沿袭传统消费者合同“强制披露”的管制思路,却从来都面临着质疑。人工智能基础数据需要在原始数据的基础上进行创作,通过前述创作过程,人工智能基础数据载有个人信息的可能性将大幅度降低。如果立法要求人工智能基础数据的创作者严格履行通知义务,保护个人信息的收效则变得极为有限,并且将极大地增加其创作成本。其次,由于人工智能技术的应用目的多种多样,立法要求数据创作者履行合目的和最少使用的义务则过分增加了其负担。在现代国家体制下,利益衡量主要是立法者的义务,如何平衡人工智能基础数据之中各种利益的冲突,应当属于《人工智能基础数据保护条例》立法工作的重点之一。总而言之,由于人工智能基础数据自身所独有的特点,传统的数据保护原则并不能直接适用。与此不同,由于《人工智能基础数据保护条例》作为我国《民法典》的下位法,考虑到下位法不能与上位法相抵触,那么在涉及个人信息的人工智能基础数据保护方面,应当遵循《民法典》所提出的“合法、正当、必要原则,且不得过度处理”。此外,在严格保护个人信息的前提下,为了更好地促进人工智能基础数据的流通,提高基础数据的利用价值和效率,人工智能基础数据保护还应当包括以下三项新型原则:

第一,数据安全原则。数据安全原则是指为了保障人工智能基础数据的创作安全、使用安全和流通安全,从而避免人工智能基础数据在创作、使用以及流通过程中受到恶意毁坏、违规接触或者不法利用,人工智能基础数据保护的相关立法应当明确创作者保障数据安全的责任和义务。尽管我国《民法典》第1038条规定了信息收集者和控制者负有保障个人信息安全的义务,然而此法条也仅是明确了涉及个人信息的数据安全保障义务,未涵盖所有的数据类型,并且其安全保障义务也仅限于收集和存储阶段,未将数据创作和流通阶段纳入个人信息安全监管的范畴。因此,《人工智能基础数据保护条例》有必要进一步明确人工智能基础数据创作者和控制者对于数据安全所承担的保障义务。

第二,数据共享原则。随着人工智能技术的不断发展,基础数据的价值日益凸显,数据孤岛现象也愈加严重。所谓数据孤岛现象,是指基础数据被存储在政府或者企业的服务器上,这种分散存储的方式导致数据之间彼此独立,再加上不同的数据控制者对同一数据具有不同的用途,因此不同的数据控制者之间的数据像一座座散落在互联网海洋的孤岛,并不能有效地实现开放和共享。数据孤岛现象必然会导致数据资源被重复存储和创作,从而导致大量人力和物力的浪费。数据孤岛现象的产生不仅是由于受到技术发展的制约,从某种程度上也是因为目前的法律制度并不能满足技术发展的需求。尤其是针对人工智能基础数据而言,同一组数据可以训练多种适用于不同应用场景的人工智能算法,因此为了避免数据资源的浪费,鼓励人工智能基础数据的开放和共享应当是《人工智能基础数据保护条例》的基本原则之一。

第三,分类管理原则。数据是信息的载体,不同数据所蕴含的信息内容也有所不同。有学者主张根据数据的信息内容和生成过程对数据进行分类,具体包括用户的信息数据、用户发布的数据、平台自采的数据以及衍生的数据。因此,人工智能基础数据不应一概而论,而是应当分类管理和区别对待。其一,对于仅含有风景、物体的图片等无法识别出特定个人且不属于国家秘密或者商业秘密的人工智能基础数据,应当在确保数据安全的前提下,采用行业自律为主、行政主管部门监管为辅的管理模式,鼓励其开放和共享,充分释放此类人工智能基础数据的潜在价值。其二,对于人脸图像、个人活动轨迹等能够识别出特定个人的人工智能基础数据,则需要采取行政主管部门监管为主、行业自律为辅的管理模式,并且根据数据涉及个人隐私的程度进一步将此类基础数据划分为私密数据和非私密数据。对于私密数据的流通,应当严格依照知情同意原则,事先取得数据权主体的同意,否则被视为非法的数据流通;对于非私密数据的流通,则可以适当弱化知情同意原则,以促进此类基础数据的开放和共享。其三,应当严格限制涉及国家秘密的人工智能基础数据的开放和共享,并严格按照《中华人民共和国保守国家秘密法》的规定,由特定行政主管机关对此类基础数据进行标记和管理。

(二)明晰人工智能基础数据的相关权利义务

理论界对于数据权的内容有不同的观点。有学者根据不同的权利主体将数据权分为数据创作者的数据权以及数据利用者的数据权,其中数据创作者的数据权又包括了隐私权等人格权。事实上,此处涉及的人格权是指被归入“信息性隐私”范畴的且被定义成新型人格权的个人信息权。然而,与个人信息权有所不同,数据权是以财产利益为导向的。我国《民法典》倾向于将数据权与个人信息权区分对待。例如,《民法典》第四编规定了一般人格权和各项具体人格权,第六章则在充分考量个人信息与隐私既相似又相异的特性后,将个人信息权作为一种特殊人格权予以保护。相反,在人格权和财产权的二分格局下,无论是过去的《中华人民共和国民法总则(一审稿草案)》将数据视为一种知识产权,还是如今的《民法典》将其和网络虚拟财产并列,数据均未脱离财产权的性质,因此,《人工智能基础数据保护条例》应当明确,基础数据权的内容应当仅包括财产权,把数据创作者的人格权排除在外。具体言之,人工智能基础数据权作为财产权,其所有者享有通过人工智能基础数据获得收益的权利。由于数据具有无限复制的特点,转让数据的所有权并非是实现利益最大化的最佳途径,因此《人工智能基础数据保护条例》还需要建立基于数据权的许可制度。许可是让渡财产权之中除所有权以外的其他权利的行为,比如许可作为知识产权制度设计的重要环节,是知识产权所有者行使权利和获得收益的主要手段。在人工智能基础数据专门立法中引入许可制度是实现数据价值的重要保证,也可以更有效地鼓励数据所有者开放数据。

没有无义务的权利,权利与义务的对应性决定了人工智能基础数据权的对立面是相应的义务需要严格履行。首先,人工智能基础数据的所有者具有向原始数据的所有者分享收益的义务。人工智能基础数据是对海量的原始数据进行清洗、重排和标注等预处理之后形成的可以用来进行人工智能训练的数据。因此,由于人工智能基础数据是在原始数据的基础上带来的价值提升,人工智能基础数据的所有者只能就其增值部分享有权利,其对原始数据的所有者需要让渡收益的义务则应当在《人工智能基础数据保护条例》中予以明晰。其次,人工智能基础数据的所有者具有保护个人信息安全的义务。我国《民法典》规定,自然人的个人信息受法律保护。并且《民法典》在《中华人民共和国网络安全法》(以下简称《网络安全法》)第76条的基础上,进一步对个人信息的定义予以完善,即个人信息是以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人的各种信息,包括自然人的姓名、出生日期、身份证件号码、生物识别信息、住址、电话号码、电子邮箱、健康信息、行踪信息等。由此可见,个人信息权所保护的与个人身份相关的信息属于隐私权保护的范畴。尽管过于强调个人信息权必然会降低数据资源的流动性,从而降低数据资源的价值,但是如果无视个人信息权,个人隐私便易于泄露,从而将导致严重的信息安全隐患问题。因此,人工智能基础数据的所有者在享有占有、使用以及交易基础数据等权利的同时,还应当履行保护个人信息安全的义务。具体来说,《人工智能基础数据保护条例》应当在《民法典》《网络安全法》《数据安全法》《个人信息保护法》等法律框架内,进一步明确个人信息安全保护的责任主体。由于此责任主体应为个人信息的控制者,那么人工智能基础数据的创作者或持有者作为相关个人信息的控制者,应当承担个人信息安全的保护责任。一方面,在创作或使用基础数据时,基础数据的创作者作为此数据的实际控制者,其也实际控制着个人信息,因此应负有保护个人信息安全的义务。另一方面,基础数据的持有者可以通过许可和转让两种方式处分基础数据。许可是对基础数据使用权的让渡,由于数据具有可复制的特点,许可方与被许可方均是基础数据的实际控制者,因此双方都应当承担个人信息安全的保护责任。转让则需要转移基础数据的所有权,转让完成后,转让方丧失了对个人信息的实际控制,因此其保护个人信息安全的义务也应随所有权一同转移给被转让方。最后,在人工智能基础数据的所有者的合法权益受到侵犯时,《人工智能基础数据保护条例》应当根据不同的侵权行为情节给予相应的救济力度。知识产权是一种绝对权和对世权,基础数据的所有者在占有、使用以及交易数据时所享有的各项权利理应受到尊重和保护。因此,当相关合法权益受到侵犯时,不法侵害人应当承担停止侵害、消除影响、赔礼道歉或者赔偿损失等民事责任;情节严重的,则应当承担相应的刑事责任。

(三)建立行政监管与行业自律相结合的保护机制

《人工智能基础数据保护条例》需要调整多种利益冲突,其中既有人工智能基础数据创作者与原始数据所有者之间的利益冲突,也存在人工智能基础数据创作者和个人信息所有者之间的利益冲突。为了更好地解决这些利益纠葛,各级行政主管部门应当承担其应有的责任。首先,各地区和各部门应对其工作之中所产生、汇总以及加工的人工智能基础数据施加保护,承担主体责任;其次,各行业主管部门应对其所主管领域中产生和运用的人工智能基础数据予以保护,承担监管责任;最后,由国家网络安全主管部门统筹保护在信息网络中传播的人工智能基础数据。

然而,人工智能基础数据主要服务于人工智能行业,人工智能行业具有技术门槛高和知识产权密集等特点,发展规律和发展模式也不同于以往的传统行业,其更加依赖于数据、算法以及计算机网络等新兴技术,因此,仅通过国家强制手段保护人工智能基础数据有其自身局限性,不能满足行业发展的需要,还应当通过行业自律手段为人工智能基础数据提供更加周延的保护。行业自律是指由行业组织根据具体协议制定行为规则,约束和规范行业内部各企业的日常生产、经营或管理等行为,在不违反强制性法律法规或者得到相关授权的前提下,由行业组织对违反规则的行为进行谴责或处罚。此行业自律规则也被称为“软法”,是一种尽管不具有国家强制力,但又起到一定约束效果的行为规范,此约束效果主要来源于行业组织成员的自我约束,是一种重要的自主治理形式。因此,《人工智能基础数据保护条例》应当明确加强对人工智能行业的积极引导,鼓励人工智能应用型企业对基础数据流通过程之中的相关行为进行自我约束和规制,从而形成业内良好的数据流通生态。

近年来,针对数据流通领域的自律规则或公约正在逐渐涌现。2014年6月,中关村大数据交易产业联盟发布了《中关村数海大数据交易平台规则(征求意见稿)》;2015年5月,贵阳大数据交易所发布了《贵阳大数据交易所702公约》;2016年7月,数据中心联盟与中国信息通信研究院联合制定了《数据流通行业自律公约》。上述规则或公约作为数据流通的行业行为规范已经开启了人工智能基础数据自律保护的践行之路,尤其是《数据流通行业自律公约》作为到目前为止较为全面和规范的典型之一,其包含加强用户数据保护,促进数据交易、共享和转移等环节的有序规范,推动数据的充分流通和价值开发,完善企业内部制度管理和技术保障等内容。此外,《数据流通行业自律公约》不仅约定了数据流通规则,还针对侵犯个人隐私权的行为制定了相关惩罚措施,即对个人与企业的权益协调以及企业的社会责任等方面予以明确规定。随着人工智能基础数据流通规模的不断扩大以及行业内部对基础数据保护意识的逐步提升,未来将会有更多的有关数据流通的行业行为规范“正在赶来的路上”。因此,《人工智能基础数据保护条例》也应当通过设置相关条款明确对行业自律保护的鼓励态度,从而在立法层面推动基础数据的行业自律保护更加纵深发展。

(四)加强人工智能基础数据跨境流动的过程监管

20世纪70年代,世界经济合作与发展组织首次提出了“跨境数据流动”的概念。随着互联网技术和分布式存储技术的发展,目前全球整体呈现数据存储的集中化趋势,数据的跨境流动现象日益增多,导致数据权被侵犯的概率大幅度提高。因此,对人工智能基础数据跨境流动的过程监管应当成为相关专门立法设计的重点考量进路之一。

第一,目前跨境数据流动的监管标准主要有“以地理区域为基准”(geographically based)和“以组织机构为基准”(organizationally based)的两种规制路径:前者依“充分性”(adequacy)原则,后者依“问责制”(accountability)原则。由于近年来这两种规制路径已呈现融合的趋势,《人工智能基础数据保护条例》可以尝试采用两种规制路径相结合的立法范式,从而实现对人工智能基础数据跨境流动的有效监管。

第二,为了确保人工智能基础数据跨境流动在各国法律框架内都能通畅无阻,充分发挥人工智能基础数据的最大效用,《人工智能基础数据保护条例》需要协调国内法与外国法在数据跨境流动方面相关规定的冲突。正如学者王利明指出:“不同国家之间的立法差异是导致跨境数据流动受到阻碍的主要原因。”综合考察域外立法实践,各国之间关于数据保护的立法模式冲突主要体现在对数据跨境流动的监管思路和对个人信息的保护力度这两个方面,因此,我们应当在《人工智能基础数据保护条例》之中明晰解决上述冲突的基本原则和具体规则。首先,原则性立场是维护我国数据主权,加强对数据跨境流动的监管,保护本国数据资源,在数据跨境流动的国际谈判中占得先机。其次,对不同类别的人工智能基础数据采取差异化的监管策略:对于无法识别出属于特定个人的,并且也不属于商业秘密或者国家秘密的人工智能基础数据,可以采用较为宽松的监管策略,鼓励此类人工智能基础数据的开放和共享;对于能够识别出属于特定个人的,或者属于企业的商业秘密的人工智能基础数据,则应当严格监管,并且加大违规惩罚力度;对于属于国家秘密的人工智能基础数据,则应严格执行本地存储和处理,禁止此类人工智能基础数据的跨境流动。再次,在选择准据法时,综合考虑人工智能基础数据生成地、数据权人所在地或侵权行为发生地,选择是否应当适用我国的《人工智能基础数据保护条例》。具体来说,从维护我国的数据主权、保护我国人工智能基础数据创作者的合法权益、保障我国人工智能产业的健康发展等角度进行考量,当人工智能基础数据生成地、数据权人所在地或侵权行为发生地之中的任何一处在我国境内,就应当适用我国法律。















结  论


当今世界的人工智能技术飞速发展,人们的生产和生活从其中受益愈发凸显,人类社会文明程度取得重大的历史性飞跃。然而,无论进步到多么发达的水平,科学技术始终离不开人类智慧的支撑和主宰,技术理性在人工智能技术持续发展的进程中仍然占据重要地位。但凡失去技术理性,当人工智能技术水平越高时,其潜在的技术风险、行业风险以及道德风险就会越大。因此对技术本身发展具有重要意义的人工智能技术理性需要规范(法律)理性予以保障,具体范式是以法治思维和法治方式保障人工智能技术。作为人工智能核心要素的基础数据是“依法治AI(Artificial Intelligence的英文缩写)”的关键内容。尽管人工智能基础数据属于人类的智力成果,但又不同于传统意义上的知识产权客体,其具有可以无限复制、容易扩散以及越用越增值等特性,因此现行知识产权法律在人工智能基础数据的保护方面存在诸多困境,从而不利于基础数据的开源开放或技术本身的创新。为了确保人工智能行业的健康发展,针对人工智能技术的必要支撑要素——基础数据,在根据《数据安全法》实施一般性保护的基础上,我国亟需通过制定《人工智能基础数据保护条例》,对此类数据的保护原则、相关权利义务、多元主体保护以及跨境流通监管等方面进行规定,从而形成人工智能基础数据的专门法保护路径。










阅读扩展

谢寄博︱中国共产党保证执法的实践逻辑——以行政执法体制改革为视角

张炜达︱论全面依法治国背景下党的领导法治化

钱锦宇︱论党的领导与全民守法:以党的治国理政领导力为视域的阐释

刘雁冰︱《国际卫生条例》在新冠疫情应对中的困境与完善

刘丹冰︱我国金融市场流动性监管法律制度的创新与演进——从“守住不发生系统性风险底线”说起

宋华琳/郭一君︱行政协议识别标准的再探讨


END


责任编辑 | 霍  丽

 网络编辑 | 樊丹丹

  审    核 | 卫  玲


1913年创刊

 更多内容请访问《西北大学学报》首页了解:http://jnwu.nwu.edu.cn

     投稿:xbds.cb.cnki.net  

电话:029-88302242

         邮箱:xdxbsk@nwu.edu.cn

      注:本文发表于《西北大学学报(哲学社会科学版)》2021年6期第153-162页。欢迎转载,转载请注明:文章转载自“西北大学学报哲学社会科学版”微信公众号。敬谢!

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存