李晓明:论人工智能刑法规制的技术规范
技术规范是有关人类在利用各类技术时应当遵守的行为准则,由于技术的高度专业性,传统刑法规范难以完全适用其中,因此必要时技术规范也可以进入刑法规制。普通法律规范规制“信息技术”可能产生的漏洞与风险,人工智能刑法规制中涉及的高度技术性及其专业性,人工智能时代面临着未来刑法规范的必要转型。未来人工智能刑法规制中“技术规范”的拓展至全方位动态技术监管体系,需要进一步固定与设计技术法律规范的概念标准,需要进一步完善和加强技术法律规范的具体制度,在搭建起数据安全动态监管框架的基础之上,需要考虑进行框架内具体的技术规范制度设计与填充。为避免数据安全技术法律规范原则性的概括指导,应对人工智能技术特征、行为模式、侵害后果进行全面而具体把握,设计一整套全方位、综合性的技术规范,以期实现数据安全风险的最小化。
关键词:技术规范 人工智能 侵害风险 有效规制 数据收集 社会规范
也有学者认为,“所谓技术规范是指由技术本身所构成的调整人与人之间权利与义务关系的规范”。然而,如此也就无法将技术规范与调整人与人之间关系之社会规范进行有效区分,因为其过分强调了规范调整的后果归属,将一切规范调整之目的都解释为人与人之间利益变动的需要,是对规范解读的过分延伸,并不十分合理,更不适合于当今大数据和人工智能时代所需要的技术规范要求。笔者认为,从区分技术规范与社会规范的前提出发,应当仅仅将技术规范限定在调整人类利用各类科学技术时应当遵守的技术行为准则上。
当然,笔者认为本文的技术规范,有别于传统意义的技术规范。一方面,在人工智能和科技时代的背景下,更加强调规范本身的知识性与智能性;另一方面,在规制的价值属性上,技术规范应当是完全中立的,不带任何主观评价色彩,所直接调整的仅仅是人与自然、社会,乃至人的语言、思维等领域的技术行为准则,而不涉及人与人之间的利益关系。
如上所述,所谓“规范”一般可分为技术规范与社会规范两类,前者调整的是人与自然或人与技术规律之间关系的规范,后者只调整人与人之间关系的规范。通说认为,法律规范应当归属于社会规范。也就是说,法律规范应当约束限制的仅仅是人与人之间的利益关系,传统法律部门多具此类特征,甚至新兴的“环境法”中,多数学者认为,本质上来说其仍然调整的是人与人之间的核心利益。例如,汪劲教授认为:“法学的主要取向仍然趋向于维护建立在传统伦理道德基础上的‘正义’,即对人与人之间的社会关系的调整……因此,现行环境法仍旧只是以人的利益为中心,间接反射至环境利益的。”但从条文本身来看,其规范构成本身具有极强的科技性,大多根据自然科学或技术规律来约束人类在利用、保护自然或遵守技术规则方面的行为方式,一味地引申或解读社会规范,实则是人类中心主义的错误扩张。必须承认的是,包括国际公约等世界各国的法律法规中,的确存在大量有关人与自然及科学技术规则的法律规范,包括在森林保护、环境保护、自然资源保护方面人类应当遵守的行为规则等,尤其在大数据和人工智能时代更是如此。因此,对于“法律规范属于社会规范”的传统观点,在科技时代的大变迁和迅猛发展过程中,尤其是在未来大数据和人工智能规则与规制中必需作出相应的调整,以充分考虑当今时代社会规则与技术规则的融合性。
一般认为,人工智能可具体划分为弱人工智能、强人工智能以及超人工智能。而在弱人工智能时代,人工智能区别于一般网络技术的重要特征之一就是“深度学习”功能,也即“对于某类任务T和性能度量P,在T上以P衡量的性能随着经验E而自我完善”。由于依托大数据及互联网的功能构架,在完成基础的算法编程与数据输入后,其仍会根据其后续环境变化带来的数据扩增进行更为深入地学习理解,也即所谓“数据喂养人工智能”。因此,多数人工智能产品最终的处理变化一般会脱离技术人员的最初设定,若固守只有人类才可以成为法律规制对象的传统观点,一旦人工智能产生对人类的人身或财产的侵害,便极有可能造成对程序员等技术人员的不当处罚,或者对人工智能机器的规制真空,显失公允。然而,这些技术风险又不是完全不可控的,尤其作为编制程序及机器人的制造者,提高自己的技术防范意识才是所讨论的刑法规制中技术规范的核心。
因此,在今后不能单纯认为法律规范完全属于社会规范的范畴,根据调整对象的不同,法律规范可能仅仅具有社会规范的特征,也可能兼具社会规范与技术规范的特征。换言之,技术规范本身与法律规范是可以相互兼容的,它们共同作为行为调整的基本准则。
由于部分规制内容的高度专业化及技术性的特征,传统法律规范无法完全涵盖和适用,故技术规范在我国未来的刑法规制中成为扩展性的趋势。笔者认为,根据技术规范特征及解决问题类型的不同,其在刑法条文中的应用方式主要有两种:
尤其是在人工智能的背景下,技术规范不仅表现出不可替代性,而且愈加表现出不可缺少性。与传统技术规范相比,现代意义上的技术规范不仅包括人与自然之间的法则,而且包括人与管理技术和操作规程方面的法则,如交通安全法则、生产安全规章、国家计量标准、人工智能技术的开发与操作规程、数学通讯符号的设置规则等。正如有学者指出的那样,所谓技术规范是指由技术本身所构成的调整人与人之间权利与义务关系的规范。技术规则本身就是一种规范,尤其在现代计算机及其网络世界里,这种技术规则与规范主要以计算机软件及其合成的人工智能为主要表现形式。显然,这是对传统技术规范突破性的挑战,尤其通过调整人与自然或技术之间的关系来调整人与人之间或整个社会之间的关系,不仅与纯粹的社会规范不同,甚至与传统的技术规范也形成了鲜明的对比。可以说,现代计算机及其网络意义上的技术规范是以技术规则为基础,直接调整人与自然或技术之间的权利义务关系,以及规范制定或操作人工智能技术等的行为之规范。相对来讲,现代意义上的社会规范则直接调整的是人与人之间的关系,即社会冲突、社会利益纷争中的纯人与人之间的利害关系,显然与现代技术规范的功能具有很大层面上的不同。
“人类在进入到21世纪的三个关键时点,相继进入了三个互相联系又略有区别的新时代,即网络社会时代、大数据时代、人工智能时代,三者共同构成了新的社会时代”。伴随着数据处理技术的飞速提升和互联网运用的全面普及,人类也逐步迈入人工智能时代。不论未来的“强人工智能”,甚至可能超越人类“奇点”的“超人工智能”,仅仅“弱人工智能”的现阶段,已经对法律提出了诸多的挑战与问题,因此面对人工智能,刑法规范必须转型。
在以“信息技术”为基础的网络世界里,充分体现了多变性、多样性、高速性、全球性等特征,很难全面有效地调整网络社会中的社会关系。而人工智能时代的侵害方式、危害规模、传播速度与范围较之网络社会更甚,因而更需要关注普通法律规范可能产生的漏洞。
普通法律规范具有一定的封闭性,很难应对发展迅速的人工智能犯罪问题。法律当然需要稳定性,立法的连续性与变化的速率不可太大,只有具有适度稳定性的法律才是健康的法律。法律的“朝令夕改”,一方面往往会导致民众的无所适从,损害法律的权威性;另一方面也会导致司法者的同案不同判,可能导致诸多同案不同判的司法不公。然而,在人工智能的背景下,加之借助大数据库和互联网的加持,其发展之快早已超出想象。正如我们还在惊叹于横扫棋坛的前三代“AlphaGo”,谷歌在去年又已推出了升级版“AlphaGoZero”,摆脱了以往预先输入人类知识的学习模式,“从零开始”学习围棋,仅用3天就击败其前辈版本。
而对于此类犯罪,侵害的方式与速率更是千变万化,因此带来高风险。而封闭的传统法律规范显然难以跟上或适应千变万化的技术违规与犯罪,容易给侵害行为留下漏洞。若仍旧依赖传统法律,在相应犯罪大规模产生后就会出现法律滞后和自顾不暇。因此,应尽快进行技术规范方面的立法,包括对刑法规范的补充、修改和完善。当然,在现如今信息技术日新月异的当下,除法律的频繁变动有损权威外,显然也会成倍地加大立法与司法者的工作压力。
纵观现有的立法规定,“中国的法律资源仍然停留于过去的时代,而未能及时跟进当前的新时代”。中国的“信息技术”立法保护从计算机时代开始,着重以计算机信息系统作为犯罪对象的不法规制,走过了网络时代,对利用计算机网络实施传统犯罪的行为给予了高度重视。但在目前人工智能时代,数据呈现高度集中与迅速流动的特点,与之对应的不法侵害也是变化万千。在国家立法并未有进一步跟进的背景下,坚持普通法律规制所带来的问题便开始逐现端倪:
1.技术规范的忽视容易导致法益保护范围上的漏洞及片面性
普通法律规制模式下,在涉及某些专业技术概念、专业技术手段的犯罪行为时,往往只关注和强调专业问题中的某一特定具体事实方面,而忽视对整体事实行为技术特征的上升概括。例如,刑法第116条规定的“破坏交通工具罪”,其中对于交通工具的描述,仅限于各类交通工具种类的列举,而不涉及“交通工具”这类技术概念体征的阐明理解。尽管关注和列举具体客观情况,可保障条文用语的平实简单、通俗易懂,但一旦外部环境发生变化,都有可能导致对法益保护的不全面和疏漏。实践中,一旦遇到条文具体描述之外的类型种类,往往诉诸于司法解释或者法官的自由裁量。但在人工智能时代,技术手段具有极高的专业性要求,法官仅凭公正信念难以作出准确裁量;同时,即使是制定程序相对简易快捷的司法解释,也并不能时时关注犯罪动向、频繁改动。
首先,对信息技术时代下新型法益的一般具体描述,可能导致概念适用时的不确定性。以“数据犯罪”为例,立法者早已注意到数据侵害问题的发展扩大趋势并进行了相应的规制控制。我国刑法第285条第2款及第286条第2款集中对“数据”的非法获取和破坏这两种侵害行为类型进行了具体明确的规制。但问题在于,这些条文仅关注了犯罪行为类型的全面涵盖,但忽略了“数据”概念范围的明确界分。条文中所谓的“计算机信息系统中存储、处理或者传输的数据”,过分关注数据的具体流动方式,并未抽象出数据的一般特征,具体判断时无法明确。
一方面从借鉴国外相关概念的角度进行理解。2001年欧盟制定公布的《网络犯罪公约》第1章第1条对网络犯罪相关概念进行了明释。公约使用了“计算机数据”这一明确技术概念,并明确其是“以任何事实、信息或概念的任何呈现,以一种适合于在计算机系统中处理的形式存在,包括一个适于引起计算机执行功能的程序”。因此,可以认为,公约所保护的数据范围限定在计算机系统内部能够实现计算机系统某项功能的数据类型。有学者认为,公约所指“计算机数据”概念即是我国刑法所承认的数据概念。但问题在于,该数据界定范围过于狭窄,只认同“按照系统的组织目标进行规整和排列”的内部数据,而我国刑法条文中“计算机信息系统中存储、处理、传输的数据”。从字面上看,并未有“实现计算机某项功能”之义。在“林某非法获取计算机信息系统数据罪”一案中,被告人林某作为某科技公司职工,非法盗取其公司计算机系统中包括“无人机系统级通讯协议”等的核心技术资料,该核心技术数据并非具有支持计算机系统某项功能的作用,其价值仅仅体现在其承载内容信息的机密重要性,但根据最终判决,法院依旧将其作为计算机系统内数据予以法律保护。因此,我国刑法中数据保护范围显然不可与该公约简单类比。
另一方面从相关司法解释条文规定中进行考量。2011年,“两高”联合颁布的《关于办理危害计算机信息系统安全刑事案件应用法律若干问题的解释》第1条对“非法获取计算机信息系统数据罪”的“情节严重行为”进行了具体明确,即包括“获取支付结算、证券交易、期货交易等网络金融服务的身份认证信息十组以上的”等行为,但解释中也只对“身份认证信息”这一类具体行为对象进行了明文规定。这是否意味着刑法规制的数据范围仅限于与“身份认证信息”。答案显然是否定的,计算机信息系统中传输储存的信息数据远不止“身份认证信息”这一种数据类型,包括位置信息、个人健康信息等诸多与我们日常紧密相连、利益相关的数据类型,很难仅仅依据司法解释的列举就简单将其排除在保护范围之外。
其次,对传统犯罪行为内容的过分限定,可能导致其难以适应信息技术时代的犯罪形态变化,刑法对传统法益的保护不免陷入被动。例如,有关“身份证件”的相关犯罪规定。2015年刑法修正案(九)对刑法第280条进行了补充修正,将“伪造、变造居民身份证罪”修订为“伪造、变造、买卖身份证件罪”,并在其后增加280条之一,也即“使用虚假身份证件、盗用身份证件罪”。该修订将护照、社会保障卡、驾照等可以用于证明公民身份的证件也一并容纳,克服了原先刑法条文仅仅将犯罪对象限定于“居民身份证”这一种身份证件类型的范围问题,一定程度上关注到了“居民身份证”的“证明公民身份”的一般特征功能,适应了时代发展下证件类型的不断扩张与更新。但问题在于,如此修订也仅仅囊括了“证件”类型下身份证明手段的犯罪侵害,而一旦跳脱开传统法定证件形式,刑法条文也难免再一次保守落后,最典型就如“人脸识别”“虹膜识别”等生物识别技术。
网络时代背景下,诸如“人脸识别”“虹膜识别”“指纹识别”等生物识别技术越来越多地受到重视与运用,其利用公民个人唯一的生物特征进行身份认定,因而较之传统证件手段似乎更具有唯一性和不可复制性而难以侵害,但也并非是完美无缺。各支付平台频频发生的“人脸识别”盗刷案件不得不引起高度重视。行为人通过盗取用户社交网站照片,录制和翻拍用户人像视频,甚至3D打印技术等都可以成功模拟出动态人像以此骗过不同系统的人脸识别关卡。由此可见,生物识别并非不可破解,甚至由于没有诸如“挂失”等补救措施,危害可能较之以往更甚。尽管若造成一定财产损失,可按照相应“财产犯罪”来进行处理,但在仅仅作为身份认证的场合,显然暴露出立法条文上的漏洞。碍于现行刑法条文中“身份证件”的表述方式,一方面“人脸”“虹膜”等个人生理特征无论如何也难以为“证件”的语义范围所容纳;另一方面“声音识别”“步态识别”等关注个人行为特征的生物识别技术也一直是作为科学研究的重点关注对象。此类形态特征甚至完全摒除了客观物质载体的形式外观。因而,笔者认为,是否应当弱化身份证明手段的外在形式界定,重点关注其用于“公民身份识别”的一般性功能特征,将“身份证件”概括表述为“身份识别信息”这一普遍技术特征,以此适应未来可能的更多识别技术发展。
同样问题也体现在线上支付方式的发展运用中,在智能手机与各类金融app普及的当下,中国早已经过信用卡时代,而率先引领了手机支付的革新。诸如“支付宝”“微信钱包”等线上支付app日益成为民众日常消费购物的首选支付方式,这类支付平台内往往储存和掌握着大量金融账户相关的数据信息,一旦发生数据的窃取、泄露事件,损害的不仅仅是公民的隐私安全利益,更重要的是公民现实相关的财产利益。
而在传统刑法条文中,仅仅第177条第1款对侵害支付类工具的犯罪进行了相应规制,即“妨害信用卡管理罪”和“窃取、收买、非法提供信用卡信息罪”,其将犯罪对象限定在具有客观实物的“电子支付卡”类型中,范围不免失之过窄。一方面难以通过刑法解释方式突破刑法第177条第1款。不可否认的是,该解释方式确实可以涵盖一部分侵害行为,由于诸多的线上支付工具均具有与用户银行信用卡绑定,从而承担用户直接支取银行卡内现金的中介作用,此时将app内相关资金信息解释为“信用卡信息”也未为不可。但并非所有的线上支付工具都是通过与银行信用卡相绑定而实现消费转账等功能。例如,“支付宝余额”“微信零钱”等功能程序,用户的资金信息并不来源于实在的信用卡,而是仅仅在支付平台内存储使用。此时,用户所有的资金信息数据并不与具有实体形式的支付卡相联系,强行将其中账户信息数据解释为信用卡信息,只能是有类推适用之嫌。另一方面也难以适用“非法获取计算机信息系统数据罪”的条文规定进行处置。其从保护公民数据隐私安全的角度,所规定的最高刑为3年以下有期徒刑,情节严重者可达7年以下有期徒刑,但“信用卡类”犯罪中,情节严重行为最高可达10年以下有期徒刑,同时也辅之以确定金额范围的财产刑。很明显,若仅仅适用数据犯罪保护思路,很难体现其侵害数据的特殊财产性质,不免导致罪刑失衡。有学者主张“信用卡”限定类别太过狭隘,可参照日本刑法中“非法制作支付用卡电磁记录等犯罪”“持有非法制作电磁记录用卡罪”等条文规定,将诸如储值卡、ETC卡等具有一般支付或提款功能的磁卡也包含在内。诚然“支付用卡”的用词关注到了公交卡、购物卡等信用卡之外更多的支付类磁卡,一定程度上扩大了针对支付工具类的侵害犯罪的打击范围。但针对网络时代下,线上支付手段的犯罪侵害行为仍束手无策。因而,笔者认为对于支付类信息数据可进一步抽象为“支付类电磁记录”,弱化对支付手段客观载体的强调限制,仅仅根据数据本身的财产价值性质进行保护,以全面覆盖线上支付时代的信息数据安全。
概言之,由于普通法律条文仅仅注意到了“信用卡信息”“身份证件”这一单一事实种类予以简单描述,而未注意到其背后“支付类信息”和“身份识别信息”的一般技术特征,难以应对复杂变化的现实情况。因而,“不能完全按照具体案件情况描述构成要件,而应进行必要的归纳、整理,把握事实的本质与重要特征”。在网络时代高科技犯罪的背景下,更应注重概括行为的一般技术特征,使用精准详细的技术规范,避免停留于对案件事实的表象关注。
2.技术规范的忽视容易导致刑事责任主体确定的混乱及不公正性
以“非法获取计算机信息系统数据罪”为例,司法工作者并非没有注意到技术变更带来的犯罪差异,例如,移动设备的不断普及导致数据范围逐渐脱离计算机终端的范围限制,因而为应对爆发式的移动终端数据侵害案件。2011年“两高”公布的《关于办理危害计算机信息系统安全刑事案件应用法律若干问题的解释》,将“计算机信息系统”定义为“具备自动处理数据功能的系统,包括计算机、网络设备、通信设备、自动化控制设备等”。将计算机仅仅作为系统设备的一种,扩大了系统设备的涵盖范围,智能手机、智能手表等新型电子设备也一并囊括在内。
但问题在于,司法者仅仅关注到了侵害数据范围的时代更迭,但对侵害数据的类型手段却鲜有问津。最初的计算机时代,数据的侵害仅仅是针对计算机系统本身而言,而进入网络时代,信息网络则兼具了侵害对象和侵害工具的功能,尽管这两种技术类型中,犯罪方式和类型发生了变化,但却都没有完全跳脱犯罪行为人的直接控制。也就是说,数据侵害的过程和结果始终处于行为人的直接掌控之下的。但现行条款的应对能力也仅止于网络时代犯罪,跨入人工智能时代,由于人工智能产品本身具有的“深度学习”的显著特征,即使在最初合理正确的研发编程基础之上,产品自身仍有可能在数据的不断交换学习过程中,发生后续算法系统的进化改良。换言之,即使发生人工智能产品对数据进行侵害控制的结果,也并非是在行为人直接有效的操控下发生的,可能并非出于开发管理者的主观故意、甚至有可能是完全的意外事件。因而,在人工智能时代尤其是强人工智能时代,经历最初的程序设定之后,投入使用的人工智能产品所发生的数据侵害行为或者说犯罪行为应当如何归责?学术界对此类问题早有争论,甚至就“人工智能是否独立承担刑事责任”形成了两种截然对立的观点。人工智能时代,其智能产品始终处于一种动态的变化过程,产品最初设计缺陷所造成侵害与后续自我发展漏洞所造成侵害,尽管在结果样态上可能并无二致,但不可一概而论。侵害原因发生的阶段不同也必须要严格对应着不同阶段研发管理人员不同的责任承担要求,也即人工智能产品不同侵害原因类型对应的责任义务主体不能等同视之,但如此责任义务的区分在现行条文中并未有任何体现。
总而言之,不同时代革新带来的技术特征发展,带来的不仅仅是法益侵害类型的变化,还包括侵害手段工具、过程阶段的变化发展。“刑事立法层面难以渗透技术差异理念,以致出现混淆人工智能犯罪、计算机系统犯罪和信息网络犯罪的尴尬处境,归根结底这是一种结果型立法的常态现状”。仅仅关注相关犯罪的数据侵害结果,而否认不同数据侵害类型背后的技术手段差别,其结果只能是将各类技术犯罪表面的“网络”特征无限扩大,片面地将所有的技术犯罪问题讨论停留在网络时代。信息技术虽然是作为各类智能产品发展的基础,俨然已不能充分涵盖新型技术产品的特征创新,一再忽视侵害行为所运用手段工具的技术特征、结果发生类型的技术原因,最终只会导致定罪归责的混乱与不公。
1.人工智能时代也给犯罪赋予了技术性和时代性特征人工智能侵害数据犯罪,往往需要极强的专业知识背景。以人工智能所依托的数据库为例,当前数据库攻击的最大来源是黑客攻击,人工智能所汇聚的数据资源更加丰富,规模也更加庞大,极易对黑客产生诱惑成为攻击对象。例如,2016年9月法国的OVH公司(提供网站托管服务)遭遇了前所未有的大型DDoS攻击,攻击者利用了物联网:黑入多个CCTV摄像头,形成僵尸网络进行攻击,服务器被攻击的峰值甚至达到了每秒1Tb。而这样的高强度数据攻击类型仅仅只是冰山一角,据专业人士介绍,针对数据库的攻击手段,主要包括六种:强力(或非强力)破解弱口令或默认的用户名及口令、特权提升、利用未用的和不需要的数据库服务和功能中的漏洞、针对未打补丁的数据库漏洞、SQL注入、窃取备份(未加密)的磁带。可见,人工智能背景下数据犯罪更加专业化,普通法律概念根本难以涵盖其特征要素。2.人工智能时代也框定出一些特定的违法犯罪行为人刑法作为规定犯罪和刑事责任及其辩护关系的法律规范的总和,具有引导规制人们日常行为的导向功能。刑法应当引导人们积极学法、懂法、守法,通过简练易懂的语言文字使人们充分理解行为的应当与不应当,从而引导人们实施合法行为。但技术规范往往因其特定的知识领域背景,对于一般民众而言晦涩难懂,难以理解遵守。如此看来,人工智能时代,若大量引入技术规范,则不能有效发挥刑法的规制功能,使刑法闲置无用?但事实并非如此。
人工智能背景下的数据侵害犯罪具有相当的科技专业性,因而,犯罪主体一般限于相关领域的专业技术人员,可以认为,此类数据侵害犯罪是一种特定的高智商犯罪。尽管一般的民众由于缺乏必要的知识背景,可能难以对技术规范的内容理解,表面上看来因为对条文理解的不规范可能诱发民众不经意间触发“红线”。但实际上,正因为其知识技能的缺乏,一般民众很难参与此类数据侵害犯罪。也就是说,一般民众本就不可能成为此类专业犯罪的行为主体,此时刑法面对的或者说试图规制的仅仅是具有侵害数据的专业知识技能的特定人群而已。因此,人工智能或许框定出某些特定违法犯罪人,不必担心存在刑法规制功能的失效。
技术的合理有效发展,离不开法律的必要规制。而在人工智能技术的变革发展下,为进一步降低数据集中的风险挑战,也为适应人工智能参与司法的模式转变,刑法必须进行价值观念及规范内容上的必要调整,甚至刑法规范的必要转型。
1.法律价值观念的重构法律价值指引着法律制度与规范的设计,在“公平正义”这一法律的普适价值之外,考虑到人工智能技术带来的新的社会风险性以及技术本身对法律从业的挑战,有必要重新考量法律的必要价值理念。首先,在人工智能时代,风险控制应当是法律应当追求的首要目标。不同于一般高科技技术的发展轨迹,人工智能技术在发展之初,已然引发民众对于该技术风险问题的强烈担忧。小到人工智能辅助工具对隐私数据的无所不入,大到最终的“类人机器人”时代的伦理道德约束问题,人们在初尝人工智能技术带来的便利果实,便已开始担忧未来的“失控”可能。因而,未来法律规制首要考虑的应当是对可能风险的防范与控制问题。一方面,在弱人工智能时代,着重保障数据安全,避免数据的可能滥用或泄露;另一方面,在强人工智能甚至超人工智能时代,则应当认真考虑人类如何避免来自“智能体”的不必要侵害。其次,人工智能时代应当注重法律的效率价值。效率是人工智能参与法律工作的最大优势,也是我们应当追求的价值理念。一方面,对数据犯罪而言,大量的数据泄露势必造成极其恶劣的社会影响,互联网时代的四通八达,晚一天实现对当事者的处置,就有可能导致信息的再次传播与扩散,此时以高效快捷的法律程序处理案件是将损失降至最低、保护受害人的最佳途径;另一方面,人工智能参与法律工作,其本身就具备极强的信息处理能力,承认并充分发挥该速度优势也是应有之义。最后,与时俱进应是法律追求的重要目标。不同于传统法律较为封闭的法律体系。人工智能技术发展的速度之快,也意味着犯罪手段方式的更新之快。若不及时更新相关规范内容,很容易被不法分子利用其中漏洞,在法网外肆意侵害。因此,传统封闭的法律条文规范,难以应对复杂的人工智能具体案件,应当随着技术的不断更新发展而调整规范内容。
2.技术规范的必要运用
人工智能背景下,由于人工智能辅助司法带来的识别学习困难等问题,法律条文需要更多专业客观的文字表述。因此,强调使用更为严谨客观的技术规范,在人工智能时代的题中应有之义。第一,技术规范用语明确不含歧义。正如前所述,由于法律规范中存在大量的规范构成要件要素,在不同的案件情况,甚至不同的社会经验、知识背景下,不同的法官会作出不同解读。这一点是难为人工智能所能理解的。而技术规范是一种知识型、智能型的行为规范,是直接指引相关技术人员进行实践操作的行动手册,为避免理解不同导致技术操作上的事故,其用词遣句上更具科学严谨性。第二,技术规范的内容具有真实性。“目前中国法律领域的信息存在着突出的‘表象性’特征,即信息是公开的,但却在某种程度上并不一定是真实的”。技术规范作为一种具体的操作规范,如果相关内容数据存在错误,将会直接导致操作结果的千差万别,甚至造成极其严重的生产事故。因而,技术规范的数据信息使用绝对真实,也避免了人工智能进行裁判时结论的荒谬错误。第三,技术规范的内容具有客观性。从本质上来说,法律在某种程度上是一种意识形态。法律规范是一种立法者价值判断的选择,是立法者认为实现公平正义最佳途径,我们不能否认这样的价值判断符合社会绝大多数人的利益需求,但总会部分利益被排除在外,产生裁判偏差。而“技术和技术规范本质上是一种以确定性、精确性的科学知识为后盾的工具理性,是为了达成某项目的而使用的手段”。因而,技术规范并不需要感性的价值判断,如此也避免了人工智能技术识别法律规范时的困难或偏差。
人工智能技术飞速发展,带来的不仅仅是传统犯罪对象上的扩大与更新,更是对数据本身的保护与流动观念的巨大冲击和挑战。而现阶段,人工智能的监管正处于一种事前监管于法无据,事后监管缺少标准的状况,普通法律规范难以适应高速发展的人工智能技术,对于大规模的数据侵害犯罪更是束手无策,因而必然需要合理运用数据安全技术规范,以填补人工智能数据犯罪方面的监管空白。
对人工智能安全进行专业性法律规制,必须首先搭建起全方位、全过程的行政监管框架体系。一方面借助网络时代的大背景,数据一旦侵犯泄露,其传播波及范围较之以往更甚,确有必要严格控制;另一方面由于自身具有的深度学习功能,人工智能在运行后可能会对自身程序进行修改而产生异化。因而,对于人工智能技术规范的作用方式也应当是动态深入的。
首先,强调事前的预防规制。鉴于人工智能在侵害数据安全方面的重大风险性,技术规范的介入应当始于人工智能技术生产应用之前,严格控制研发后投入使用的人工智能产品类型,也即着重事前监管。一方面,应当明确人工智能技术开发阶段的审批。设置研究与开发人工智能的具体边界与限度范围,包括故意或者过失导致失控开发者的刑事责任等。甚至包括在人工智能应用产品着手研发前进行必要的监管评估,明确其产品主要功能、应用领域。技术的进步应当是为社会的发展服务,需要防范制造者或相关程序的设计者以数据窃取犯罪为目的进行人工智能产品的开发设计。另一方面,即使已通过开发审批的项目与产品也应当对人工智能最终产品进行严格检验与检测。一是考察其产品的算法设计是否存在黑客入侵的巨大漏洞,是否配备了必要的安全防范措施;二是考察其是否与审批通过的研发方案相符,以防止研发人员“打擦边球”,通过监管漏洞为犯罪制造机会。同时,更要设置利用人工智能实施犯罪的严格刑法规范,包括设置“误用”人工智能导致犯罪结果发生的刑法规范,等等。其次,完善过程的跟踪监管。人工智能技术的应用过程,是一个动态的、不断发展变化的过程。因此,即使通过应用前的严格审批排查,也并不能完全保证产品进入市场后不会产生数据侵害的风险问题。因而,一方面应当关注人工智能本身在大量数据收集学习后,如何避免产生算法、功能上的改变;另一方面应当关注网络黑客等安全漏洞问题,以防发生黑客入侵篡改程序、数据窃取等违法行为。除此之外,要实行人工智能产品的预警报警系统,保证人工智能机器的安全运行,从根本上杜绝和防止其风险的发生。最后,加强事后的危害处置。有了物联网、大数据和云计算作为支撑(或组成部分)的人工智能系统,可以通过它的感官(遍布各处的传感器)获得千里之外的数据。同理,数据泄露后传播扩散速度之快也必然导致损失的几何倍扩大。因此,数据侵害犯罪发生后的发现与处置速度就显得尤为重要:其一,发现危险信息时的预警通知程序,在达到预先设定的数据危险标准界限时,第一时间通过相应程序设置,警醒告知负责管理人员,以作好风险控制或侵害处理准备工作;其二,侵害发生后的协调处理程序。根据事先确定的技术分工,在发生危害后可以迅速确定危害源头,从而由不同的负责机构根据自己的职责要求进行相应处置善后。甚至有学者提出:“可以在人工智能可能或正在危害全人类生命安全或对国家、社会构成重大危害时,要设置必要的技术手段或‘一键设置’功能,经合法程序批准对人工智能进行“终极”处置,以保护人类社会的安全。”
对于人工智能产品的评价监管涉及多种环节,包括数据的收集与使用、算法的编制、安全防范系统等。但目前为止,我国仍并未有统一明确的标准或规范可予依照。因此,为保证数据安全监管体制的顺利运行,急需相关权威机构对相关技术规范概念予以明确。
第一,人工智能的定义标准。进行人工智能的监管,首先必须明确何谓“人工智能”,更具体来说,定义的难点在于何谓“智能”。当下研究领域定义人工智能所使用的最广泛的方法,关注于机器是否可以实现目标,因而有学者认为,可以将“人工智能”定义为机器能够完成人类需要智能才能够完成的任务。第二,数据的定义标准。根据刑法第285条规定的“非法获取计算机信息系统数据罪”,我国刑法所保护的数据往往与计算机信息系统所粘连,保护范围限定在计算机信息系统内部。但在大数据时代,人工智能系统收集数据之多,包括各种如网页浏览纪律、购物纪律等相对零碎且对信息系统技术性无重要意义的数据。因此,亟待厘清“数据”的法律概念。第三,数据的采集标准。人工智能发展离不开必要信息数据的采集,但任意地采集或对数据的过分挖掘,都容易造成数据的侵害泄露。因而,必须设定必要的技术规范,以明确数据的采集渠道、数据的采集种类、数据的采集程度等标准,以从源头上保证数据安全使用。第四,数据的存储标准。人工智能技术的发展有赖于庞大数据库的支撑,因此,其所存储利用的数据一旦遭受侵害,损失必然巨大。由此必须明确人工智能产品中数据的存储要求,如设定必要的防火墙、病毒拦截措施、数据加密措施等。第五,算法的编制标准。人工智能产品运用方式、应用领域的不同是由其不同的算法程序所决定的。因此,一方面防止人工智能自身出现故障,进行不必要的数据侵害;另一方面防止黑客利用算法本身的漏洞入侵,侵害相关数据库,有必要制定严格的算法标准,防止设计者所编制的算法存在危害数据安全的漏洞或错误等,这些都需要技术性法律规范予以规制。
在搭建起数据安全动态监管框架的基础之上,便开始需要考虑进行框架内具体的技术规范制度设计与填充。普通法律规制模式下,仅仅是相关技术概念标准的不断引入,往往导致法律规制的抽象而笼统,脱离对人工智能数据犯罪的具体技术特征把握,宣言式地指导与命令,并不能完全覆盖日益扩大的数据犯罪圈,难以对隐秘而专业的人工智能犯罪进行有效的具体规制。因而,为避免数据安全技术法律规范原则性的概括指导,应当对人工智能技术特征、行为模式、侵害后果进行全面而具体把握,设计一整套全方位、综合性的技术规范具体制度,以期实现数据安全风险的最小化。由于欧美国家数据安全规范起步较早,保护范围相对完善具体,因而笔者将在借鉴参照其相关立法基础上进行具体技术制度构建。
1.建立安全等级的划分制度
大数据时代,“数据”早已成为企业生产经营的重中之重,“不仅是信息通信领域这些天然以数据为基础开展业务运营的企业,就连传统企业在信息化、智能化的推动下也开始逐步收集积累数据”。而在人工智能时代,数据的收集与存储进一步集中,相应技术产品对数据的依赖程度较之以往更甚。科技的进一步发展需要数据的不断整合与利用。因而,禁止数据的使用与支持,将一切数据的处理使用均看作是数据侵害犯罪,完全是因噎废食,不合理也更不现实。但这也并不意味着,信息数据保护可以此为借口彻底放弃,转而向市场利益的妥协。
2018年5月25日正式生效的欧盟一般数据保护条例(以下简称条例)第9条,明确了对包含个人种族、政治信仰、个人健康或性生活等信息的敏感数据的保护处理,着重强调除非特殊情况,作为一般法则,禁止处理敏感数据。为体现对敏感信息内容重要价值的重视,给予了更为严格的保护措施。因而,以此种区分保护的做法为借鉴,我们可以建立相应的信息数据的等级分类制度,对于不同安全等级的数据给予不同程度的保护,以达到科学技术的充分发展与对数据安全合理保护之间的有效平衡。
首先,事关国家、社会、公民个人重大利益的数据应当列为优先等级予以最严格等级的保护,国家社会的重大信息数据一般涉及国家安全、国计民生,例如关键信息基础设施中的基本信息数据,而公民个人的重大信息数据则一般是指个人敏感数据,条例中对于个人敏感数据进行了一定程度上的列举,包括个人的种族、政治倾向、宗教信仰、健康状况、性生活等。一般来讲,公民违法犯罪的前科记录等行为记录也不失为敏感信息。由于关涉利益重大,一般而言应当绝对禁止此类信息数据的收集使用,除非基于公共安全等明文规定的重大事项条件,并经数据主体的特别授权才可例外适用。其次,涉及公民一般隐私利益的信息数据应当列为一般等级予以保护,包括公民的位置信息、身份识别信息等,只有在获得数据主体对收集方式及实际用途的充分同意后,才可进行数据主体授权内容下的处理事项。最后,去身份识别化后的信息数据可以列为最低等级,适用较为宽松的收集使用规则。此类数据由于去除了一定的身份识别信息,不易精确定位到公民个人而对具体个人造成威胁与损害,因而通常并不作严格限制。最典型者如“假名数据”与“匿名数据”。“假名数据”在缺乏其他数据辅助分析使用的情况下,并不具备独立分析确定公民信息的功能特征,因而在独立储存处理的情况下不应过多限制。而“匿名数据”由于去除了一切身份识别信息,其无法指向其具体个人、领域,不再对个人隐私或相关领域的安全造成威胁,可以不受隐私保护等文件的约束限制,由相应的数据控制者自由流通使用。
2.制定安全处理的审查规则
人工智能背景下,机器的自我学习与自我意识往往意味着“数据挖掘”的大规模展开,相应技术产品无时无刻不在对数据进行相应地收集与利用,数据处理运用过程复杂多变。因而,若只是原则性地要求相应数据控制主体履行安全保障义务、审慎排查义务等,也只是泛泛而谈,对于具体技术工作者的设计操作以及相应技术产品的实际效果,并未有详细标准规则予以监督参照。我国现行的网络安全法也仅仅是对相关网络运营者等负责人原则上规定了安全保障义务、风险排查义务等。该法第41条第1款规定:“网络运营者收集、使用个人信息,应当遵循合法、正当、必要的原则,公开收集、使用规则,明示收集、使用信息的目的、方式和范围,并经被收集者同意。”现行法规对于相应数据控制者、数据收集者的义务规定大多原则性、概括性,并未从具体行为操作上予以明确规范。原则性义务的泛泛而谈,难以作为实践操作的具体审查标准。因而,既需要严格规范人工智能技术各阶段数据控制者的责任义务,就必须设定各项明确清晰的技术安全标准,划定审查的内容程度,以免暗箱操作避重就轻,或是沦为一纸空谈无人问津。
首先,针对数据的收集使用技术标准。这里笔者主要探讨两类重要问题:一是数据收集使用的首要前提——数据主体的知情同意原则;二是数据分析使用过程中的“用户画像”问题。
针对用户的知情同意原则,需要明确的是,对于用户的告知说明并非只是形式流程上的,一如我们日常使用各类APP前复杂冗长的隐私条款。对于用户的同意征求也并非是不可选择的,一如若不同意相关条款则不可使用该软件的硬性操作。数据的收集者一方面应当给予数据主体充分的说明,包括数据的收集方式、数据的收集类型、范围等必要事项。因此,明示说明方式应当作为首选。另一方面应当保障数据主体必要的拒绝反对权利,没有拒绝的合理选项就不能称之为真正的自由选择。例如,对cookie收集的需要进行明确限制。欧盟2009年修改的电子隐私指令对cookie的收集同意程序作了严格而明确的限定,根据相关数据工作组对该指令的进一步阐释:“默示或推断的许可是不足以满足cookie指令要求的。在获得用户同意前,服务提供商应当提供全面信息,以保障用户的知情权。”尽管在数据高速流通与使用的当下,“数据收集大多通过机器完成,用户处于被动状态,也很难实现对用户的一一告知”。但告知难度的加大并不能代表告知必要性的减弱,从程序上保障数据主体的充分知情与有效同意,是数据安全使用的第一步骤。
针对“用户画像”问题。人工智能技术显著的数据挖掘能力,即使是从海量的碎片化数据中,也可以高效地进行加工整合,提炼出需要的信息数据。因而,相关数据一旦录入保存,智能产品的运算分析技术之强大,数据主体的全部基本信息就等于完全曝光在数据控制者面前,毫无遮掩。过度无序地分析评估极有可能带来个人隐私的无限探知、公共安全的不断威胁。即便数据主体的已经事先同意许可了数据的使用收集,也并不意味着数据分析的得到绝对豁免。第一,数据的分析活动必要的技术限制,包括明确分析评估可使用的数据类型,例如只可使用匿名数据进行分析等。第二,数据自动分析程序的算法禁止,例如人工智能的深度学习过程,应当避免绕开用户同意知情情况下的自主分析使用。第三,数据分析结果的用途限制,例如司法审判专家系统中,数据分析所得结果只可用于司法审判活动,不可私自泄露挪用。第四,绝对禁止的分析评估活动,可能对个人人身、财产等权益造成重大损害的数据分析活动应当绝对禁止。例如,条例中规定对个人敏感数据的评估分析是持禁止态度的。尽管条例规定了可使用分析的例外情形,但笔者以为,例外情形的存在很容易成为擅自处理使用的法定借口。如若对例外情形不能做到严格把控,还是不应轻易放开使用处理的口子。
最后,针对数据的保存工作。数据控制者应当提供合理有效的算法设计和模型搭建,以保障数据储存环境的安全可靠。一方面,保存的安全性方面,涉及数据的匿名化措施。数据去身份识别化的义务要求,不能仅仅是原则上的概括指令,还应当进一步强调匿名化的具体技术标准,例如原始数据去除身份信息的具体数量、类型;原始数据的保存方式;去除的身份数据销毁、删除程序;匿名后重新识别的风险程度;匿名数据的使用方式,包括是否可以再次被识别、是否可与其他数据相关联使用。另一方面,保存的期限问题,涉及数据的定期清除措施。数据的不必要累计,不仅有可能扩大数据泄露侵害的规模影响,也加剧了具体个人被识别定位的风险威胁。上述欧盟条例也早已提出了“删除权”或“被遗忘权”,赋予数据主体要求数据控制者及时删除有关其个人数据的权利。因而,以此为借鉴,一则应当要求数据控制者定期清理相关数据信息,并明确清理的时间程序,清理数据的类型标准,清理数据的销毁、不可再生标准等;二则数据主体提出请求时,应当明确请求的具体理由条件、请求删除的具体程序、删除流程的具体时限、删除完成的反馈告知等。
3.建立侵害后果的报告制度
数据的安全管理规范究其本质是为了保护数据主体的合法权益,因而本应当在数据侵害发生后,及时对数据主体进行告知说明。轰动全球的“雅虎数据泄露事件”中,雅虎公司在2013年遭受的黑客攻击事件,却选择在3年后向公众公开曝光,甚至在公开宣布的1年后,雅虎母公司美国电信巨头威瑞森才首度承认,实际泄露用户数量3倍之于通报数量。而同样的,Facebook信息泄露事件中,其用户的数据侵害行为早在2016年已然发生,但直至2018年3月由媒体披露后,Facebook才首度承认并展开调查告知程序。很显然,尽管有诸多形式上的权利保障,数据主体与数据实际控制、使用者之间实际仍是不对等的,数据主体所掌握的事实情况往往局限于数据控制者的主观筛选,也即一直是处于被动的信息接受地位。当然,要求数据主体时时主动联系、关心自身数据使用情况,在如今的数据运用广泛而密集的大数据背景下,是不现实也不合理的,但由此我们才更应该严格要求数据控制者的主动报告义务。
数据主体对于数据的掌控不只限于收集使用前的知情同意,更应体现在侵害发生后的数据控制者所作的结果处理报告上。简言之,数据侵害事件发生后,除监管部门的应急处置、数据控制者的积极配合,还应当实现对数据受害人必要的告知说明,这既是对数据主体知情权的必要保障,也是侵害后及时止损的措施之一,便于数据主体采取补救措施,将对自身侵害降至最低。
美国立法首先提出了“数据泄露通知”的概念制度,具体是指一旦发生用户数据的侵害泄露事件,数据控制者应当及时告知监管机构及数据主体,如此以保障用户可在合理时间内得到数据泄露情况的官方报告。以此为借鉴,为充分实现数据主体的数据侵害知情权,应当明确:第一,明确侵害通知的义务主体。数据飞速流通交易的时代,用户的相关数据并不仅仅只掌握在一家数据控制者手中,因而一旦发生数据侵害事件,所有相关的数据控制者,包括网络服务提供商、数据中间商、各类app服务提供者等等均应启动告知程序,避免相互推诿、扯皮;第二,侵害通知的程序,美国各州有立法规定了数据侵害评估程序,例如根据是否对用户造成不良影响决定是否启动告知程序,笔者认为,对于自身数据安全,事无大小,用户都有权得知其具体利用情况,包括侵害情况。因而,应当考虑的是,明确告知的不同形式渠道,并保证优先使用最快捷渠道确保用户明确知晓;规定合理的告知的时间限制,以确保用户能第一时间得知侵害泄露问题;第三,侵害通知的具体内容。包括数据的泄露时间、数据泄露的内容、相关负责机构已经采取的应对措施、用户可采取的补救措施等。
4.建立跨境转移的许可制度
“随着互联网应用的迅速普及特别是信息通信技术在云计算模式上的整合,和世界经济和全球贸易需要的人、物、货币和资本的全球流动一样,数据也需要实现全球范围内的流动”。跨国企业间数据的交流合作、云数据库的移动储存等甚至是普通个人日常的境外网络访问、境外网络购物都有可能完成数据的跨境移转。而由于数据自身所存在的个人隐私、公共安全等信息价值,数据的流动不只是技术上的传输问题,也不只是国家间合作互通的问题,更需要考虑的是法律规则上的限制批准问题。
在各国数据跨境转移的规则中,欧盟坚持较为严格的数据转移规则,在其1995年《关于个人数据处理保护与自由流动指令》中明确指出,欧盟公民的个人数据不得移转至数据保护水平低于欧盟的国家或地区,除非符合包括数据主体明确同意等的三种例外情况,或者数据输出方与数据输入方订立了符合欧盟要求的合同条款。尽管在一定程度上限制了市场的自由交易,但在全球数据侵害日益严峻的当下,尤其是面对人工智能技术强大的数据处理与挖掘能力,确实不得不要求市场交易进行必要妥协,而对数据的移转增加必要的约束与限制,这既是对数据安全的着重强调,也更是对技术平稳发展的合理规划。
我国对数据的跨境流通大体是严格限制的态度,现行的网络安全法对“关键信息基础设施的运营者”作了相关运营要求,规定“在我国境内运营中收集和产生的个人信息和重要数据应在境内存储,如需向境外提供,则需依照需向境外提供的,应当按照国家网信部门会同国务院有关部门制定的办法进行安全评估”。事实上,高新技术发展日益突飞猛进的当下,个人数据的流通与政府数据等关键数据相比更为频繁,不得不引起高度重视。一方面,个人数据本身具有重大法益价值。其承载的公民个人隐私等切身利益事项本应受到立法的严格保护,并且大规模的公民隐私侵犯事件也同样会对国家社会造成重大利益损害,因而不应当受到忽视和遗漏;另一方面,个人数据也不排除涉及公共安全的信息存在。人工智能技术擅长的“数据挖掘”手段,即使是海量的碎片化信息,也能够在足够短的时间内整合、加工,从而提炼出有效数据,因而看似不起眼的零碎数据也有潜在的公共安全威胁。总而言之,及时制定相应的数据流转保护规则,为各数据控制者提供清晰明确的数据流通指导,严格要求数据控制者把控数据跨境交易、防止数据大规模泄露侵害,是十分必须而紧迫的。
上海市法学会欢迎您的投稿
fxhgzh@vip.163.com
相关链接
《东方法学》2021年第2期目录公丕祥:习近平法治思想中的改革论述胡玉鸿:“以人民为中心”的法理解读宋方青:习近平法治思想中的立法原则刘宪权:人工智能时代证券期货市场刑事风险的演变谢晖:论法治思维与国家治理杨兴培:“三阶层”犯罪结构模式的中国语境批判来源:《东方法学》2021年第2期(总第80期)。转引转载请注明出处。
责任编辑:孙建伟 王柯心