查看原文
其他

李 晟:人工智能的立法回应:挑战与对策 ||《地方立法研究》

人工智能的立法回应:

挑战与对策


 作  者  李 晟(中国海洋大学法学院教授,博士生导师)

 来  源 《地方立法研究》2019年第5期,因篇幅较长,已略去原文注释。


对于人工智能的法律挑战进行研究,应当避免过于超前的想象,不将人工智能视为一种抽象的高度智能个体,而是将人工智能进行一种广义的弱人工智能理解,强调进入各类日常生活场景分散运用的算法,从而视之为与互联网生产关系紧密结合的一种架构。基于这样的理解,人工智能的法律挑战可以理想类型化地提炼为安全、权利、治理三个层次。安全层次的挑战表现为人工智能技术的不确定性或滥用,权利层次的挑战表现为人工智能介入生产生活场景造成的利益关系重构,治理层次的挑战表现为人工智能的运用改变了社会治理的权力关系,形成新的治理结构。基于类型化的区分,针对三个层次挑战做出的立法回应应当采取针对性的不同对策。对于安全挑战与权利挑战,侧重于立足既有法律制度进行小幅度的调整,又有保障对技术发展的激励;对于治理挑战则应该更为审慎应对,重视以立法手段回应,强化法律约束,避免市场平台的算法治理凌驾于法律治理之上。


 关键词 人工智能   立法   安全   权利   治理

 导言

 一、法律意义上如何理解人工智能

 二、人工智能现实挑战的不同层次

 三、不同层次挑战引发的法律对策

◆ 结语



导言

随着信息技术的高速发展,以及与之相关的知识与观念的广为普及,人工智能无论作为实践还是想象都已经历了一个宇宙大爆炸式的“暴涨”,迅速向当代社会的各个方面覆盖,在当下的生活中已经与现实产生了紧密的互动,从而被视为当代生活中一个并不虚幻的背景。从实践来看,与历史上其他具有重要革命性意义的技术变迁一样,人工智能技术的高速发展与广泛应用,也在不断改造人们在生产与生活中的各种具体场景,并进而对于这些被改造的场景所需要的规则提出新的要求。而作为一种想象来看,科幻与现实的不断融合,也使得人们普遍畅想人工智能将从宏观上如何形塑新的社会形态,从而产生新的规则。


在这样的背景下,人工智能作为一个法学问题迅速引发了高度的关注,相关研究不断扩展与推进。人工智能技术对于生产与生活场景的改造,与规制这些场景的传统法律规则的相遇,提出了一系列需要回答的法学问题。面对这些问题,法学视角最典型的回应,则是思考立法应当如何发展完善,从而形成能够覆盖到空白领域的新的规则体系,实现对于人工智能的法律规制,并以新的法律制度实现对于人工智能技术发展的更有力激励。而这样的立法思路,首先从具体的场景出发,试图制定规则对于承担各种特定功能的人工智能产品加以规制。在此基础上则进一步形成一般化的规则,形成能够将人工智能产品总体上纳入社会的“深层次规范结构”。这种思路不仅作为一种法学研究的典型思路,并且也实际影响到立法机构的相关对策。

与其他的新技术发展类似,面对人工智能的发展,立法的回应显然是必要的。但是具体如何立法,则不能立足于一种简单的反应,认为只要出现新现象就需要新立法。社会中有许多问题可能提出法律需求,但这些法律需求如何去加以回应,却并不能简单地视为一个发现规范体系的空白从而通过立法加以填充的过程。而是需要去讨论这种社会需求具体是什么,以什么样的方式发挥其影响,法律又如何可以对此进行回应。进而发现有些问题是法律难以回应的,有些问题是法律无须回应的。而针对科技发展提炼出具有法理学意义的问题,则在于科技发展是否提出了在现有体系下难以回应的挑战,是否大幅度改变乃至重构了法律回应的方式,因而是否可以提炼出具有一般性的法律发展变迁。对于人工智能的法律问题进行法理学研究,也同样需要借助于这样的视角与方法,发现真正的法理学问题。

现代社会中的立法活动,对于立法者的知识结构提出了强有力的挑战,要求掌握对所规制领域更为全面的信息来评估制定规则的成本与收益,尤其是对于人工智能这样的先进技术领域,脱离对于技术的理解而做出的简单的立法回应更可能难以发挥其效果,或者导致高昂的成本。那么,对于人工智能的立法回应究竟应当如何做出,也就需要一种更为细致审慎的分析。只有从理论上对人工智能的相关法律问题做出更为清晰的梳理,才能够对于立法的实践提供更为科学合理的思路。

从理论上进行梳理,首先需要明确的问题,仍然是如何理解人工智能。虽然人工智能的法律问题研究已经成为学术热点,因而无须再进行与其定义相关的普及工作,诸如弱人工智能、强人工智能与超人工智能之类的分类也已经被人所熟知。但事实上,对于人工智能的理解,仍然不免受到一种笼统的科幻式想象的干扰,从而对于相关法律问题的思路也产生不甚准确的引导。因此,本文将首先立足于对人工智能进行更为准确的理解,明确当前法学语境中的人工智能的基本特征,从而以此为基础分析人工智能对立法提出需求的基本性质。在对基本特征进行理解的基础上,本文将进一步对其进行理想类型的提炼,明确人工智能这一整体概念所具有的分类表现,从而认识其引出的法律问题所具有的不同属性。基于这样的分析基础,本文最终将提出对于人工智能进行立法回应的基本思路,即立足于不同层次的法律挑战,形成与之相对应的立法对此,从而针对性更为明确地回应问题。通过这样的研究进路,也就形成了如何通过立法回应具体场景中的人工智能法律规制的基本框架。


一、法律意义上如何理解人工智能


作为进一步研究法律问题的基础,需要对于人工智能进行更为准确的理解。而这种准确的要求并不一定意味着科技层面的准确,而是更具有法律意义的准确理解。如果从科技层面寻求界定,那么这一概念既可以指向对于人类智能的机器模拟,也可以涉及关于什么是智能的基础理论,还可以意味着具有相关能力的智能机器,而对此进行研究的进路,则综合了信息科学、控制科学、神经科学等多个学科。但从法律意义上来说,需要法律手段回应的人工智能,则并非这些深奥的基础理论,也不等于基于这些理论研究建构的可以完全拟人化的智能机器,而是由此发展出来的应用技术得到具体运用的各类场景。在这些运用场景中,当机器在没有被事先设定具体操作流程的情况下,通过算法的设计自主对于数据进行深度学习,并通过这种学习总结相关的规律,从而完成自我优化,这就可以理解为人工智能。通过这样的学习,机器能够进行视觉的识别与处理、自然语言的理解与交流、自主的运动、推理与分析等功能,从而能够更好在具体场景中为人类行为提供包括对于信息的搜索、识别、分析与整合等等在内的辅助,这些场景可能是观察车辆前方的道路状况,也有可能是从人群中识别出某一具体个人,或许可能是对自然语言进行翻译,还可能是更为精确的推送新闻抑或购物信息,等等。在这些场景中,人工智能技术运用之前,就存在着相关的法律规则对其传统模式进行规制,而当人工智能介入之后,对其进行规制的法律规则就可能面临新的需求与挑战。


对于人工智能做出这样的理解,其意义在于明确人工智能是否在当下已经提出了对于新的法律规则的需求与挑战。人工智能这一概念自从1956年提出以来,所形成的自身学术脉络,始终强调的就是应当将机器的学习看作一个什么样的过程,因而什么样的算法是一种最佳的学习方案,并以此作为理性的智能体的基本衡量标准。然而,在一般的社会公众乃至人文社科学界的理解中,如果忽略了这样的学术传统,就会对于人工智能形成一种更为望文生义的想象。在这样的想象中,“人工智能”往往被视为一种拟人化的高度智能机器,甚至直接与“机器人”画上等号。而如果从这样的想象出发,对于人工智能法律问题的理解,也就不免表现出过于激进和保守两个极端的倾向。所谓“激进”的倾向,则是过高估计人工智能技术的发展速度,从而夸大具有一定独立性的智能体在当下与人类的并存状况,进而在此前提下分析人工智能作为一种法律主体进入到现实社会中的可能性。而从这样的逻辑出发,大量的法学研究也就投入到关于人工智能的“法律人格”乃至“电子人权”这样的主题之中。反过来,所谓“保守”的倾向,则是将现实中的人工智能看作“人工智障”,认为其技术水平还远远不能达到与人类似的通用智能,因而无法对于现实社会的关系与结构产生实质上的影响,从而也就否认其具有的法律需求以及法学意义。其实,无论是激进还是保守,看似针锋相对的观点,背后有着实质上高度一致的认知。那就是把人工智能作为一种整体,并且都放在具有通用性的、与人类智能高度相似的强人工智能这一标准之上。从这一标准出发,无论是认为“未来已来”还是“未来未来”,都可谓殊途同归,认为人工智能的法律规制所面对的是强人工智能的现实应用所引出的法律问题,在这样的共识基础上基于对现实的不同认知而形成分歧。因此,从某种意义上说,这是一种未来学甚至是科幻式的研究。但是,如果人工智能并不意味着强人工智能乃至超人工智能,也并不意味着一种拟人化的独立个体的存在,那么要回应的法律问题也就并不是激进或保守的研究者所关注的那些,而是一些更为现实的问题。


因此,对于人工智能问题的法学研究,不应过于突出某些超前的想象,沉浸于未来学式的强人工智能问题来尝试回应,而是更多立足于实际上已经充分进入社会生活的弱人工智能开始思考。如果在弱人工智能阶段没有相关的理论分析与回应,那么强人工智能阶段真正到来时也就无法形成法律上的应对方案。明确人工智能的基本特征,对其进行更为准确的界定,可以避免我们对于人工智能产生不切实际的想象,并且基于这种不切实际的想象而错误判断由此产生的法律问题。从人工智能的学术脉络进行理解,突出算法与学习这一内在特性,也就能够更好地把握其现实运用的外在表现。就当下而言,人工智能技术的发展,也就是通过算法的改进,提升机器学习的水平,从而通过对于人类社会中已经生成的大量数据进行学习,作用于为人类提供某一特定功能的服务,而不等于新创造具有通用功能的独立智能体。尽管大众愿意将AI(人工智能)设想为有形体的“机器人”,但目前相当多的AI 应用都依托现有互联网服务,而且出现硬软件垂直整合的趋势。按照通行的互联网商业模式,可将AI 分解为“算法+第三方应用(场景)+硬件终端”,从这个意义上看,AI 就不单纯是一个“大脑”或终端产品,而是一整套生产流程,甚至就是架构本身。因此从这个意义上说,人工智能并不神秘,而是借助互联网服务直接影响到普通人的生活,它出现在日常生活中,不仅是工业社会生产自动化的延续,也是互联网商业化的必然结果和新阶段。充分注意到这些,才能够真正界定出现在现实生活中的人工智能究竟是什么,因而又会提出什么样的法律问题。我们并不是已经即将进入一个与机器人共同生活的社会之中,因而需要认真地讨论“机器人权利”的定义及其内涵。同时,机器人并未进入生活场景,也绝不意味着现实的社会与人工智能还存在显著距离,而是已经深深嵌入人工智能这一技术背景之中,以架构形态而非独立的机器人个体形态而存在的人工智能,将个人更紧密地结合到互联网的生产与权力关系之中。


对于人工智能的现实应用,从“架构”这一视角进行观察,突出其基于互联网将个人与云端相连接的这一特征,也就不需要将其作为一个统一的整体加以理解,而是可以放在不同的生活场景中理解发挥连接作用的算法。需要立法回应的法律问题,也就由此引发,针对具体的场景进行调整,而并不是在社会关系与结构出现了人工智能这一整体之后再做回应。明确了这样的理解视角,也就为人工智能的立法回应提供了基础:不是作为一个整体,而是分化的场景来进行理想类型化的分析。


二、人工智能现实挑战的不同层次


通过对于人工智能内在特征的界定,突出其作为互联网架构将接受服务的人类个体整合起来这一结构特征,同时强调通过算法实现机器学习来强化个体与架构之间在不同场景中的连接,也就可以对于人工智能所提出的现实挑战进行更为准确的理解。当我们笼统讨论人工智能的挑战时,实际上指向的是不同场景,而基于这些场景的差异,挑战也具有明显不同的性质。强调人工智能在各类现实场景中的扩散,则有助于对于这些挑战进行一种理想类型化的提炼,概括这些挑战所表现出的不同层次的差异。


首先,人工智能的运用,同任何一种新技术的运用一样,会为当前的社会带来安全风险。这种安全风险首先来自技术本身具有的不确定性,新技术的使用,无法提前预估可能遇到的全部问题,也不可能绝对排除随机生成的稳定性故障,因而带来不同于传统技术运用所制造的新型风险。人工智能作为一种新技术,当其运用于各种场景时,也都可能由于其不确定性而造成安全风险。在技术的发展过程中,这种不确定性无法消除。例如,最具典型特征的是自动驾驶技术的运用可能带来的交通安全风险。当自动驾驶汽车借助于人工智能的自主学习能力对汽车的行驶进行控制或干预时,既可能出现设计中应当避免而现实中未能避免的失误,也可能出现无法解释的事故。除此之外,工业机器人的运用造成的人身伤害事故,也是在新技术使用之前未遭遇的安全风险,同样通常源自人工智能在技术上本身的不确定性。


其次,即使技术是可靠的,在实践运用中也可能被出于不法目的而使用,这也是一种典型的安全风险。这种风险并非来自新技术本身的不确定性,但也同样与新技术密不可分,如果没有新技术的运用,实现不法目的的手段就无法通过同样的方式得以实施。例如,自动驾驶汽车的系统即使在本身解决了稳定性问题的情况下,仍有可能会遭遇黑客的侵入,对其下达错误的指令进行控制从而制造出交通事故,这类安全风险当然也就构成人工智能在社会中造成的挑战。除此之外,还存在着另一种可能性,也就是新技术的运用改变了某一场景中人们的行为模式,而这种行为模式意味着本身已有的风险会通过新技术的更强力量产生放大效应。这种典型例子是智能武器在军事领域的运用。人工智能技术的介入将能够有效节约军事准备与行动的成本,以低成本取得更高的对敌杀伤效果,从而刺激更具有进攻性的军事行为,并引发相应的军备竞赛。这种安全风险在没有人工智能时也同样存在,而人工智能的运用则使之获得了更大幅度的增长。


在安全风险之外,人们所关注的人工智能所带来的挑战也可能表现为另一种层次。人工智能所介入的生产与生活场景中,存在着既有的人际关系与行为模式的结构,而这种结构以权利的形态体现出来。因此,人工智能技术的运用,也就带来权利界定可能的模糊和重叠,造成对于现有结构的挑战。例如,类似于自动驾驶汽车的另一个热点问题,人工智能生成内容的著作权界定,就表现为这样一种挑战。人工智能通过算法进行深度学习而生成作品,这种作品并非事先设定,而是具有创造性的产物,但是这一创造过程则无法按照旧有逻辑来确定何谓“创作者”,而对此做出的界定,则会涉及创作产品的权利归属。如果认为其生成过程没有给人工智能留下发挥其“聪明才智”的空间,不具有个性特征,该内容并不符合独创性的要求,不能构成作品,人工智能也就无法作为创作者来获得相应的权利。而从互联网的生产架构而言,人工智能用于创作将会成为一种更为普及的模式,因此对于权利的界定需求也会更进一步彰显,从而构成需要回应的挑战。又如个人数据的商业化利用带来的权利重叠问题,消费者为了获得某些场景中的便利,从而自愿将个人信息提供给商业平台,成为人工智能的学习数据。在这样的架构中,消费者与生产者事实上处于同构状态,消费者所采取的行为能够成为供人工智能学习的数据,而这些数据的生产与再生产的循环又进一步改进消费者在场景中所获得的服务。而在这样的同构状态的循环中,个人信息权与企业数据权表现出高度的重叠,进而形成传统的规则体系内在的逻辑冲突,因而构成挑战的另一种形态。


权利层次的挑战与安全层次的挑战,虽然都体现为人工智能技术带来的新挑战,但可以构成不同理想类型的区分。而与这两者又存在显著差异的,则可以归入第三个层次的挑战——治理层次的挑战。


所谓治理层次的挑战,意味着人工智能的运用,不仅对于现实中界定清晰的权利造成产生侵害的安全风险,也不仅对于尚不明晰的权利造成重叠与模糊,而是更进一步对于权利生成与实现的基本机制形成冲击。在各类生活场景中,人工智能通过人类所输入的海量数据作为学习资料,从中提炼出规律与模式,进而为人类的行为提供预测性的指引。当人们的生活中无处不在运用这种指引时,在形成策略时对于人工智能的依赖程度会逐渐提高,甚至将其作为一种外部的监管来对待。例如,对身体的量化管理,实际上可以从对个体的量度引发对个体的约束。比如,当算法设定了对身体的管理与保险合同之间的关联,个人对自我的控制实际上就受制于算法的高度约束,在这种情况下并不是自由的,不能基于事先确定的规则采取行为模式,而只能按照自己无法充分认知的算法生成的指令去行动。这样的场景如果在更大范围内扩展开来的话,社会也在某种程度上进入到通过算法的治理之中。如果每一个体都通过算法获得预期,并且依据这样的预期来确定行为,算法也就从某种意义上成了法律,或者说比法律更为强大的能够直接操控个人行为的微观权力技术。算法权力不是宏观的政治统治权,不涉及暴力的实施和敌对性的权力争夺,而是一种普遍存在于社会运作和个人生活的“泛在”的权力关系,表现为对人或主体无处不在的行为引导和可能实施的操纵,因此,算法权力实质上是一种以治理为目标的权力关系。


在这样的治理模式中,对于个体行为进行干预和控制的人工智能算法,依据个体所生成的数据对其进行分析,并形成特定性的规则来规训行为。账户(account)、数据(data)和评分(scoring)构成了互联网空间的基本权力机制,其中,账户处于互联网治理过程的核心,通过账户将赛博空间和现实世界中的主体联系起来,通过网上的活动稳定地积累数据,依据数据对其场景化行为的评价反过来进一步成为影响其未来活动的重要约束力量。而在这样的机制中,算法所依据的数据的收集和处理能力越发强大,空间中作为治理对象的个体也就更充分地被分化成进一步细分的状态进行描述和预测,从而越发体现出“账户”而非“个人”的面貌,作为一种“数据的总和”而非“社会关系的总和”而存在。“算法身份”之下的行为模式,与“社会身份”之下的行为模式可能存在着分离、重合与冲突,并进一步导致对于账户这一算法身份所进行的治理可能会重塑乃至替代对于个人这一社会身份所进行的治理。通过算法,更多的权力将会渗透进来,这些渗入的权力不仅可能跨越政府-市场的边界,还可能跨越国家主权的边界,从而构成一种更高层次的挑战。而这种挑战,也就更凸显出人工智能时代的特殊性:掌握着数据的平台企业,成为更强有力的“利维坦”。


三、不同层次挑战引发的法律对策


基于人工智能所引发的挑战所做的理想类型化的区分,将其划分为安全层次、权利层次和治理层次三种层次的挑战,也就可以在此基础上进一步分析法律对策,提出更具有针对性的回应方案,而不是笼统地提出加强立法填补空白这样的建议。


从安全层次的挑战而言,新技术的运用带来的安全风险,在法律上并非全新的问题,而是一种常见的挑战。新的技术制造出安全风险,法律的回应并不意味着完全消除,而只是可能对这种风险进行有效的控制。控制的手段,也并不是针对一种新的安全风险就需要有针对性地提出新规则,而是可以通过既有规则的运用来达成目标。总体而言,安全风险的控制,正如经典的法律经济学分析的那样,并不是通过相关的侵权法规则来消除事故本身,而是运用和其他社会目标相一致的方法控制和降低事故风险的社会总成本。因此,并不要求追求一种绝对的因果关系界定,而只是将相对的因果关系用于风险分配的证据规则,将风险分配给事故的最低成本预防者。而基于对自由意志更为全面的理解,因果关系也就成为“可以舍弃的范畴”,其实际上并不是线性的,而是概率性的,因而可以被用于制定的风险分配模式。这种思路不仅可以体现于侵权法,而且也同样可以在刑法中运用。


对于人工智能在安全层次上的挑战,也可以基于这样的一般思路,立足于传统的法律体系,通过风险配置来加以回应。在这样的配置中,实际上也就承认人工智能造成的安全风险在一定程度上是可以容许的,是基于最小化社会成本而做出的权衡。例如,再回到自动驾驶汽车的安全风险这一问题,对于人工智能技术在风险中造成的影响的研究固然重要,但并非决定性的。如果必须按照人类自由意志这一基础来确定交通事故责任的话,那么人工智能的介入确实造成了显著的困惑。但是从风险分配的视角来看,并不一定需要在明确界定人工智能在交通事故中的因果关系的前提下才能建立起关于风险分配的责任规则,而是可以将这种因果关系视为一种人为设定的相对状态,综合考虑人工智能的技术水平、人类驾驶员避免事故风险的控制能力、完全人工驾驶条件下的事故概率、自动驾驶汽车所发挥的社会功能等几方面因素,基于预防成本的标准,将自动驾驶汽车交通事故的风险在驾驶人、保有人、生产商、保险公司等不同主体之间进行最有效率的分配。


因此,从安全层次这一挑战出发,立法回应的基本思路,可以基于技术发展带来的社会收益与安全风险的成本的分析。当某些具体问题中人工智能的挑战可以归结为安全层次这一理想类型时,合理的对策就是为了保障技术进步而适度容忍风险,并立足于现有法律的基本体系,将风险进行成本最低的分配,以此确定相对的因果关系,而不是基于人工智能与自由意志之间的理论逻辑确定绝对的因果关系。适度容忍风险以保障技术进步这一思路,同样也可以适用于对权利层次挑战的回应。互联网商业模式下生产与消费的同构关系,使得权利冲突成为一种更为普遍的状态。作为消费者的个体所主张的权利,同时也会与生产者继续推进技术发展所需要的资源产生高度的重叠,如果单纯强调对于权利的保护,那么也就使得技术发展成为无源之水。因此,例如就数据隐私这一典型的权利层次挑战而言,强化个人信息权,就会对企业如何运用数据改进技术形成强有力的制约。而在这种情形下,如果说只是对于权利应该如何创造并且界定进行政治哲学的逻辑推衍,以此来确定个人与企业之间的数据权利归属,无助于“向前看”理解如何改善社会福利。而人工智能介入所带来的复杂性,就在于谁创造权利的主体难以明晰,但是如果转换为谁实现权利的视角,问题将有可能被有效地简化。互联网经济和数据技术的飞速发展,已使数据隐私问题在个体权益、企业竞争和生产关系三个维度上全面展开,从而表现出个体权利建构议题本身有限的智识和实用价值,因此需要转向思考与数据合约监管、数据风险管理、数据资源交易和数据劳务定价等相关的机制设计问题。


并且,当这种互联网生产关系在全球范围内全面扩展时,基于网络服务与应用的技术创新,实际上成为国家竞争力的一个重要内容。从国家竞争的角度,权利保护和技术进步也就更为凸显两者之间的对立关系。例如,在个人信息保护这一领域,某一国家采取更严格的权利保护实际上会导致其国内企业缺乏足够用于人工智能学习的数据输入,而在与规制更宽松的国家的平台和技术的竞争中处于劣势,因而,本国用户仍然有可能放弃对权利的更严格保护而寻求更好的服务。因此,即使法律因其保守特性而固守某一传统的权利观念做出决断,实际上也受制于现实的技术竞争无法真正产生效果。总体而言,面对权利层次的挑战,更具针对性的法律回应也不在于明确并强化某些权利概念形成封闭范围,而是更多立足于开放性的权利冲突,进行实用主义的平衡。


较之于安全挑战与权利挑战,针对治理挑战的法律回应具有更高要求。安全与权利层次的挑战,都还在法律权力可以有效运作的框架之内,挑战只是来自如何具体运用,而治理层次的挑战则意味着人工智能这一替代性权力对于法律本身发起了挑战。人工智能通过对个体的细致量化,通过算法的分析形成更具有个别特征的规则来干预行为,成为实质上的规训权力。相对于传统形态的国家权力而言,这种权力的运用能够更低成本、也更为隐蔽的实现其运作。而与此同时,这种新兴的权力也在形式上表现出与传统国家权力充分合作的可行性。借助于当前的“信用社会”这一治理模式,政府通过信用这一概念对于个体的诸多行为进行标签化的评价,并基于这些评价做出公权力的不同回应,从而将公权力渗入社会日常生活的更多场景之中。而在这样的治理模式中,公权力的运用同商业平台的评分机制表现出了高度的相似性,因而得以结合起来形成政府与商业平台之间的合作。无论是商业力量还是国家机构,评分都代表了一种新型权力机制,这种机制和数据、算法紧密结合在一起,对数字时代社会主体行为产生重要影响。而在这样的合作过程中,如果国家权力未能有效控制商业平台的算法向各种场景的全面渗透的话,那么当各类信息收集与声誉评分机制融合起来,并以信用治理的形式在社会中生效时,看似由政府独立做出的公权力行为,实际上就成为政府无法决断甚至难以预测的算法所形成的决策。


因此,针对治理这一层次的挑战,法律上的回应必须充分认识到人工智能场景下算法所体现出的权力特征。确定这一基本视角作为前提,强调对于人工智能作为互联网整体架构加以理解,那么法律上所需要重视的,就不是对于某一特定技术或产品的规制,而是具有整体架构意义的市场平台如何规制。人工智能语境下的互联网生态,同早前的网络社会相比,更突出跨越具体细分市场的统一平台所具有的控制力,也就是日常话语中所谈论的“某某系”。这些平台通过内在一致的算法,将不同场景中的数据进行整合的处理,从而能够更全面地分析、预测乃至规训个体行为。政府如果不能有效打通数据壁垒,实现数据的整合,那么相对于这些平台企业而言实际上处于明显的劣势,市场平台的算法权力也就解构了国家权力。因此,如果说前两个层次的挑战,更多可以立足于现有法律制度在司法上采取灵活的应对措施的话,对治理挑战可能就更需要强化以立法手段进行回应。对治理挑战做出立法上的回应,基本思路就在于加强对于市场平台的规制。这种规制需要“刺透平台的面纱”,能够指向具体产品背后的算法,形成更强有力的算法规制。例如,形成风险防范下的双轨制监管思路,将监管对象从内容扩展到算法,将责任承担从平台扩展到技术。同时,政府需要避免在“信用治理”这一激励之下过于积极地依赖于市场平台进行智能化的治理,从而导致依附于市场平台的算法进行治理而失去中立地位,而这就要求控制借助技术手段将国家治理深入渗透各类生活场景的倾向性,不过度扩张各类型“社会信用立法”,以规避来自市场平台的“特洛伊木马”,保持严格的中立地位。同时,在采取这种预防手段的同时,也需要掌握更为积极的手段,通过立法来强化国家机构的数据获取与整合能力,为自身所运用的人工智能算法提供学习资源,以维持国家在数据方面与市场平台的平衡地位。


结语

本文的分析,立足于对人工智能进行一种更为现实的理解,强调人工智能是一种扩散在各类日常场景中架构,通过算法连接生产与消费,并且将两者融合起来。基于这样的理解,也就可以避免由那种简单的“机器人”式的理解而造成的关于人工智能的法律挑战应当如何回应的许多无谓分歧与无效讨论,为进一步的法学研究提供合理的基础。


基于对人工智能所运用的具体场景所做的梳理,由人工智能引出的法律挑战,可以提炼为三个层次的理想类型,由此形成三类回应对策。


第一个层次的挑战表现为安全层次,人工智能技术的运用制造出新的安全风险,或是导致旧有的安全风险被放大,而这种问题其实是新技术的普遍问题。针对这一层次的挑战,基本的回应思路在于应当保持法律上对于新技术的谦抑,无须以严格的法律规制追求人工智能技术的绝对安全,也不必从逻辑上探究人工智能介入安全风险之后的绝对因果关系,而是从风险分配的成本收益出发,通过相对因果关系的界定来配置风险。


第二个层次的挑战则是权利层次,表现为人工智能的运用,造成此前通过人类行为来界定的权利边界出现模糊,因而需要法律对于权利进行重新界定。针对这一层次的挑战,法律回应的基本思路在于认识权利在技术发展与社会变迁作用下的开放与分解,不追求概念与逻辑层面对于权利的严格界定与保护,而是寻求更为微观的运行机制,寻求在高度重叠的具体场景中的实现,最终达成社会福利最大化的目标


第三层次的挑战是人工智能所提出的治理挑战是最关键的问题。人工智能通过算法对个体行为进行的预测与干预,实际上成为现实中强有力的行为规范,因而有可能成为国家权力的替代性权力为了回应这样的挑战,在这一领域的立法应当得到强化。通过立法手段,对于市场平台进行综合的而不是局限于具体产品与技术的规制,避免其借助于相对于个人的强大数据优势来形成具有压迫性的算法治理。同时,也需要通过立法的回应,打通内部的数据壁垒,整合政府的数据资源,从而形成能够与市场平台平衡的力量,以政府的中立地位来实现人工智能时代权利与权力的平衡。


本文的上述分析,主要目标在于通过理想类型化的梳理,为回应人工智能的法律挑战提供一个基础性的思路,更具针对性采取不同对策。从这样的思路出发,有助于在立法和司法方面更优化的配置资源,也有助于在法学研究中忽略一些意义不大的争论与玄谈,而更集中于关键问题。当然,这一思路是否能够达成预期的效果,仍然有待于进一步的研究是否能够在具体问题上充分推进。而关于人工智能的法学研究要回答什么是你的贡献,最终取决于关于人工智能的科学研究将为我们的未来生活做出什么样的贡献。




(责任编辑:陈 颀

(公众号学生编辑:蔡梓园



法规速递

 ▷ 《中华人民共和国网络安全法》

 ▷ 《互联网信息搜索服务管理规定》

 ▷ 《移动互联网应用程序信息服务管理规定》

 ▷ 《欧盟通用数据保护条例》(GDPR)

 ▷ 《英国数据保护法案》

★ 《地方立法研究》2019年第5期目录与摘要

★   戴 昕:超越“马法”?——网络法研究的理论推进 ||《地方立法研究》

★   胡 凌:论地方立法中公共数据开放的法律性质 ||《地方立法研究》

: . Video Mini Program Like ,轻点两下取消赞 Wow ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存