作者简介:
夏庆锋,安徽大学法学院副教授。
原文发表于《财经法学》2021年第6期,第19-33页。本文由孙呈玥校验,为方便电子阅读,已略去注释与参考文献。
(温馨提示:点击文后“阅读原文”,可进入编辑部官网下载文章)
【摘 要】算法合同是指当事人一方或双方使用某种计算机算法来做出决策及履行义务的合同,这里的算法指计算或其他解决问题的操作,尤其指计算机所遵循的程序或规则。算法合同包括工具算法合同与自主算法合同两大类型。算法合同在实际适用中具有快速、全面、避免当事人的不合理偏见等优势,但也存在隐藏重要信息、导致不确定性损害等明显弊端。特别在黑箱算法合同场景下,由于无法判断算法使用者与算法执行之间的意志相连性,难以依据现行法解决黑箱算法合同的归责问题。较为可行的归责方法是从三重维度出发,确定算法使用者的责任:第一,当算法决策与使用者决策具有意志相连性时,由使用者承担算法致害的产品责任;第二,当算法决策与使用者决策不具有意志相连性,但根据其他联系可以判断算法为使用者“人工代理人”时,由使用者基于代理规则承担被代理人责任;第三,当算法决策与使用者决策无任何关联时,依据算法使用者在先支付的保险费用要求保险公司承担赔偿责任。
一、算法合同与算法致害
二、算法合同的立法归责模式及弊端
三、三重维度的算法合同归责方法
四、结论
作为将输入转化为输出的指令序列,算法是当前数字世界的核心,计算机处理能力的提升以及搜索、社交、云计算的出现推动收集、存储和分析大数据算法的迅猛发展。算法支配着大量数字活动,从数据挖掘到区块链技术,从智能机器人到神经网络,包括对物联网所有设备的连接,算法已经渗透到社会发展的每一部分,具有巨大潜力。例如,搜索引擎和社交网络依靠算法提供并决定各项搜索结果的排名,金融公司、信贷机构和银行系统使用算法进行投资和决定贷款策略,保险公司通过算法找到客户群体中风险最低的被保险人,企业利用算法检测和定位消费者行为并改进产品与服务。显然,算法可以为社会带来丰富收益,有助于释放大量信息中的价值、优化生产流程和公共私人服务的提供、节约能源、确定分配稀缺资源的最佳方式、发现和预防犯罪等,且算法在履行这些职能时往往比人类决策者更为迅速和准确。当算法被引入合同时,有关交易事项的评估与合意的形成交由算法完成,算法合同在网络交易或其他非实体交易中发挥重要作用,决定交易发生的时间和价格。由于具备的信息收集与分析功能允许算法对市场的变化做出快速反应,个人可以利用算法做出有利于自身利益的合同决策,例如在金融市场中,投资者依据算法进行快速交易以获得收益或减少损失。 我国《民法典》第469条第3款、第512条等条文虽然对电子形式的合同进行了规定,但并未涉及更为具体的算法合同。《个人信息保护法》第73条第2项规定“自动化决策”是指 “通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,并进行决策的活动”,包含对算法的定义。《电子商务法》第48条第1款规定“电子商务当事人使用自动信息系统订立或者履行合同的行为对使用该系统的当事人具有法律效力”,这里的“自动信息系统”是指按照事先设定的程序指令、算法、运行参数与条件,在无自然人确认或者干预的情况下,交易双方为了订立或者履行合同进行信息互动的计算机信息系统。法律假定算法为一种工具,直接执行当事人的意志而没有学习或自主决定的能力,但是对于合同中普遍使用算法的现实来说,情况并非如此。一些算法合同将合同中决策的关键方面与当事人有意识的决定分离开来,自主履行合同义务的算法可能会选择等同于欺诈或非法歧视的做法,而这些策略是算法经过复杂运算所做出的决策,与使用它的个人或公司的意图相区别。因此,当算法合同在实际适用过程中造成损害结果时,由于某些情形下算法决策与使用者决策并无联系,若一概认定算法使用者承担产品责任而不顾及其是否存在过错或与算法决策存在其他联系,则必然降低算法使用者继续使用与发展算法技术的信心,也不利于算法合同在繁荣数据经济中的促进作用。但是,若仅仅基于算法决策与使用者无直接意志相连性而不顾及其他关系进而否定使用者责任,则导致受到损害的相对方不能得到赔偿,也难以找到责任承担主体。 本文将算法合同中的算法视为算法使用者为实现合同目的而设立的“人工代理人”,利用代 理法规则为算法合同造成损害后的救济活动提供法律依据,论文主要框架如下:第一部分定义算法合同并进行分类,对算法合同在实际适用过程中造成的损害情形进行分析;第二部分对算法合同致害的现有归责方案进行讨论,提出现行合同法的规制不足以及比较法上的不同做法,包括产品责任的适用以及数据与个人信息保护法的规定等;第三部分提出利用代理法规则来丰富与完善算法致害的归责机制,赋予合同中算法以代理人地位,使算法合同优势得以发挥的同时对其造成的损害进行弥补。本文还建议由算法使用者购买算法保险,当完全中性的算法决策导致相对人受损时,由于算法致害行为确与使用者无任何关联且无法进行提前预防,则由保险公司对损害结果进行赔偿,该措施一方面降低算法使用者的风险防范成本,鼓励其使用算法技术,另一方面为可能的损害结果提供救济渠道,在适用算法合同促进社会进步的同时将风险分配给成本最低的一方当事人。
算法合同是指当事人一方或双方使用某种计算机算法来做出决策及履行义务的合同,这里的算法是计算或其他解决问题的操作,尤其指计算机所遵循的程序或规则。更具体地说,算法合同包含的条款内容是由算法而不是由当事人直接决定。当复杂的算法进入人类合同时,当事人控制合同履行过程以及预测合同履行结果的能力将受到限制,事实上,算法合同的优势就在于其可以结合当事人无法顾及的数据广度与条件数量进行决策。依据决策任务的复杂性和可预测性,当事人可以将算法作为单纯的工具或具有自主决策能力的“主体”在合同形成过程中使用,当算法的内部组件或逻辑程序被“破译”时,此时为白箱算法,而当算法逻辑在功能上是不透明时,此时为黑箱算法。算法在合同形成过程中扮演的角色具有多重性,不同类型的算法合同对合同法提出了不同的挑战,在算法仅具有工具功能以及当事人能够预测算法履行结果的合同中,符合合同法的规制要求,但其他类型的算法合同则需要额外的解释。 (一) 算法合同的分类 算法合同可以首先通过算法的角色区分为工具算法合同与自主算法合同,再通过分配给算法的任务区分为填补空隙型自主算法合同与协商型自主算法合同,最后,对于协商型自主算法合同进行细分,包括协商型自主黑箱算法合同与协商型自主白箱算法合同。算法合同与现有合同法规则之间存在匹配梯度,工具算法合同中的算法只是作为工具帮助当事人,通常不会为合同法提出任何新问题,这与当事人使用计算器或基本的商业办公软件进行决策或履行合同义务没有区别。填补空隙型自主算法合同属于合同法规制的范畴,类似于常见的在给定日期支付具有浮动性的市场价格的买卖合同,现有的不完全合同理论与相关法律规定可以对这种类型的算法合同进行规制。当算法在合同的订立或履行阶段扮演谈判者的角色时,需要更多的解释性作业来证明其是否符合合同法要求。经典合同模型的当事人行为与其所欲表达的意志相一致,而黑箱算法合同则不同,使用黑箱算法涉及当事人无法知悉的突变行为,即算法以其使用者无法预测的方式与意愿行动,黑箱算法合同在算法当事人的客观表现意图与自主决策行为之间引入一个缺口。白箱算法合同是一种中间情况,当事人可以预测算法的行为,并且在范围上是有限的,使用白箱算法来协商与履行合同足以显示出被一个合理稳定的结果所约束的意图。 算法合同可进一步分为三种适用类型,分别是高频交易算法合同、动态定价算法合同以及智能合同。高频交易算法合同利用产生高频交易信号的算法与优化交易执行的算法,在符合用户利益的前提下辅助其作出选择。动态定价算法合同为不完全合同,采用直接填补空白的方式,以当事人达成合意为基础履行合同。智能合同也是一种算法合同,利用区块链技术使交易自动进行,并实现在合同订立与履行阶段的完全自动化,正如约书亚·费尔菲尔德(Joshua Fairfield)所说,“去中心化应用程序可能会导致用户广泛使用‘聪明的’算法来选择价格和条件”。由于存在大量重复参与者、高频交易行业特定机构的监管以及智能合同使用社区的极端边缘化,算法合同适用过程中与订立履行及损害赔偿有关的诉讼较少。但是,随着网络技术的更新迭代,算法合同的适用范围不断扩大,在促进社会经济快速发展的同时也导致对特定人群的隐性歧视与具有不确定性的致害情形发生。 (二) 算法致害的具体情形 合同的意义不仅仅是交易价格的显示,也是一个场所,个人可以表达不基于理性主义市场定价的偏好,以促进社会信息共享。从法院过去试图客观分析交易是否公平的利益损害合同理论到承认合同法完全是关于接受个人的实际偏好的法,合同学说与立法的转变验证了当事人意思在民法中的重要地位。虽然算法合同在适用过程中较人类决策具有种种优势,包括快速性与全面性、避免不合理偏见等,但是,其存在的弊端以及导致的对当事人的损害也是不可忽视的。例如,算法可以通过其创建者的授权或根据有利于使用者利益的导向隐藏与合同订立或履行相关的重要信息,从而导致交易相对方无法共享相关信息并作出是否订立合同的真实意思表示。 1.隐藏重要信息 如果算法被授权以及在合同履行中适用,其完全可以根据自身的学习能力采取最有利于使用者的方式筛选信息与履行义务,而这一方式可能并不符合当事人利益最大化的要求。例如,2009年亚马逊公司(Amazon)将近57000本支持同性恋的书籍从其销售书单中删除,原因在于这些书籍被错误地标示为“淫秽书籍”,这一删除行为是亚马逊公司编程的算法根据使用者“不得违法”的要求进行履行的结果。对于用户而言,算法的自动删除行为使其无法购买有关同性恋研究的书籍,该销售信息的隐藏是算法使用者非故意的错误行为,导致合同双方当事人都受有损失。但是,如果供应商故意使用算法隐藏重要信息,并利用这一行为谋取非法利益,其最终结果将对合同相对方造成损害。例如,算法使用者认为某些信息不重要而予以忽略,使相对人无法得知,也无法对这一特定信息进行评估。又如,产品供应商为了提高缔约成功率,故意利用算法将产品的不利信息删除,使相对人在不了解重要信息的情形下订立合同。甚至,若算法使用者的律师认为相对人知情特定信息将使公司承担过重责任,则公司完全可能积极寻求确保算法不考虑这些信息的方式处理。合同是法律规制的一个独特领域,当事人之间的合同条款对其具有法律拘束力,而赋予算法在隐藏重要信息的前提下获得相对人同意的法律强制力,不仅在伦理上存在问题,还剥夺了相对人关于合同订立的有价值的、无法替代的信息来源的知情权利,在相对人获知隐藏信息后将做出相反意思表示的场合尤其如此。 2.导致不确定性损害 复杂的算法可以迅速找到当事人不太可能或无法确定的与合同相关的事物之间的联系,但也可能产生当事人难以预见的后果。在物权法律关系中,物权的占有、使用、收益和处分等权能皆由物权人行使,法律只涉及边界,个人能够控制物权变动的各个方面,如当事人之间可以约定仅转移一块土地的使用权而非所有权。而在算法合同法律关系中,算法的使用产生大量风险。对于工具算法合同而言,算法风险是一种理性的、经过计算的风险,企业和个人可以管理自己的风险,当他们的冒险行为影响他人时,合同法与侵权责任法的规定允许受害人获得赔偿。但是,对于自主算法合同尤其是黑箱算法合同而言,不确定性问题逐渐凸显。使用黑箱算法重新分配当事人之间权利义务的不确定性在于该算法不在任何人控制的范围内运行,难以跟踪和最小化算法适用所带来负面结果的潜在风险。由于使用者无法确定黑箱算法自我学习将产生的具体行为,算法风险无法控制,也不能进行有效应对。例如,在动态定价算法合同中加入种族、性别等考量因素,使其从填补空隙型自主算法合同转变为协商型自主黑箱算法合同,不仅导致议价 能力更为悬殊,甚至剥夺当事人订立合同的权利与资格。具体案例如优步(Uber)服务平台中女性和非洲裔美国乘客受到各种形式歧视的可能性更大,包括等待时间更长、取消次数增加等。又如,根据爱彼迎(Airbnb)的研究显示,提供的姓名更像是非洲裔美国人的客人预订请求被接受的可能性要比平均水平低16%。 3.降低社会福利水平 尽管多数算法正确地反映当事人偏好,但是,至少在黑箱算法合同场景下并不总是这样。黑箱算法合同可以使价格歧视成为可能,例如在“客观算法”的幌子下,利用复杂的算法和大数据从相对方获得超额利益,让优势一方变得富有且弱者失去更多权利,进而由对每一个消费者利益的侵害导致对社会整体的侵害,使社会福利水平降低。“大数据杀熟”是一种典型的利用个人偏好进行价格歧视的算法适用,网络交易平台对用户浏览、收藏、购买、评价等记录进行收集,形成个人购买偏好的大数据集,再利用算法的深度学习能力对这些信息进行分析,并智能化、自动化、高频化地推送用户“可接受”的高价产品。“大数据杀熟”的网络操作已经完全背离基本商业道德与我国《民法典》要求的公平与诚信的基本民事行为准则,对社会群体造成普遍性损害。
在算法合同中,利用算法可以做出更快、更全面、更少偏见的交易决策,降低成本并提高每个步骤的履行质量。但是,目前合同中算法的适用主要表现为由算法使用者一方控制,容易使本来就占据优势地位的产品、服务供应商为了获得更大利益而利用算法隐藏有关交易的重要信息,对合同弱势一方的普通当事人造成损害。有些算法合同的编码设计在履行过程中造成不确定性损 害且无法提前应对,甚至造成社会整体福利水平下降。而对于算法合同致害的归责安排,主要包括依据合同法、产品责任法以及数据与个人信息保护法的规定要求过错方承担责任,这些立法模 式虽然发挥一定的作用,但各自都存在明显的弊端,不利于对算法合同行为进行有效规制以及对合同相对人进行充分救济。 (一) 合同法的规范限制 当合同中的算法只是工具以及算法使用者能够预测算法行为结果时,要求算法使用者承担合同责任符合法律要求。在商法中,传统的相互同意和对价要求有时由于对当事人复杂程度的假设而有所放宽。但是,黑箱算法已经远远超出其授权实体意图和能力的范围,这是合同法立法者所没有考虑到的新现实,正如鲍尔金(Balkin)所言,“黑箱算法通过分类和风险评估构建身份和声誉,为歧视、限制和操纵创造机会,而没有足够的透明度、问责制、监控或正当程序”。由于黑箱算法合同中起关键作用的算法的法律地位并不确定,算法使用者利用算法暗示同意给定交易的特定意图,但当涉及该算法交易造成的不良结果时,算法使用者很难被证明有足够、具体、客观的意思表示来承担责任。 1.黑箱算法合同具有突变属性 自愿、真实地表达同意受条款约束是合同生效的关键要素,合同法理论中的主要观点认为,合同从根本上来说是一种意志的表达,是双方或多方当事人受条款约束的有意识的、客观表现的意图。当然,这里的客观同意也需要一定程度的主观意识,例如,在兰迪·巴奈特(Randy Barnett)以意志为导向和宽容的形式合同观点下,同意订立合同并不意味着当事人需要真正理解合同条款后才能做出承诺,相反,它是“表明同意接受法律约束”的主观表现。即使个人选择不去阅读冗长的条款,也会有意识地在形式合同中表达同意,而这种同意意思表示只是确定“理性的无知”具有法律效力。但是,即便在形式上同意合同内容也是有限度的,超出合理范围的条款不应被视为合同的一部分。 合同中的算法被视为工具,帮助当事人比较价格和质量并预测市场趋势,在不确定的条件下做出权衡利益的决定。但是,随着算法技术的发展以及黑箱算法合同的出现和适用,当事人对算法的授权可能导致这些算法完全绕过当事人意志而自主做出决定。接受一般格式合同的当事人可以说是“理性的无知”,而在黑箱算法合同中,由于条款内容或履行方式并非确定的且随时变化,与一般格式合同中“理性的无知”所需的条款内容虽未知但固定的要求不符,算法合同中相对方当事人的同意表示也不能称之为“理性的无知”。双方当事人都不知道算法将如何履行,虽然算法本身做出更为细致的选择,但自主选择与当事人有意识的选择具有不同的法律地位。黑箱算法通过收集不同当事人个人信息与行为动机以及对缔约环境变化的及时学习来调整自己的决策逻辑,其合同行为具有突变属性。机器人法律专家雷恩·卡罗(Ryan Calo)将“突变”定义为“不可预测的有意义行为”,例如,在金融市场,虽然金融机构的定量分析师会利用编程算法的行为进行选股,但金融机构无法预测算法将选择哪些股票。突变属性也是开发和使用黑箱算法合同的商业目标之一,商家可以利用这一属性为自己谋求更多利益且不用担心可能产生的责任追究问题。原因在于,在出现黑箱算法的情况下,法律必须对其致损的责任轮廓有连贯且清晰的说明,否则难以追究算法使用者的过错责任。除非法律包含了算法相对于人类主体所扮演角色的恰 当规定,否则不能反映合同法基础理论的黑箱算法合同虽然属于合同范畴,但基于合同法的规范 通式与黑箱算法合同之间存在巨大差距的客观事实无法要求算法使用者承担合同责任。因此,黑箱算法具有的突变属性不符合合同法要求当事人承担责任的场景化考量,当黑箱算法合同造成损害结果时也因为无法追究使用者责任而导致巨大的负面效应。 2.黑箱算法合同缺乏当事人相互同意 相互同意是指合同双方达成的合意,现行合同法中相互同意的要求是由一个客观标准来决定的,即当事人通过其行为表现出来的明确意图,通常以要约和承诺的形式存在。在双边合同的传统解释中,一方提出要约,另一方对要约进行评估,然后选择接受或拒绝。然而,在算法合同的情况下,一方使用算法来确定价格和其他合同条款,而不是直接与对方达成相互同意内容。问题在于,一方使用算法为其选择价格和合同条款的明确意图,是否与算法选择的实际、客观的同意 合同条款意图相同。算法在使用者意图与算法行为之间进行连结,如果算法在当事人设定的参数范围内行动,那么代表使用者的算法就是一个管道,使用者意图与算法行为具有一致性。但是,在黑箱算法合同场景下,要约人同意黑箱算法履行合同事务只是一个虚幻的承诺,这种虚幻的意思表示与黑箱算法实际表达出来的义务履行缺乏意志上的一致性。换言之,算法所表达出来的意思与使用者意思存在不同,即使相对人同意算法决策,此时也难以证明其与算法使用者达成一致的意思表示。 基于工具层面对算法的使用,可以清地确定算法使用者的合同意图。但是,以太坊(Ethereum)的大规模盗窃以及股市闪电崩盘等重大事件的发生,是真实世界的案例,说明算法选择的行为可能会偏离有意识的自然人的意图。如果当事人使用算法时列举宽泛的目标,例如“如果属于我的业务利益范围就做这件事”,这一意思并未承诺受算法操作的某一特定合同条款约束,在出现算法违法行为并造成损害结果时也无法对其进行追责。使用算法的当事人需要对算法损害行为负责,但是,“一方使用算法订立合同,但他们‘大概知道’将会发生什么”这一模糊概念并没有上升到合同中相互同意的水平。在工具算法合同中,各方对一个算法或未来的市场价格达成合意,然而,在黑箱算法合同的情况下,确定一种算法并不能代表合同内容是固定不变的,当算法同意的内容在当事人使用算法时无法确定时,该当事人没有客观地表现出受其约束并在出现损害后果时承担赔偿责任的意图。我国《民法典》规定承诺生效时合同成立,而承诺是指另一方当事人对一方当事人提出要约的同意,对于黑箱算法合同而言,在不具备当事人相互同意的前提下,当然也无法符合合同法关于责任承担的规范要求。 (二) 产品责任法的适用缺陷 产品责任法来源于侵权责任法的规定,我国 《民法典》第1202条至1205条对产品责任的一般情形进行定义,“因产品存在缺陷造成他人损害的,生产者应当承担侵权责任”。因此,对于算法角色仅为工具的或对于白箱算法合同而言,适用产品责任法要求算法使用者或创建者承担责任具有合理性,此时算法属于 “产品”。美国学者关注嵌入算法的智能汽车和其他机器人物理对象,一些学者认为,算法使用者和创建者应遵守一般的侵权过错规则,或者算法产品的最终制造商根据产品责任规定对损害后果进行赔偿。另一些学者建议对智能汽车等算法载体适用妨害责任规则,将智能汽车等同于雇员、儿童或动物,从而将替代责任或无过错责任强加给车主和所有 者,并采取无过错赔偿规则,使受害者有权从车主和所有者处获得赔偿。欧洲政府和专家机构主要关注算法活动的事前治理,呼吁更好的自我监管和建立专家监督系统。其中部分法律学者提出并探讨责任问题,特别是关于嵌入机器人和智能设备的算法,具体的解决方案包括从根据《欧盟产品责任指令》(1985/374/EEC)使智能产品制造商承担赔偿责任到对此类产品所有者和用户适用托管和替代责任的相关规则。欧盟委员会认为,解决物理产品中嵌入算法造成损害的正确答案在于更新欧盟产品责任制度,制定针对智能设备的特别规则。 但是,适用产品责任法解决算法合同的归责问题只能在算法作为工具或算法使用者完全控制算法活动的情形下发挥较好的规制作用,在自主算法合同尤其是黑箱算法合同场景下,要求算法使用者承担产品责任缺乏合理依据。我国《民法典》第1165条第1款规定“行为人因过错侵害他人民事权益造成损害的,应当承担侵权责任”,而承担无过错责任的情形需有法律明确规定,因此,当非工具算法造成对方当事人损害时,由于无法判断此时的算法使用者是否存在过错,要求其承担赔偿责任不符合产品责任法的规范要求。例如,高频交易涉及黑箱与白箱算法合同,在一个不断变革的专有算法环境中,进行有效监管是非常困难的。当白箱算法致害时,适用产品责任法要求算法使用者承担责任符合法律规定,而当黑箱算法致害时,由于其不符合产品责任法的适用前提,无法要求算法使用者承担责任。尽管高频交易盛行,但是算法使用者以掩盖计算痕迹的方式制定最佳盈利方法,其行为虽然对投资者整体造成巨大损害,却因为不符合产品责任法的规制要求而无需承担不利后果。 (三) 数据与个人信息保护法的处理难题 在加强数据与个人信息保护的大背景下,欧盟《通用数据保护条例》(General Data Protection Regulation,GDPR)颁布一项普遍禁止算法自动决策的规定,该法第22(1)条规定,“如果某种包括数据画像在内的自动化决策会对数据主体产生法律效力或对其造成类似的重大影响,数据主体有权不受上述决策的限制”,适用范围包括招聘、工作评估、信用申请、保险单、服务提供的决定,以及任何形式的价格歧视、商业助推、行为广告和营销等。同时,GDPR第82(2)条规定:“参与处理的任何控制者应为违反本条例的数据处理导致的损害负责。任何处理者,仅在其未遵守本条例对于处理者义务的特别规定或采取超出控制者的合法指令或与控制者的指令相反的处理行为时,应为数据处理导致的损害负责。”GDPR通过对数据主体的保护规定间接赋予算法接受者拒绝的权利,以及其后条文中对算法致害的赔偿措施,但该法得以妥善适用需至少解决如下难题,即如何论证违反第22(1)条规定将直接触发第82(2)条适用于数据控制者和处理者的责任规则。第22(1)条规定的数据主体有权不受自动处理与分析而作出决策的约束,如果算法决策对合同相对人产生重大影响,能否推导出算法使用者存在违反条例的行为,由于算法使用者与算法决策之间可能不存在意志相连性,此时也无法适用第82(2)条要求算法使用者承担责任。 我国《个人信息保护法》第24条规定:“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式。通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”该法条相较于GDPR第22(1)条而言,除了赋予算法接受者拒绝权,还要求算法使用者保证 算法决策的透明度以及决策结果的公平合理,这一设计的优势在于解决了GDPR第22(1)条面临的与其后责任追究条款的连结难题。《个人信息保护法》第66条对“违反本法规定处理个人信息,或者处理个人信息未履行本法规定的个人信息保护义务”的处理者进行处罚,只要算法决策过程为当事人所不知情或最终结果使合同相对人受到不公平对待并造成损害的,即违反第24条规定的透明度与结果公平合理要求,此时可直接依据法律责任条款要求算法使用者承担责任。 但是,《个人信息保护法》第24条的规定仍然产生新的难题,即如何设立决策透明度以及结果公平合理的判断标准。就决策透明度而言,工具算法合同及白箱算法合同当然可以保证。而黑箱算法合同的优势在于效率与算力的极大提升,这一优势来源于大数据时代数据收集、存储、计算和分析的进步,使算法能够将众多变量整合到决策树中,提供一种仅靠人类思维无法达到的复杂维度,也就是说,黑箱算法合同的适用存在大量的且不断变化的数据信息,无法满足一般认识中的透明度要求。因此,若依照《个人信息保护法》认定黑箱算法合同不符合透明度要求而予以否定,则不利于网络交易的发展,而认可黑箱算法合同的不透明性则不利于对损害后果的追究,导致进退两难的窘境。对于结果公平合理的认定问题,由于黑箱算法合同的履行结果具有不可预测性,这也为相对人先行同意再予反悔的行动提供土壤,诱发道德危机的产生。例如,算法合同相对人完全可以在订立合同之初表达对使用算法自动化决策的同意,当出现其不满意的履行结果时再以不符合公平合理标准为由要求解除合同,而不管该结果是否实质不公正。
我们需要承认算法不仅仅是工具,并且不能错误地假定只有算法使用者能够预测复杂算法的运算结果时才承担过错责任,而是根据利益归属进行判断,只要算法使用者与算法具有关联并最终获利,就应当承担算法自身错误行为的不利法律后果。将算法合同分为黑箱算法合同与非黑箱的一般算法合同进行讨论,对于一般算法合同而言,可以相对容易地发现使用者编码行为与算法之间的联系。但是,对于黑箱算法合同而言,则不能一概判断使用者与算法执行之间的意志相连性,也难以依据现行立法解决黑箱算法合同的归责问题。 (一) 存在意志相连性的产品责任方法 一般算法合同具有透明性且能够传达有意识的要约与承诺,在实践中使用算法将相互同意转化为行动,可以作为未来合同活动的辅助工具。虽然算法合同中当事人合意的形成不会通过实际签字、口头陈述或点头表示同意,但算法使用者与相对方已经通过编码的形式对合同中的决策参数进行交流,且通过交流产生的结果来指导自己的行动。一般算法合同使用者的意志与算法意志具有相连性,算法目标由使用者设定,实际上为服务于特定目标而设计的算法就像软件工具一样,这些工具可以在计算机化的网络中进行民事活动并传递信息,与其他当事人控制的软件工具进行交互。而且,使用者可以对算法用于做出决策的具体程序进行限制,例如,通过编码的设计要求算法按照某种方式行事或在做出决策前向算法使用者发出申请。 产品责任法对合同中算法进行有效规制的前提是算法不能存在“有意图的心理状态”,在一般算法合同场景下,算法只是将使用者的意思自动地表达出来,这里所产生的一切后果由使用者承担,符合法律的规定。以无人驾驶为例,无人驾驶汽车的算法体现工具性,如果出现非驾驶人过错导致损害后果,需追究生产者提供瑕疵产品的侵权责任。但是,当存在一种学习协调场景时,算法可以通过强化的自我学习能力独立地实现给定目标,而不是当事人专门编码做出的某种反应。当算法合同协调的不是明确的人类设计的结果,而是进化的、自我学习和独立执行的结果时,此时无法适用产品责任法对算法合同的法律关系进行规制。 (二) 存在其他联系的被代理人责任方法 代理是指代理人以被代理人名义实施的法律行为,其法律效果由被代理人承担。在现代社会,代理既是交易的工具,也是人们从事社会交往所不可或缺的手段,具有辅助功能与延伸功能。我国《民法典》第162条规定,“代理人在代理权限内,以被代理人名义实施的民事法律行为,对被代理人发生效力”,当代理人的行为方式违背与第三人的合同约定或造成利益损害时,只要其代理行为在被代理人授权范围内,则被代理人需承担责任。要求被代理人承担责任有利于促进其对代理人的代理行为进行监督,防止代理人的行为超出限度并对相对人造成损害,被代理人对代理人的代理活动更为熟悉,立法上的这一安排意在付出最少成本保证代理活动的正常进行以及对各当事人的权利保护。以代理规则规范算法合同具有可行性,尤其在黑箱算法合同类型中,虽然对于有些算法使用者的行为无法判断是否存在过错,但可以依据代理规则要求实际获利的算法使用者承担责任,代理方法是法院对黑箱算法合同进行规制的有效措施。 1.纯粹工具说与控制说的不周延性 我国立法上将算法视为一种“自动信息系统”,作为工具辅助人类合同的订立与履行,而“纯粹的工具”无法独立做出改变个人或公司法律关系的决定,例如《个人信息保护法》第24条第3款规定个人“有权拒绝个人信息处理者仅通过自动化决策的方式作出决定”。如果仅仅依赖于过时的假设认定算法只能作为工具,与算法签订合同的可执行性将受到质疑,这也导致算法使用者丧失足够的动机来发展与监督算法行为。美国法律部门的认识较为先进,其并非将算法仅仅限定 在工具的范畴,例如一家地方法院早在1992年的判决中就认为算法不能免于《信息自由法案》(Freedom of Information Act,FOIA)的要求,“因为它不是一种工具,而是法律规定的实质性部分”,当创建者委托算法在特定的参数范围内实现给定目标时,算法就承担着决策者的角色,其有创建者强加的特定目标和条件,但它了解并处理算法创建者所不了解的细节。欧洲立法机构认为,即使算法不仅仅是工具,其使用者也具有足够的能力来理解和预测算法行动的所有可能结果,就算法造成的损害应当由其使用者承担赔偿责任,如欧盟《通用数据保护条例》第82(2)条规定参与处理的任何控制者应为违反本条例的数据处理导致的损害负责。但是,事实上很多黑箱算法合同的使用者无法预测与控制算法行动的所有可能结果,以“控制说”要求算法使用者承担算法损害的赔偿责任并不合理。 2. “人工代理人”的最佳问责模式 山姆·威齐格(Sam Wilzig)认为对算法行为的归责可采用的方法包括产品责任、危险动物责任、代理责任等。产品责任前文已经述及,仅对于工具算法合同与白箱算法合同具有较好的规制效果,危险动物责任指将算法拟定为“危险动物”,由其“看管人”即算法使用者承担损害后果的赔偿责任,其适用前提为“危险动物”行为受看管人支配。需要注意的是,当算法复杂到足以产生突变行为并被使用者授权签订和履行合同时,例如在黑箱算法合同中,没有足够的证据证明算法使用者可以支配或控制算法的合同行为。本文认为,考虑算法问责的最佳模式是将算法塑造为使用者的“代理人”,算法使用者可以通过正式授权、默示授权或追认授权等方式授权算法履行代理行为,并将意图和行为结果归责于没有直接参与事务但最终获利的使用者。 受欧洲大陆对自上而下、严格法律监管力量的信念启发,2017年2月欧洲议会通过一项关于“机器人民事法律规则”的决议,敦促欧盟委员会建立“网络物理系统、自主系统、智能自主机器人及其子类别的共同定义”,同时考虑为机器人建立长期的特定法律地位。这一措施的直接结果是使最为复杂的自主机器人具有“电子人”身份,负责赔偿它们造成的任何损害,并可能将电子人格扩大应用于机器人自主决策或与第三方独立互动的情形。激进观点认为,就未嵌入物理产品的算法的负外部性而言,也应当赋予算法以相关的法律人格,从而使其既能拥有资产,又能在法庭上被起诉。本文认为,虽然算法在语言与思维上接近人类甚至在计算能力上远超人类,但仓促赋予其独立的法律人格仍面临较多挑战,人工智能算法在社会经济活动中的独立地位存有质疑,仍有如怎样处理算法与其背后的使用者或创建者的紧密关系等较多问题需要先行解决。法律应该像对待代理法中被代理人的意图和行为一样对待使用算法订立合同的使用者,对其意图与行为进行分析,此时的算法为没有法律人格的“人工代理人”。“代理”一词的使用并不能赋予算法任何类似于人类实体的权利或义务,而出于责任承担的目的,算法合同的致害行为应由人类被代理人承担赔偿责任。算法不是自然人、法人或其他组织,缺乏民法上的主体地位,不能代表自己的法律利益订立合同,但其可以代表使用者改变合同利益。美国《统一电子交易法》(Uniform Electronic Transactions Act,UETA)包括对算法作为代理的理解,该法第2(6)条规定,“电子代理系指非经人的行为或审核,全部或部分独立地发起某种行为或应对电子记录或 履行的计算机程序、电子手段或其他自动化手段”,第2(7)条与第2(8)条分别对电子记录与电子签名进行规定,通过允许电子记录和签名形成合同来促进算法合同的创建,从而给予电子记录和签名与传统的纸质记录和手工签名相同的法律对待。 3.代理关系的确认 算法使用者利用算法在其与合同相对人之间建立虚假的法律距离,将算法作为他们订立与履行合同的“中间人”,使自己获得利益的同时远离责任与风险。就合同相对人而言,算法行为并不透明,相对人无法采取任何措施预防算法致害的发生,而作为被代理人的算法使用者是最适合采取主动行动防止损害发生的当事人。虽然算法使用者无法直接控制黑箱算法,但仍可以对各类算法活动进行监控、引导,使算法使用者与算法之间产生其他联系。在算法使用者与算法不存在意志相连性的场合下,只要其与算法合同行为存在代理法上认可的联系,就应当承担赔偿责任。因此,如何分析算法使用者与其使用的具体算法之间的其他联系并使之转换为责任承担依据的代理关系,对于我们理解算法合同归责的责任制度以及识别责任方至关重要。 算法使用者作为影响算法的重要主体,要求其承担被代理人责任有利于防止算法致害并实现最优合同行为,迫使算法使用者对算法行为进行更为细致的分析与监督,抵御潜在损害风险。虽然算法使用者利用算法创造承担责任的间隔,但只要能够确认其与算法之间具有代理关系,则其需承担算法致害行为导致合同相对人受损的赔偿责任。建立代理关系有两种方式,通过协议或通过批准,代理协议是常见的被代理人与代理人之间建立代理关系的方式,但是,当行使代理人职责的主体是算法而非一般民事主体时,代理关系的建立主要通过批准方式完成。批准产生代理关系,需由被代理人接受利益或者允许代理人代表其行事的行为确定。重要的是,必须有一些客观的证据证明被代理人知道该行为并选择受其约束。批准方式是授权算法为 “人工代理人”的主要方法,对于当事人而言,预测并授权算法可能做出的每一个决定是不可能的,也并不可取。算法代理模型增加了法理解释的难度,一般而言,只要算法使用者存在以下情形之一,即可证明其授权算法为“人工代理人”并应当承担不利后果:第一,使用者跟踪算法行为,实时更新算法的合同行为并进行总结;第二,使用者为算法决策等算法行为的每一事务引入人工审批节点;第三,使用者通过其他行为表达其与算法存在某种关联,如为算法决策提供参考数据等。 利用代理的归责方法在实现减少外部性和维护公平缔约行为的目标方面明显优于忽视算法合同作为一种特殊协议类别的模糊现状,也可以公正地对待合同各方所承担的责任和风险。虽然代理问题在私法领域争论较多,但就算法合同归责的代理方法这一可行措施而言,重新关注与澄清代理行为具有现实意义。 (三) 不存在联系的保险赔偿方法 作为代理方法的补充,算法使用者还可以购买或与保险公司合作设立算法保险机制。当算法使用者与算法决策既不存在意志相连性,也无其他关联时,若算法合同的履行结果造成相对人损害,由保险公司进行赔偿。自主算法合同尤其是黑箱算法合同被设计成超越人类思维极限的决策程序,算法模型越复杂,理解和预见这些算法的选择就越困难,例如深度学习对算法使用者解释算法在多层逻辑维度中的决策能力构成巨大挑战。而且,算法决策往往基于天文数字的组合,每一个组合又包含天文数字的参数和潜在混合物,远远超出人类可以预测或控制的最大值。虽然工具算法合同反映使用者有意识的选择,但是对于黑箱算法合同等自主算法合同而言,算法决策具有独立意义。因此,只要算法决策导致的损害结果确与使用者无任何关联,则可以适用保险赔偿的补充方法对受损害方进行救济。保险赔偿是一个有效弥补无过错方损害结果的赔偿解决机制,该责任的承担填补了算法合同致害的归责空缺。在以受害人得到赔偿为前提的设定下,应要求算法使用者在尚未出现损害结果时支付少量保险费用,在发生与其无任何联系的算法损害事故时由保险公司进行充分赔偿。
本文对算法合同进行讨论,列举重要的算法合同类型,并分析算法合同在适用中具有的致害风险以及归责方法。算法合同的归责法理要求算法使用者承担责任由强至弱包括三重维度:第一,当算法决策与使用者决策具有意志相连性时,由使用者承担算法致害的产品责任;第二,当算法决策与使用者决策不具有意志相连性,但根据其他联系可以判断算法为使用者“人工代理人”时,造成损害的由使用者基于代理规则承担被代理人责任;第三,当算法决策与使用者决策无任何关联时,此时以算法使用者在先购买的算法保险为保障,由保险公司承担赔偿责任,这里实际上是由保险公司承担仅向未来且具有不确定性的算法致害责任,但由于算法使用者已经支付保险费用,也将其归为使用者承担责任的维度之一。随着具有隐蔽性与复杂性的算法合同越来越多地控制日常网络行为,包括管理社交平台、网络交易、新闻推送等在线行为,对它们进行充分的规制是至关重要的,同时也需要立法、司法部门与学者积极参与对未知的、可能有偏见的算法治理系统进行研究。
财经法学
____________________________
公众号ID:caijingfaxue