于霄|算法辅助决策中意思自治的重构
要目
一、问题的提出二、算法的意思参与三、算法辅助决策中的行为理性四、意思自治因应的一个框架数字社会已经成为触手可及的现实,算法辅助决策的问题已经亟待解决。算法辅助决策较人类决策具有特殊的技术优势,所以得到很多人的自主、自愿选择。然而,算法参与人类意思的程度并非一致,可以由低到高区分为检索过滤算法、排序精选算法、偏好模拟算法和家长式算法。算法辅助决策亦存在风险,其复杂性使对其解释与认知越来越难,其设计者、运营者具有独立利益需求,其会偏离人的偏好,人的决策能力会受到算法辅助的影响。但是,总体上,算法辅助决策更具效率,更有助于增进人的幸福感,虽然在某些方面有损于人的尊严。据此考量,应当在承认算法超越人的意思能力的基础上,描绘评价算法意思参与的“智能性”光谱,构建“算法规制算法”的治理与保护路径,划分算法辅助决策的责任机制。
一、问题的提出
人的选择是人行为的内核,是法核心价值的重要基础。基于选择的意思自治是法律世界,尤其是民法世界的柱石。意思自治主要基于三个假定:其一,意思自治更具效率。法律承认每个人关于某种物或特定关系的选择优越于他人的选择,即人是权利的积极行使者而非其他人行为的得利者。法律权利选择论主要侧重选择行为的结果,即其认为让每个人自己进行选择更具效率。换言之,一个人的选择最大程度地反映其主观偏好。其二,意思自治体现人的尊严。一方面,意思自治是人在社会中自我认同的基础和自我发展的动力。社会中,每个人的特殊性本质上是由一次次独特的选择所构成,前期选择会影响后期的选择。正是因为每一次选择都由“我”作出,人才形成“我”之所以为“我”的认知与认同。每个人的自我认知与认同本质上是对其选择及其社会反馈的认知与认同。另一方面,不是自我选择的物质与精神的善,会让人感觉陌生与不完整。“……他自己规划其存在的方式总是最好的,不是因为这方式本身算最好,而是因为这是他自己的方式。”相对效率论来说,尊严论更关注人的行为本身,甚至做错事也是一种权利。其三,选择可以为人带来幸福感。消费之所以被一些人认为是精神“鸦片”,就是因为消费提供即时的快感,这种快感来源于人对外部世界的控制感与快速正向反馈的满足。选择越多,人对生命本身的参与就越深入。反过来,这可以加强人们对自身各种行为动机的反思、增强责任感、提高创造力,进而促进人作为一个生命体,不管是在生物意义上,还是在社会意义上的健康运行。
然而随着数字技术的发展,算法辅助决策现在已经具有广泛的应用场景,主要包括金融领域(比如期货市场和其他金融衍生品市场)和消费领域。随着科学技术的迅速发展以及人们对算法辅助系统的态度逐渐开放,未来算法辅助决策将会应用到更广的领域。就目前算法辅助决策的应用来看,它主要可以分为两个层次:第一层次,辅助算法仅向人推荐产品(例如淘宝的商品推荐)、服务(例如滴滴出行的打车优先排序),为人们提供排序(例如京东的按销量排序)、规划(例如高德的路线和停车规划)和建议等。第二层次,辅助算法提供的不仅仅是建议,它会基于数据,分析用户偏好,并代理用户作出民事行为。举几个例子:蔚来汽车、小鹏汽车、特斯拉汽车智能驾驶系统自动规划路线并驾驶(由此产生的民事行为,比如ETC缴纳过路费);英国应用程序Flipper可以监控能源市场的价格,并在适当时机更换商家。在现有技术条件下,很多行为不再是传统的人类选择,而是算法与人类的共同决策结果,甚至是算法替代人类作出决策。算法辅助决策已经对人的选择以及在此基础上的意思自治提出挑战。
那么,算法辅助决策是否具有优势,算法如何参与人类意思,算法参与对人类意思有何影响,算法辅助决策为何是人类的理性选择,从意思自治的视角法律应有什么样的应因策略?笔者将主要集中于消费领域展开相关研究。
二、算法的意思参与
所谓“意思参与”是指算法参与人类的意思形成与表达过程,从而成为意思表示在法律上不可分割的部分。这种意思表示可能是民法上的,也可能涉及其他法律部门,比如刑法与行政法等。在算法辅助决策的意思参与中,要解决两个问题:一是,算法辅助决策相较于人类传统决策具有什么优势,人为什么会选择算法进行辅助?二是,算法意思参与的程度是线性的,还是可以类型化的;如果可类型化,应当如何分类?
算法辅助决策具有技术优势。算法辅助决策较人类决策所具有的技术优势首先取决其所基于的计算机技术、网络技术等,这些技术本身就有运算快、传输快、数据量大、全时工作、决策一致性高、失误率低等特点。综合来说,算法辅助决策具有以下几个技术优势:一是,算法辅助决策效率更高。这种评价的机制是在给定条件的基础上,算法辅助决策较人类决策用时更短、耗费更少。二是,算法辅助决策具有更充分的决策基础。这种评价的机制是在给定时间的基础上,算法辅助决策较人类决策考虑的要素更多。比如Farecast可以预测航班机票的价格变化(准确率超过70%),但其基础是先获得500亿个机票数据。三是,算法辅助决策可以容纳更大的复杂性。这种评价机制是在给定主体的基础上,算法辅助决策较人类决策考虑的决策结构更复杂、分析更系统化。比如,没有学习过法律的人可能很难理解术语繁杂的合同,而算法却可以避免人类消费者可能因时间、语言或信息限制而陷入合同陷阱,可以帮助人们发现其忽视的法律问题。四是,算法辅助决策可以避免人类的情绪与偏见。人类的情绪与偏见会导致决策偏差,比如,消费者有时更喜欢进口商品。事实上,人类的决策往往是在选择过程中临时作出的,并受到环境的影响。五是,算法可以提升被辅助方的力量。现代营销技术深刻地洞悉用户的人性,商家利用用户的不安全感、认知弱点、不理智的恐惧、攻击性情感和性欲望来改变他们的思维、情感和行为,从而获得更多的利益。如果算法真的致力于使消费者更加理性,则有利于消费者在与商家的博弈中处于更优的地位,从而使商家必须更精确地研究消费者偏好,并更好地服务于这些偏好。
算法辅助决策具有技术优势,而算法参与人类意思的机制与程度是不同的。通过对多维要素的标定,可以将算法意思参与分为以下几种类型:
第一类是检索过滤算法。在此类算法中,算法决策的参数(比如价格、质量、物流等)以及每个参数的权重都由人来设定,然后算法根据这些设定的偏好进行选择,比如火车订票12306系统。在这种情况下,算法相当于一种提高批量决策效率的数据库工具。此时,人和算法的选择完全重叠,但是该算法能够更有效地进行决策。
第二类是排序精选算法。在此类算法中,用户从算法设计者准备的固定菜单中选择决策参数,并由算法进行排序和精选。如果菜单可以穷尽用户可能使用的所有偏好,排序精选算法与检索过滤算法没有本质差异,但固定的菜单通常限制了用户可以设定偏好的范围。现在服务商也在尝试定制更个性化的菜单。比如,谷歌在应用中加入“探索兴趣”,以便搜索结果更好地符合用户偏好。菜单算法产生的主要原因在于选项数量过多,用户难以进行选择。比如,在火车车次上可以穷尽所有偏好,是因为车次相对有限,而在淘宝众多商家中选择一个巧克力进行购买,若没有固定菜单(名称、品牌、地区和价格区间等)的限定,选择将会非常困难。
第三类是偏好模拟算法。在此类算法中,算法使用的决策参数不完全基于人的明示偏好,相反算法会基于一定数据模拟或预测人的偏好。人的偏好在决策中可以区分为明示偏好与行动偏好。在非算法参与的决策过程中,人的行动偏好所表现出的社会意义非常微小,因为人的行为信息是不透明的;一般认为,人的明示偏好就是人的偏好,或者说法律推定人的明示偏好就是人的偏好。而算法辅助决策因为可以基于人的历史行动偏好来推荐或作出最终选择,行动偏好与明示偏好一样都可以直接转变成为表示意思(或大概率地影响表示意思)。所以,明确两者的不同具有重要意义。偏好模拟算法的基础是行动偏好,即人历史上的偏好表现。从另一个角度上说,算法是通过人在展现偏好时所留下的数据来构建用户模型,并在新的决策中依据用户模型模拟人的决策。
第四类是家长式算法,名称源自于“家长主义”。家长式算法区别于前三种算法,具有一定的自主决策能力。在此类算法中,算法会为用户作出决策,即使决策结果与人的明示偏好相悖。家长式算法有意识地更多考虑长期偏好而非短期偏好,更多地考虑理性偏好而非情感驱动偏好。比如,用户想订一份蛋糕外卖作为夜宵,而算法认为他一天的进食热量已经超标,就会及时阻止他购买高热量的夜宵。然,这在多数情况下还要基于用户使用该算法对自己的选择进行的自我约束。比如,对每天进食最高热量的设定。
在人与算法共同进行的决策中,一个极端是所有参数都由人确定,所有符合条件的输出选项都呈现给人,由人来作出选择,即检索过滤算法;另一个极端是家长式算法,人放弃了最终决策权,算法可以依据既定偏好,不管它是基于历史行动偏好形成的,还是由人之前设定的,来否定人的明示偏好。所有算法的意思参与都在这两极之间的标尺上平移,有些界限并非清楚明确。比如在检索过滤算法和排序精选算法中,算法仍然可以通过选择构架(比如选项的数量、选项呈现的方式以及默认选择等方式)来影响用户的选择。再比如,在排序精选算法中,理论上算法应当根据人的偏好,只提供那些最有可能符合人偏好的选项。而事实上,为人提供选项本身也可能只是一种“催眠”手段,为的是在商业上诱导用户作出某些选择。算法的意思参与程度发生第一个非线性改变的要素,是人在决策中仅享有二阶决策权(是与否)。比如,在偏好模拟算法中,算法推荐一个商家的一款巧克力,你可以决定是否购买。但在这种情况下,人依然享有最终决策权。本质改变发生在家长式算法,此时二阶最终决策权由人移转给了算法。
三、算法辅助决策中的行为理性
虽然算法辅助决策相对于人类决策在技术上具有一定优势,但是在意思参与中,它仍然侵蚀着人类的自由选择。当前随着大数据与智能算法等技术的发展,使实体世界越来越多的要素投射到数字世界。在此过程中,实体世界中的每一个人都因为在数字世界的活动,开始或多或少地留下自己的数据影子,从而在数字世界中逐步构造出一个自我画像。从一个角度上说,算法是通过用户画像进行的辅助决策;从另一个角度上说,人已经在数字世界开始形成另一个自我。出于效率、便捷、从众、垄断等多种原因,数字自我在决策中发挥的作用越来越大,人在自觉与不自觉间丧失越来越多的意思能力,算法辅助决策也开始展露其风险一面。但是在技术优势与潜在风险的选择中,在人、社会、算法的博弈里,算法辅助决策对意思自治的作用仍是一个复杂问题。
如果说检索过滤算法能够较好地反映人的明示偏好,那么从排序精选算法开始,越来越多的数据计入参数,越来越复杂的算法设计,使得人越来越无法准确把握自身偏好与算法偏好之间的关系。随着复杂性的提升,这种偏离越来越难以被发现、感知和纠正。总体上说,算法辅助决策可能存在以下几种风险:
其一,算法的复杂性使对其解释与认知越来越难。算法本身就是一种一次建设、多次使用,技术性和专业性都极高的策略机制。一般人对算法的认知极为困难,或成本过高,无人愿为。尽管现在越来越多的学者提倡提高算法的透明度,但是对于一般人来说,即使有对算法的相对充分解释,也极少愿意花时间和精力去了解其内容(比如很少有人会去阅读网络平台的用户协议)。
其二,算法的设计者、运营者具有独立利益需求。算法的效率在于少数人开发,多数人使用。而算法决策的设计者、运营者利用多数用户无法或者不愿去了解算法黑箱中的内容,而掌握了巨大的“权力”。随着算法的复杂化,算法解释和监管都变得越来越困难,甚至无能为力。于是,算法的控制者(不管是设计者还是运营者)都会尝试在用户不知情的条件下,改变、影响、扭曲用户的选择来获得利益或达到目的。这种例子很多,比如,携程的大数据杀熟。
其三,算法偏好会偏离人的偏好。首先,虽然算法辅助决策建立在人的偏好的基础上,但其所体现的人的偏好与人的真实偏好之间仍然存在差别。算法所基于的偏好是客观偏好,即历史行动偏好,其外在形态是数据。而人的偏好既有客观偏好,也有主观偏好。在目前的技术条件下,如果决策不能简化成一个线性模型或确定分支的决策树,并且需要基于多重变量才能进行,那么算法对人的偏好判断的准确率就会下降。其次,算法总在尝试选择最优决策,而人在很多情况下选择的是次优方案,这仍然会被认为最有利于其自身的福祉。最后,深度学习会导致算法自身的偏离。深度学习算法通过训练数据和监督学习对模型进行调整,一旦代码在嵌入过程中出现某些偏离或错误,算法整体的偏离或错误可能会成倍增加。
其四,人的决策能力会受到算法辅助的影响。一是,通过不断地将决策活动让渡给算法,人会缓慢但确定地逐步丧失自我解放、自我创造和自我发展的能力,而丧失这些能力将进一步使人丧失形成新偏好的能力。二是,人在使用算法辅助决策的过程中,越来越多形成的是使用算法决策的偏好或习惯,而一旦脱离算法,人不再具有原初的偏好与习惯。三是,算法黑箱使算法辅助决策条件下产生的人类新偏好更感性而非更理性。因为人并不能或因为成本过高而不愿去了解偏好所基于的算法,这使得形成的偏好更从众,更表面化。
算法辅助决策风险的本质是人越来越不可能掌握决策的依据信息和逻辑方法,也越来越不可能有足够的精力参与到决策过程中去。而在算法辅助决策越来越普及的交易环境中,不借助算法辅助决策的人会越来越处于不利地位。正如智能手机一样,算法辅助系统可能也会成为生活的必需品,甚至数字模型会比智能手机更为重要。
意思自治因其更具效率、体现人的尊严以及可以为人带来幸福感而成为社会制度的基石。现在的问题是:在算法辅助决策融入人们生活的当下,算法参与意思自治是否还具有这些特点?而如果算法参与意思自治确实在三个方面都优于人的意思自治,那如何认识和对待意思自治这个传统命题?
意思自治更具效率是因为每个人比任何其他人都更清楚什么对自己最好。而在算法辅助决策中,在现有技术条件下,算法已经可以在某些领域内“比人更了解他自己”。在现有绝大多数情况下,从有利于用户的角度看,算法辅助决策的结果都优于或等同于用户自己的决策。并且如果假定算法辅助决策的结果与用户的相同,那么算法辅助决策显然总体上更具有效率优势。对消费者选择的研究也表明,人倾向于理性考虑他们面临的重大决策,而经常冲动考虑那些较小的决策。所以,至少在较小决策中使用算法辅助,更具有经济上的合理性。
算法可以带来传统意思自治所不可能带来的数量优势。第一,算法可以通过基础平台(也可以被称为接口)协调买方行为,增加市场上的买方力量。一般来说,买方群体越庞大,交易就越具优势(比如团购与拼单),而单一的个人消费者却不具备这种谈判能力。第二,算法可以通过辅助决策行为本身搜集更多信息,以帮助其后的辅助决策。用户数量越大,越容易形成可以有效帮助后续用户形成更有利偏好的算法。第三,算法在一定数量的基础上可以减少卖方歧视。这是因为一旦用户集聚到一定程度,商家就难以从中区分个体偏好,从而失去根据每个用户的偏好调整定价的能力。事实上,算法运营者已经在利用这一优势。
在算法辅助决策效率的讨论中,有一些负面因素需要考虑:第一,总体上说,在算法辅助应用越多的交易领域,不使用算法的代价一般会更大。这可能会形成垄断,甚至达到不得不选择使用算法的程度,这从根本上破坏了算法选择上的自治。第二,如果人选择算法辅助的原因是总体上更有效率,那么人应当能够评估这一“效率”。但是,人并不总是能意识到算法并不完全服务于他的利益,或者说,人根本不在意这种差异。而算法黑箱,特别是那些深度学习算法以及模块化算法,使人更加难以了解算法的机制,难以区分算法究竟在为谁服务,或者哪些部分在为用户服务,哪些部分在为其他人服务。第三,意识到这种差异在有些情况下也毫无意义,因为改变现状的成本过高。
综上,算法辅助决策的总体效率并非绝对,在不同领域具有不同表现。但在信息相对充分的算法选择自治条件下,算法辅助决策的总体效率应当高于传统手段。在尚未形成垄断的情况下,算法辅助决策的好处还足以弥补算法运营者侵害用户利益的风险等负面因素。
意思自治体现人的尊严是因为选择构成人之所以为人的特殊性。也正因为此,人才会为其选择而承担责任。相对于人的选择,算法偏好是基于对数据的分析。换言之,算法满足人类偏好的方式是模仿人类之前的行为。如果认为,一个人的真正尊严是从短暂情绪、信息不对称和偏见中解放出来,不受欺诈,获得更多利益,那么算法偏好也许是更优或更理性的选择。但如果从人的特殊性这个角度,算法即使是基于用户个人的数据分析得出偏好,也不能替代人的选择。从事实上分析,人的特殊性是重要的,偏好复制偏好会造成偏好“回音室”,从而排除特殊性,甚至出现有害后果。
随着算法在某些领域逐步占据更多决策份额,它会越来越脱离人本身的偏好。当算法的效率越来越高,在某些市场领域,人可能会更加依赖算法。更为重要的是,算法垄断会自我加强,为了更好地模仿用户的偏好,算法会不断地搜集和分析用户数据,而随着数据的积累,算法辅助市场的壁垒逐步形成,新生算法很难再与既有算法进行竞争。尽管传统垄断行为也会导致类似情况的发生,并且反垄断与反不正当竞争法在某些时候可减少这种情况。但是,由于数字世界的市场受地理、主权等的限制较小,用户集中度更高等原因的影响,反垄断与反不正当竞争法无法消除,甚至无法有效控制垄断的发生。
算法辅助决策有损人的尊严,使人在社会层面更相似,而非更具特殊性。这会导致人对算法辅助决策的结果享受更少的成就感与责任感。人的尊严是人更积极行为及为自己行为承担责任的基础,智能革命可能使算法逐步替代人的大脑,现在的一般智力活动(比如翻译与速记等)是否可以在新条件下形成新的责任结构,面临着极大的挑战。
选择可以为人带来幸福感,是因为它带来即时的快感、控制感和正向反馈的满足感。算法辅助决策具有心理优势。其原因有三:其一,它可以降低人决策的繁琐程度。多元选择和复杂的选择可能会降低人的幸福感。而由算法简化的选择,更有助于人体验幸福感。其二,由算法辅助决策节省下的时间,可以用来进行新的选择,不管是工作还是生活。算法“剥夺”人的选择,不为人所厌恶,从理论上可以解释为,定义人之幸福感的不一定是每一个决策都由自己作出,而是自己想要作出的决策,由自己作出。其三,如果算法辅助决策一旦符合人的偏好,就会增进人的幸福感。人们对未来事件对其幸福感影响的判断有时是非常不准确的。而算法辅助决策对一个人数据模型的分析,多数情况下比较有效地解决了这个问题。
人的幸福感可能会在算法参与中得到加强。人产生数据,数据训练算法,算法进行决策,决策产生数据,在这一算法辅助决策“回音室”中,算法不断通过选择构架,引导人进行决策。生活在算法回音室里,人的偏好会自我加强。算法给人的选择留下了大量的余地,从主观感受上选择仍是人作出的,但却包含大量的蒙蔽与误导,从而算法实现了某种程度的控制,这就是自由家长主义。算法时代,人在大量的商家和商品中进行选择,享受着控制感、正反馈。
四、意思自治因应的一个框架
因为算法的复杂性,人越来越多地放弃了意思参与。现实中,为了保护人的选择,存在规制算法意思参与的倾向,我国也加强了对算法的管理。然而,传统规制手段不能避免算法带来的风险,甚至有时其后果仅是增加了用户的成本。
意思自治作为民法的基石其因应包括民事主体反思、主体平等性反思、合同中的缔约与违约结构再造、侵权责任再造等。立法与司法的转变将是一个随着算法辅助决策普及和深入反复探索的过程。在当前阶段,可以为意思自治的因应设立一个思考框架,包括因应的前提、手段、技术与内容等。
随着更多人类行为和决策的数据的上传、积累和分析,算法所基于的数据影子越来越庞大,用户模型也越来越精细。人工智能与大数据分析相结合,使算法能够作出更复杂的选择。算法辅助决策技术变革触及意思自治的核心,即一个人在多大程度上可以自我选择。在有些情况下,人自愿退出决策过程,决策机制是自动的,算法决定决策的结果。这使得算法辅助决策部分偏离“内心意思-表示-法律行为”的法律基本机制。
但是,通常意义上的“人工智能”定性并不能解决问题,并非智能算法参与的意思就应当被认定为人与算法的共同意思。有些算法对意思的形成没有“智能”的贡献,就如同人借助计算机进行辅助决策一样,所以这种算法的意思参与并不能被认为形成了人与算法的共同意思。
算法的意思参与并不总能形成共同意思,算法实质参与的边界也随着技术和社会的发展而不断变化,并且算法与算法运营者在实质参与意思中也有所区分。首先,在现有的技术条件下,大多数用于人类意思自治的理性不会受到算法使用的显著损害。比如,在检索过滤算法中,人受到的影响相对较小,算法参与的程度很低。其次,算法实质参与意思的程度的界限并非清楚明确。最后,即使算法在意思中进行实质参与,也要区分是算法参与意思,还是算法的运营者参与意思。算法辅助本身会形成新的利益主体,即算法运营者。算法黑箱的存在为运营者提供了规避法律和监管的便利,所以会出现利用算法掩盖传统商业行为的情况。
算法的智能性,即实质意思形成的机制,取决于多个方面:其一,意思形成的要素(参数)及其权重有多少由算法确定;其二,算法调用多少数据和算力,是否可以深度学习;其三,算法在多大程度上享有最终决定权。随着算法越发复杂,这一标准可以从反面表达,即在决策中人可以在多大的程度上决定参数及其权重,在多大程度上了解算法的决策机制,并在多大程度上享有最终决定权。
总体上说,算法决策所依赖的数据越多,机制越复杂,需求的算力越大,人的参与可能性就越小,并且人在越来越多的决策中,越希望节省精力,参与也可能越小。所以,要根据社会和技术发展的情况,描绘评价算法意思参与的“智能性”光谱,以便衡量算法的实质意思参与以及所引发的责任。
掌握算法就掌握市场权力,算法优势越来越明显,但对其进行监管却十分困难。监管难有以下几个原因:其一,算法黑箱使解释越来越难,理解成本也越来越高;其二,算法在数据、算法和算力上的优势是监督机关无可比拟的;其三,监管资源稀缺。总之,对于算法来说,其优势是相对于人的,不管他是消费者还是监管者。此外,粗放式监管也不可行。违规认定过严(比如一有新闻报道就认定违法)、概括否定式执法(比如一旦违规就强制下线)等不仅有可能抑制算法创新的动力,更有可能抑制整体上的市场活力。
但是对算法的监管是必须的,否则不但算法本身的风险会逐一显现,还会有很多传统商家以算法为幌子,人为加入恶意操纵。因为算法有独立的利益,很多商业手段本来就是传统商家的操纵手段,比如个人化定价、广告性排名等。如果照顾技术进步和市场发展,而对算法黑箱又无能为力,最终算法只会成为垄断与不正当竞争的最好保护伞。
算法本身就是监管的最好工具。因为算法比人具有更有效地分析信息的能力,比如,它具备更好地发现误导性信息或不公平合同条款的潜在能力。算法辅助决策本身可能就是监管者与消费者等自我保护的最优选择。从短期看,监管机关及消费者等在算法上的投入没有动力,但随着算法主体的优势越来越明显,比如,大数据杀熟,利用算法与之进行对抗的需求也会随之出现并加强。比如,现在就有很多比价算法。今后国内也会出现算法影响评估、用户协议审查等算法应用等,监管或保护算法会逐步发展起来。
传统的法律行为主体是作出行为的人,不管是自然人还是法人或其他组织。但在算法辅助决策的情况下,行为主体既包括传统的行为主体,还有可能包括辅助的算法。是否可以包含算法与算法在意思中的参与程度有关,检索过滤算法、排序精选算法、偏好模拟算法和家长式算法各有不同。这也与算法本身的智能程度有关,简单检索过滤算法不但算法意思参与程度低,其算法智能程度也因其参与的数据、算法和算力有限而无法与行为人并论。而家长式算法则在很大程度上影响人的最终决策,更因其决策的复杂度要求算法必须基于更大的数据(不限于单一用户),运用更强的算力,从而形成更科学有效的决策机制。
如果意思是由人与算法共同作出,那么责任也应当由两者承担。关于算法如何承担责任,有人认为算法应当具有独立人格,独立承担责任。但在现阶段,对算法赋予独立人格会不当地减轻算法设计者、运营者和用户的责任,模糊算法和人之间的界限。加之,现阶段的技术条件尚不支持普遍的人工智能运用,大部分算法还必须有大量的人工参与。所以,算法的责任主体目前还应当认为是算法的运营者。之所以责任主体不是算法的设计者,是因为随着算法的成熟与发展,越来越多的算法设计者不再是运营者,算法的运营者可以通过购买算法模块与服务等方式实现自己的技术目标,区分算法的设计者与运营者具有规范上的必要。
算法辅助决策的归责情形,一种观点是由算法承担严格责任。如果算法的运营者没有充分告知用户使用算法的相关风险,或算法存在缺陷,责任应由算法运营者承担。否则,责任由用户承担。本质上这一责任未能有效监管算法产生的严格责任。严格责任原则事实上是在算法运营者和用户之间选择责任的承担方。相对于用户而言,算法运营者更具有控制风险的优势。即使用户意识到算法可能会造成潜在风险,他也很难判断风险发生的实际条件。此外,算法运营者借助算法形成了超出一般主体的意思能力,就此也应当承担超出一般责任主体的责任。现代法律在一般平等保护的原则下发展出一系列弱势保护的规则,比如,劳动关系中对劳动者的保护、格式合同对合同接受者的保护、反垄断中对垄断者的限制、消费者权益的保护等,这种通过严格责任实现的责任分配上的倾向性也体现了这一点。
但是,严格责任也存在不足。其一,它会抑制算法运营者的创新性和开拓力。其二,用户有时也会有主观的过错。用户不理解算法不能简单地等同于放任算法可能导致的风险,更不能像驾驶汽车一样,因为其本身的高度危险性,而适用严格责任。用户过错或过失的主观状态应当是其明显意识到算法的风险,却没有阻止。其三,风险发生的因素不必然由用户控制,也不必然由算法运营者控制,可能会随着时间和情况的改变而改变。其四,严格责任还可能会抑制算法运营者将算法控制权外交的动力。这样用户就更难对智能机器人进行人性化改变,这在控制一定风险的同时,也会限制多种发展的可能性。
在算法越来越普及的情况下,应当制定一套规则来衡量用户的主观状态。规则应当包含一般用户对算法的使用经验(而非认识程度)、用户是否是在以一般人的方式使用算法、算法的用户接口有无反映出不正常的状态,足以使用户意识到风险的存在等。在此基础上,可以更精细地划分算法运营者与用户之间的责任,而非一味地适用严格责任。
往期精彩回顾
《东方法学》2022年第1期目录
上海市法学会官网
http://www.sls.org.cn