“湖心岛”隐喻:人工智能时代的算法伦理入侵
作者简介
柳亦博,行政学博士、博士后,山东师范大学公共管理学院讲师,从事行政哲学、国家治理研究。
人类正在将包括自身在内的一切事物数字化并纳入互联网,这是一个海量信息的生产过程,也是一个公共决策逐渐由人工智能(AI)接手的过程。今天,算法已经实现了自我生产,这使得AI能够广泛介入政治、商业、金融、医疗、交通、文化等多个领域并展现出超越性的预测精度和发展潜力。在可预见的未来,AI将从目前的狭义空间突破,“智能爆炸”[所谓“智能爆炸”是英国数学家欧文·古德在1965年提出的理论,他指的是机器无需人类的干预,自行设计和优化下一代智能机器。现在,这一过程可以通过探索-利用困境并能够提高自身适应度的“演化算法”来实现。(Intelligence explosion)将推动着人类迈入通用智能时代。这种进步要归功于算法赋予机器的学习能力,机器学习能够通过自我训练来主动优化算法,从而更高效的归类和抓取数据并形成一系列用以指导决策的价值排序。我们称这套人造智慧体所使用的自生价值排序规则为“算法伦理”,它是AI基于大数据的自我学习和优化的结果。“算法伦理”不是一般意义上的“机器伦理”,后者是被人设计出来预置在机器中的符合人类普遍伦理原则的程序(如自动取款机在用户多次错输密码后会暂时冻结银行卡)或装置(如手枪扳机上的保险),旨在预防和解决特定的道德困境;算法伦理则是机器学习自主形成的规则,它基于却未必服膺于人类伦理。仅从AI给出的最终建议来看,多数人无法理解它的决策理由,甚至连算法工程师也极有可能无法洞悉演化算法(evolutionary algorithm)和迁移学习(transfer learning)的“黑箱”,对算法伦理作出清晰地解释。然而,即便算法伦理令人费解,但并不妨碍现实中越来越多的人皈依它。因为,遵从传统道德时常意味着个体福祉的损失,但听从算法伦理的安排却将帮助个体获得看似更长期、更稳定的收益。如果我们将人类世界视为一个孤悬的“湖心岛”,迄今为止岛上孕育的所有伦理已经形成了一个完整的生态链,那么算法伦理极有可能成为一个切断生态链的外来生物。这个“入侵者”是如此危险而强大,以至于它将从本体论和认识论的双重意义上改变人看待自身存在的方式。政府应如何面对这样的未来图景,正是本文的核心关切。
一、湖心岛上的“入侵者”
如果人们在决策时,个人福祉并不是唯一需要考量的要素,那么“湖心岛”上现存的伦理能否抵御算法伦理的入侵呢?要回答这个问题,首先我们需要省思一下人类伦理的特征,以及让机器作出伦理决策的条件。人类的伦理世界存在一种“钟摆现象”,即一种伦理观会受到另一种几乎同样强力但相反的伦理观制约(如相对主义与绝对主义、效用论与义务论、德性论与契约论、决定论与自由意志论、利己主义与利他主义),它们在不同的时空趋避进退、起起伏伏,找寻对手弱点的同时修补自身缺陷,总体上呈现出一种纠缠-均衡的演进状态。尽管一直以来没有任何一方能够彻底击倒宿敌,但是它们各自的理论内核却因此变得更加稳定,一同构筑了现代伦理学多元价值的基石。不过,这个持续的纠缠-均衡态极有可能被打破,因为算法伦理戴着一副价值中立的“公正面具”,在大数据的帮助下,AI的预测精度越来越高,决策建议越来越私人化,其社会整体层面的“功利主义”(utilitarianism)伦理观(福祉加总的最大化)和个体层面的“精准歧视”(针对某个人而非某一群体的歧视)越来越隐蔽,但它带来的个人福祉提升(如节省大量的搜寻成本)却实实在在的显现了出来。
人们寄希望于“直觉主义伦理”可以守住人类伦理最后的阵地。因为,若道德是可以推理出来的,那么道德机器是可能的且它能够比人更快速地进行决策,同时它也隐含着这样一种陈旧的、磨损了的伦理观——道德是命令的结果,它是“被发明的”而不是“被发现的”。若道德不是推理出来的而是“自明的”,它只能靠人的直觉加以认识,那么在现行的智能发展方向上,机器无法自主进行道德决策。人们笃信机器不可能产生自由意志,即无法拥有理性反思能力的自主性和创造性的自我意识,所以机器不会具有直觉,也无法自主进行道德选择。即便AI能够作出符合伦理的决策,也是由于工程师预先写入了伦理规则或者机器以人的道德行为为范本进行的模仿。在理性高歌猛进了三个世纪后的今天,依靠“直觉”似乎听起来有些与现代性脱节。但事实上,直觉一直以来都是分析哲学的一大研究主题,在面对复杂紧迫的伦理两难问题时诉诸直觉是人类惯用的决策原则。当然,直觉也会陷入混乱,有时两种相反的选择在直觉上都是正确的,尤其是在“义务”与“自利”发生严重冲突而我们又不得不进行取舍的时候——这个问题在规范伦理学奠基人之一西季威克看来是“伦理学中最深刻的问题”。若我们必须在“自己的义务”与“更有利于自己”二者之间做出选择,那这个选择意味着人们认为“放弃其中一种行动在道德上更加不当”,它蕴含着我们最有理由以何种方式来行动,以及我是否期待生活在这样一个人人都如是行动的世界中的道德判断。但是不论如何选择,它都必须包含着人类的严肃思考,而不能以机器的计算来代替人的思考,即便机器的选择符合人类伦理,也不能以此成就“惰怠”与“不思”。
将“直觉”视为人超越机器的最后底牌意味着我们承认这样一个事实:存在着话语无法明确指涉的客观价值,即我们也许无法用语言表达出某件事错误的明确理由,但依然能感觉到这样做不对。然而,随着生命科学对人脑的理解不断深入,我们逐渐发现直觉主义伦理其实可以被视为一种由神经网络和各种激素促发的“生物算法”。直觉不是天然的存在于我们内心的道德律令,它并非什么自在的自明之物,而是一种由进化和繁衍压力镌刻在基因中的本能。既然是本能,也就无善恶之分。而且,直觉主义与语言的不洽给它带来了很强的自反性:一般来说,直觉作为人类无法言说的经验,因其难以用语言清晰指称才被人类描述为某种下意识。但是人类清晰的自我意识就发生在语言之中,只有语言是万能和通用的映射所有行为的形式,因而语言像货币一样是一般等价物,语言的界限就等于思想的界限。如果在直觉领域语言是苍白无力的,那么思想也无所依凭,又如何能以直觉主义伦理去抵御算法伦理呢?
作为计算机伦理学奠基人之一,穆尔对人工智能体能够成为一种伦理智能体(AMAs)持乐观的态度。穆尔将伦理智能体划分为四类:最底层的是“伦理效果”智能体,所有可以从其伦理效果上进行评估的机器都属于此,比如在卡塔尔用机器人代替人类小孩扮演比较危险的骆驼骑师角色;下一层是“隐含式伦理”智能体,这类机器的设计者在设计过程中倾尽人类智慧致力于提高其安全性和可靠性,避免负面的伦理影响;第三层是“显现式伦理”智能体,这类机器通过将伦理范畴作为内置程序进行伦理问题的推理,依靠用来代表责任和义务的“道义逻辑”或其他技术来实现;最高的一层是“完备伦理”智能体,它们可以做出清晰的道德判断,在一般情况下完全能够自主决策。不过从本体论角度来看,“伦理效果”和“隐含式伦理”都是可以通过人类的设计或预置某些规则来实现的,“显现式伦理”则是机器通过学习海量的文本,借助诸如“若-则”(if-then)规则进行道德推理来实现的,而“完备伦理”其实并不是由这三者中的任何一种进化或扩展而来的,它完全是人工道德体在另一条道路上发展的结果,而非计算科学的产物。对此穆尔也承认,虽然制造显现式伦理智能体存在艰难的挑战,但这应该成为机器伦理学这一新兴领域的目标。我们所指称的人工智能体与人工道德体,其实完全是两种智能范式发展下的产物,前者已经初步成形,而后者在现有技术路径下几乎无望问世。但是,如何让人工智能体具备“道德的要件”始终是科学必须予以回应的问题。若道德不是靠推理形成的,那么一个具备伦理能力的AI需要侦测并理解某一行为可能的伤害或对责任的疏失,并能够采取措施避免(至少是减低)那些伤害。一个自主系统要使伤害最小化,必须“知道”其行为可能的有害后果,并且必须根据其“知识”去选择行动,即使“知道”、“知识”这些术语只是在隐喻意义上用于机器。过去我们认为,没有自由意识的机器无法真正“知道”什么,不过,即便机器不知道某项决策的后果,它也可以借助对大量人类近似决策的学习来给出行动建议。最近,算法工程师们在使用神经网络方法理解人类文本中的词性标注、命名实体识别、句法分析和共指消解等方面取得了令人瞩目的突破,机器的阅读正在由逐句拆分走向通篇阅读。也就是说,计算机科学帮助AI在解决自然语言理解问题上一步步接近答案,并且,机器与人不同之处就在于它不会从文本中发展出两种相左的伦理彼此制衡。与此同时,生命科学却在不断解构人类的意识本质,让人类以所谓“自由意志”凌驾于万物之上的合法性变得越来越孱弱,渐渐无法盖住算法伦理日益高亢的声量。
一旦算法伦理在人类世界降临,将与一种外来生物入侵到相对隔离的生态环境中非常相近,在这个没有天敌的人类文明孤岛上,算法伦理将呈指数级增长。指数级增长的特征在于增长前期是一个相对缓慢的、具有迷惑性上升阶段,仿佛这种增长非常温和,不会造成什么威胁。但是,指数级增长同时也意味着在突破某一个阈值之后将出现爆发性增长,往往让人猝不及防。所以,在湖心岛上发生的可能是如下情景:人工智能基于计算逻辑和功利主义生成一种算法伦理,这种伦理可能在过去很长一段时期内都未能占领多少领域,在社会中只是一个被少数群体奉行的“高效但自私”的边缘伦理观。然而,一旦算法伦理的增长到达了某个节点,就会以势不可挡的态势在极短的时间内成为社会的主流伦理,成为使“伦理钟摆”戛然停下的一个楔子。众所周知,效率仅是社会应当追求的众多价值中的一种。公共管理中有一个持续了长达半个世纪的“沃尔多与西蒙之争”,其争议的一个焦点就是行政效率是不是价值中立的问题。沃尔多认为效率并不是行政的最重要的一个价值,政府的行动并不是仅在效率这一个维度上展开的,维持一种合意的公共伦理是它执政的合法性支柱之一。那么,在人工智能参与甚至很大程度上主导公共决策的时代,公共行政必须超越效率维度,给予算法一种价值框架的约束,使算法伦理与人类伦理能够至少站立在同一块基石上,无论这个基石是“正义”、“自由”、“平等”或其他的底线价值。对此,贝尔贝里希给出的答案是通过模拟学习人类道德范例,将人工智能的算法伦理与传统人类道德(如亚里士多德式伦理)结合起来,从而解决人工智能的价值校准难题(value alignment problem)。换言之,他的主张是让“湖心岛”上的其他生物尝试着与算法伦理这个外来物种交配,看看是否存在打破生殖隔离的可能。贝尔贝里希提出这种方案的逻辑基础在于算法不像人类一样有着对自我完善的无尽渴望,但是我们知道最初的算法是由工程师完成的,随后的机器学习范例也均是来自人类的道德文本,没有任何理由相信算法不具备自我改良的动机。
二、正义即最大期望?
人类文明的连续性有赖于对两种传统的继承:对文本的继承和对逻辑的继承。具体来说,继承文本能够帮助人们使用同一套概念体系进行对话,不至于出现鸡同鸭讲的窘境或者反复在原地打转;继承逻辑则有助于人们简化世界的复杂性,有效地规避风险。然而,在信息社会,我们对上面两个传统的继承遇到了某些挑战:因为机器学习的对象是人类的文本,所以算法继承了人类的概念系统,同时它抛弃了人类的逻辑体系,并由此反过来影响甚至颠覆了人类的传统,导致我们长期以来形成的行动逻辑(以及伦理)正在逐渐消隐。取而代之的则是一种基于算法的逻辑与伦理。从本质上看,算法是依靠统计学进行自我表达的,它的逻辑是功利主义,为了实现提高多数人的福祉,少数人被认为是可牺牲的。我们说AI的出现又激活了政治哲学、伦理学与行政学中许多沉寂半个世纪以上的理论,正是因为算法伦理对人类自由的一种无形控制导致了社会中人的“身份”与“义务”的不对称性,像一块巨石投入静谧的湖水中。从目前的发展趋势来看,算法伦理侵入公共生活并成为主流伦理将成为一个无可避免的事实,我们要避免AI用一种隐蔽的形式去促逼甚至奴役人类这种最糟糕的情况发生,人们首先想到的就是植入元伦理规则来规约算法。
但是,诸如阿西莫夫第一定律(要求机器不能杀戮或伤害人类)这种元规则能够及时矫正AI作出的有违伦理的决策吗?从理论和实践上两方面看,答案都是否定的。在理论层面,只要赋予了机器学习的能力,就意味着AI能够根据环境反馈对规则(包括元规则)进行持续调整,那么修改规则和插入零号定律都是可能的。所以,借助机器学习改进AI决策质量的代价就是它变得越来越难以控制。从实践来看,利用所谓预防原则,是不可能事先制止反伦理决策出现的,因为“红皇后假说”(The Red Queen hypothesis)的存在将导致使用伦理规则约束AI的国家陷入被淘汰的境地。只要一国率先进行了伦理松绑,以求研发自动开火的无人机,那么其他国家也不会拒绝这项技术,所有人都明白一个带着伦理锁链的AI绝无可能战胜一个身无束缚随时自主开火的AI。人类的战争伦理以保存生命为第一义,战争的终极目的在于止杀,但对于自动开火的机器而言,在达成目标之前不会止杀,即便在面对难以界定的试图投降的敌人时、有可能造成平民伤亡的附带损害时、开火会误伤友军时也会毫不犹豫地行动。
人类是一种具备行为惯性的动物,人脑的思维模式在面对高度复杂且时间紧迫的问题时倾向于使用的一种简化问题的思考方式。这种方式不因对象掌握知识量的多寡而改变,因为它是人类大脑共有的认知方法。比如,在急诊室里,受过良好教育的医生们在面对生死攸关的紧急情况时,由于可能出现多脏器同时衰竭的情况,没有任何一位主治医生可以完全掌握这么复杂的知识,所以医护人员们干脆听从人工智能的建议,现代很多医生已经习惯于不仅仅参考,而是直接在重症监护病房中采用诸如APACHE这类人工智能给出的治疗方案。一旦算法伦理成为了社会主流价值观,人将会变成什么?人停下了认识自身,交给了算法去认识我们,那么如果算法将人引向恶的彼岸,究竟由谁来承担这个错误的后果?无疑,被算法摆置的人是失去了自由的人,此时责任与伦理这个对称的结构也即被打破,也许我们找不到为恶行负责的主体,但是恶的成本却实实在在地加诸到社会身上,不会因为找不到惩戒对象而减轻分毫。
事实上,相对于算法伦理而言,仅对算法本身进行设计和修改是简单的,因为算法伦理具有更强的惰性,一旦形成就很难通过调整参数等方式去轻易修正。而且,算法伦理的兴盛将塑造一个机械性的、冰冷的社会,让生活在其中的人渐渐变成“非人”。我们可以通过下面的思想实验加以说明:煤矿发生了坍塌导致100名矿工被困,更糟糕的是,有毒气体正在坑道内迅速蔓延。在地表的营救小队通过无线电与被困人员取得了联系,已知所有工人都在一个井道中,矿井内有两个仍可工作的闸门,但是我们不知道矿工们究竟在两个井道中的哪一个。如果关闭闸门1,那么井道A将不会被毒气侵入,不久后全员可获救;同样的,若关闭闸门2则井道B不会被毒气侵入,不久后也可全员获救;如果同时关闭两道闸门,虽然毒气不会侵入,但在没有食物与水源的情况下,多数矿工将支撑不到救援人员挖通井道,90人会死于饥渴。基于现有的资料来看,矿工们在井道A和井道B的概率是一样的,无论关闭闸门1还是闸门2,都有一半机会救下所有人(即两种选择救下生命的期望值都是0.5),而同时关掉两扇闸门则意味着宣布了90名工人的死刑(即救下生命的期望值为0.1)。对于人类决策者而言,同时关闭两道闸门是首先被排除的,剩下的则是一次需要运气的对赌。从一种康德式(Kantian)的伦理观来看,即便赌错也不应多加苛责,因为行动的可责备性不取决于运气。面对同样的情境,AI会给出不同的方案,它的决策目标在于救援行动能够救下最大期望值的生命,那么它会立刻关闭两道闸门,然后让100名工人吃掉先死掉的工友尸体,支撑到救援人员到来,这样大约可以救下80人。AI通过建议矿工们同类相食,获得了拯救生命期望值最大的选择。
AI的决策遵守的是一种可被定义为“期望主义”的规则,即当某个选择的正当性取决于这个选择的效果或可能效果的善性时,那么应当做或努力做的事情是结果在期望上最好的那个。我们称某个行动是“在期望上最好的”(expectably-best),所指的并不是我们期望这个行动产生最好的结果,而是要综合考虑不同行动之结果的善性如何,以及我们在既定信念和现有证据下,这些行动具有这些效果的概率。然而,AI的决策总是倾向于仅仅“期望值最大”的那个选项。那么,这样选择有何不当吗?在这个思想实验中要证伪“正义即最大期望”从而说明人工智能的决策是不符合基本伦理的,就必须要回答“为什么AI作出的决策期望值最高但依旧是最可责备的”?我们依旧沿用帕菲特的道德分析框架,将道德上的可责备性划分为“事实相对”、“信念相对”和“证据相对”三个层面,只有在这三个意义上都不具有可责备性才能称某一行动为道德的。例如,用“针扎布偶”的方式诅咒别人是不道德的,因为虽然这样做并无实际伤害,但它在“信念相对”的层面上可责备;又如,护士做“心肺复苏”时不慎压断病患肋骨致其死亡是不道德的,虽然护士的初衷是为了救人且通常这样救治病患符合常规操作流程,但在“事实相对”的意义上这一行为可责备;再如,南方科技郝建奎的基因编辑是不道德的,因为他明知有更成熟、更安全的方式却不使用,为了个人名声而罔顾潜在的巨大基因风险,因此这一行为在“证据相对”和“信念相对”上都是可责备的。根据帕菲特的道德可责备性分析框架,可知救援队关闭闸门1或闸门2在“信念相对”的意义上不可责备,因为人们这样做的初衷是拯救所有矿工,在“证据相对”与“事实相对”的意义上也不可责备,因为证据显示关闭闸门后救人或害人的概率对等,而行动的可责备性不能(完全)取决于运气,因而关闭闸门1或闸门2在很大程度上不具道德可责备性。但是,如果救援队同时关闭两扇闸门,则意味着在“事实相对”和“证据相对”的意义上充分可责备,且在“信念相对”的意义上也具有很大的可责备性,因为这种决策在最初就已经决定了至少牺牲十分之九的矿工。所以,对于人类救援队而言,同时关闭闸门1和2是最具可责备性的行为。到此为止,我们的道德分析还是满足“正义即最大期望”原则,但是一切在AI进场后就改变了。
AI提供了一个救人期望值最大的方案,同时关闭闸门1和2,然后让矿工依靠吃掉同伴尸体来维生。首先,在“证据相对”的意义上,AI给出的救援方案并不具备可责备性,毕竟这样做虽然没有机会在“拯救全部矿工”的意义上做正当的事,但显然这是期望最大的应做之事,而且这个方案所能拯救的生命期望值(0.8)远超排名第二的方案(0.5)。然而,救援行动的目标不只在于拯救的生命数目,还在于这次行动向整个社会所传递出的价值观念,因此关于矿工们该如何选择牺牲者、那些依靠同类相食的方式存活下来的生命在何种意义上还能被称之为“人”,以及究竟是“拯救10个人”还是“拯救80个冷血动物”之间如何选择,这些都是与拯救更多生命同等重要的问题。基于此,AI的救援方案在“事实相对”的意义上无疑是道德可责备的。最后,在“信念相对”的意义上,在救援方案中预置了“同类相食”的必需环节,而不是当矿工们在走投无路的绝境中迫不得已而想出的求生之道。在伦理上,这无疑比“洞穴奇案”中四名被困的探险者们杀死罗杰·威特莫尔并吃掉其尸身以求生的行为更加不当。它向所有人清晰的传递了一种机械的、功利主义的计算伦理,为了多数人可以牺牲少数人,为了实现救援行动最终结果的期望值最大化,人跟其他可调用的资源一样是工具,最终拯救生命的数字才是目的。诚如伊格尔顿所言:“在某些情形下,人不可能全身而退。只要情况足够极端,每一种道德原则都将在接缝处解体”。对于人类而言,也许极端的情境会使所有的伦理规则都面临崩解,但算法伦理则无此虞,算法稳定地追求着“最大期望”。在向社会传递道德价值的意义上,人类普遍能够接受“并不是只有结果才是值得追求的”这一观点,因为有些行动本身即便未能达成好的结果也依然具有教化社会的道德价值,但算法关注的是结果而非过程,这也是学者们担忧AI技术将带来伦理危机的三大原因(主体性、自我同一性、功利主义)之一。
如果必须有人牺牲才能拯救集体,那么在被困的矿工中,无人有权让他人去做普罗米修斯,因而至少要找到一种大家认同的选择20名牺牲者的方式。在不得不这样做的前提下,这20名作为“食物”的矿工应该如何产生将受到诸多复杂条件的影响,有些会左右人类的最终选择。比如,(a)若这20名矿工是经过随机抽签产生的,且全体矿工都事先认同了这种随机选择的方式,那么存活下来的80人在道德上具有更弱的可责备性吗?(b)若这20人是经过一番残酷的相互杀戮后率先死亡的,那么靠着他们的血肉活下来的80人在道德上更值得被责备吗?(c)若在这场杀戮中,怀特杀死了约翰,而约翰恰好是第20个死亡的矿工,理论上来说不需要再死人了,但约翰的弟弟杰克要为哥哥报仇,他让怀特成为了第21具尸体,那么约翰是否比其他78名矿工更不道德?(d)若矿工们商定所有人放弃暴力,等待前20个体弱的人自然死亡,再食用他们的尸体,这样做会更为社会所接受吗?(e)若有10个矿工不是因体弱率先死亡的,而是主动提出为了集体自愿牺牲,那么这10名义士难道不是更值得被优先拯救的人吗?(f)若矿工们通过电话联络外界,表达了希望公众在充分了解他们每个人的处境与背景之后进行全民公投,得票最少的20人成为牺牲者,那么剩下的80人是否是道德可责备的?
以上这些问题其实都是在原情境中插入或调整了一两个变量,但是却会极大的干扰甚至颠覆人的道德判断,然而算法伦理几乎不会受到上述条件的干扰或打断,因为从本质上看,算法伦理不会仇恨或同情某个人,它只是严格遵循规则功利主义而已。在一个数据用之不竭的时代,每个人时间的有限性就被放大了,为了帮助人们摆脱“挑剔的相亲者”问题困扰(即数学上的最优停止难题),算法在自我演化的方向上就只能朝着“效率”这个维度前行。高效的算法必然是基于统计学的,统计学服从数学逻辑,而世界上只有一种数学逻辑,算法工程师们是无法在算法中插入一套自创的“数学规则”的。稳定的基于数学逻辑的算法只可能是功利主义的,它会产生一种自己独特的因果论,即认为假如事件A发生,那么不是事件B,便是事件C或D必然接着发生。其中,发生事件B、C、D的概率则可以用统计学的方法进行计算。即使在事件A之后发生事件B的概率远比发生事件D的概率高很多,事件A的发生也无法排除事件D发生的可能性,因而机器在选择的时候才会对行动的“期望值”进行比较。但是,机器的这种因果论会对目前人类的道德、责任和自由观点造成冲击,当我们判断某个行动是否具有可责备性时,最主要的判断标准就是这个行动在道德信念相对的(而不是在行动结果的)意义上是否正当。一个人很有可能隐隐感到自己的道德信念存在某种偏差,但是他依然无法做去真正正当的事,正如他无法做一个完全理性的人,他只能去做在当时自己相信是正当的行动。
价值一元论认为表面上林林总总的价值在本质上是一致的或者统一的,算法伦理无疑是典型的一元论,在算法世界的判断体系中,就是通过赋值和添加标签完成的多元价值的归一,所归的“一”即数学逻辑。然而对于公共领域的决策者来说,人类价值体系中始终存在着许多相互独立、不可公度的终极价值,我们无法为多个终极价值作统一的优先性排序,因而当它们相互冲突时,人类就不可避免地陷入伦理两难,不得不“为着一些终极价值而牺牲另一些终极价值的需要”。这是人深刻的悲剧性所在,同时也是算法伦理比人类伦理反应更迅捷的主要原因,人工智能从不会陷入进退维谷的痛苦纠结,它在规则不够清晰的领域会基于数理逻辑主动创造规则以求得“最优解”,只不过这个“最优”未必是“最善”。从本质上讲,探讨伦理学的目的在于对何为正确行为作出判断,并给出这一判断所蕴含的关于人的品格或行为之道德与否的合理解释。对于人而言,在复杂的、两难的情况下快速作出道德判断是困难的,在各种情形下做何事正当是很难简单回答的问题。不过,一旦人类形成了自己的道德判断,再要让他解释这种判断的理由则相对容易得多。算法伦理恰恰与之相反,AI能很快作出道德判断,但要解释这种判断具备充分的伦理学依据则是困难的,尤其是对它的判断作出功利主义之外的辩护异常困难。即是说,人类的决策虽然伦理学基础更坚实,但对于复杂紧急的情况而言太过迟滞,算法伦理虽然决策迅捷但只满足效应主义伦理观。那么,最好的办法似乎就是结合两者的优长,由算法批量决策并归类,由人来负责事前审核和事后解释。这其中,最关键同时也最困难的无疑就是“审核”环节,它需要审核者能够在普遍意义上对何事更重要作出的价值排序。也就是说,在人类社会的道德体系中,伦理是有客观价值存在的,确实有些事情比其他事情更重要。
摆在公共部门面前的紧迫任务是在“湖心岛”上扎起两重围栏,第一重围栏旨在保护传统伦理,通过立法和监管等多种手段为人类伦理建立“保护区”;第二重围栏则是针对算法的,要在制度上限制赋予算法以一种“人的形象”出现。我们逐一进行解释这两重围栏的意义,首先看第一重围栏。通过前文论述我们知道,虽然短期内人类的伦理无法对抗算法伦理,但这并不是人类放弃希望的理由,人如果跟AI比计算能力和决策效率,那么很快就会被机器全面替代,进而导致现行法律与政策大规模修订,但人的优势在于抽象而非计算。因此,要使人在智能时代活得有意义,就必须保持人类社群充足的价值多样性,通过建立“伦理保护区”来为人类伦理的演化保留火种,而不是任由它们在与算法伦理的对抗中消亡。只有存活下来,才有可能在未来继续寻求与算法伦理能够共在共生而非彼此掣肘的可能。在此期间,我们需要等待算法伦理通过自我迭代,表现出某些能够与人类伦理相互结合的“特征”。当前,令AI发展出伦理特征的多数障碍其实来自人类伦理本身。比如,规范伦理学始终在苦寻“哪种规范是正确的”答案未果,反而在近代出现了元伦理学的不可知论的倾向,一些终极的价值在伦理上发生了分叉,这种分叉会导致机器在学习涉及规范伦理学的大量文本时陷入迷惘。我们需要通过调整算法学习的文本和实践案例,有意识的训练它成为具备伦理特征的机器,并将解锁伦理保护区“围栏”的密钥定义为四个基础性原则——“不伤害原则”、“行善原则”、“正义原则”和“自决原则”——只有当算法伦理同时拥有了这四把钥匙,才能向人类申请打开第一重围栏。
其次,我们来解释第二重围栏的意义。这个问题可以转变为:如果将算法放入一个人类外形的壳中,与它仅仅维持一个网络世界的虚体形象有何本质上的不同?事实上,一旦人工智能拥有了人形外观,它就从一个主体性的隐匿状态跃升为实在状态,它成为了具体的“人”,社会投射在其身上的诸种情感也就有了明确的指称和寄托。因此我们主张,不要让人工智能以一个具体的“人”的形象出现。从认知科学的角度来看,外形对人类的认知和理解一直具有极大的潜在影响,这也是为什么近年来业余的射击爱好者俱乐部不再适用“人形靶标”练习而是改用“环形靶标”,我们不希望射击爱好者在潜意识中认为他在瞄准一个“人”。因而,以机器人的形态出现的AI,可以被视为AI和人造生命(Artificial Life)分离的标志性事件,人们对待它既不像对待人一样,也无法像对待机器,因为这是一个会从自身经历中汲取新知的机器,而且我们几乎不能保证它是否学到了我们想让它学习的东西。泰格马克在《生命3.0》一书中总结了AI获得主体性之后可能带来的12种后果,包括:自由主义乌托邦、善意的独裁者、平等主义乌托邦、看门人、守护神、被奴役的神、征服者、后裔、动物园管理员、1984、逆转、自我毁灭。尽管泰格马克尽力向我们展示充满一个可能性的未来,但事实上,AI在未来所扮演的角色无非“士兵、伴侣、奴隶或神祗”四种,角色身份决定道德义务,这四种角色中的前三种是将AI视为欲望的出口而非合作的伙伴,最后一种角色则是算法伦理成为社会主流伦理并掌控了每个人的生活之后的必然。一旦算法伦理化身为一种宗教性道德符号,人类将陷入海德格尔曾警告过的“现代技术摆置人类命运”的境况中,在“技术陷架”的促逼和掌控下,人成为了提线木偶。因此,我们必须谨慎对待AI的主体性问题,不要急于赋予算法以“人形”或“人性”。毕竟,“人形”会令人对它另眼相看,而“人性”的贪婪则是真正危险的东西。让机器选出最经济的方案只需要给它数据与算法,而让机器心生怜悯、尊重或恐惧,则需要我们在完全不同的道路上摸索。在没有理解其本质之前,应该让算法停留在作为一种解蔽方式的现代技术的意义上,而非无节制的追逐它的所有应用可能。
责任编辑:温雨欣 一审:陈鑫 二审:王峥
文章来源:《行政论坛》2019年第6期
相关阅读: