查看原文
其他

No.1576 郭锐 | 人工智能与“不合时宜”的伦理学

郭锐 三会学坊 2020-10-07

毋庸置疑,在商业公司竞相投资、科技人士争先恐后、世界各国不甘人后的语境中,提出能够指引当前的人工智能技术的伦理准则,绝非易事。正因如此,人工智能的伦理和治理问题将成为二十一世纪包括哲学、政治、社会学、法学等学科领域的重大议题。


相关阅读:

No.1562 郭锐 | 人工智能伦理的终极困境



 | 郭锐

中国人民大学法学院



“蚂蚁在开会,它们决定要为人类制定伦理准则。”

                                            ——一个笑话


过去五年里,众多的国家、民间机构、智库、商业公司纷纷提出人工智能伦理准则。这些伦理准则并不一致,但内容大同小异。面对这些纷至沓来的伦理准则,观察者要问的第一个问题恐怕就是:这些伦理准则到底有什么意义?盖茨、马斯克、霍金等科技界知名人物曾警告,人工智能的发展将把人类带向一条危险的不归路。不少人预测,通过技术的不断发展,人工智能可以比世界上最聪明、最有天赋的人还聪明(超级智能)。超级智能将在所有领域中都达到远超过人类认知的现有水平。若真如此,这些机构提出的人工智能伦理准则又有什么用?难道能靠它们逆转人类命运?


Max Tegmark


麻省理工学院的泰格马克教授在《生命3.0》书中用了一个比喻:一旦人工智能比人类智能更为强大,那么人的地位就沦落到和蚂蚁差不多:没有人憎恨蚂蚁、必欲除之而后快,但人还是会无意中踩死蚂蚁。这个比喻并不让人乐观。泰格马克是人工智能伦理准则的积极支持者,他认为恰恰是因为人工智能将会越来越“智慧”和“强大”,才需要我们现在就行动起来,制定伦理准则来保障人工智能的目标与人类自身目标相统一。但是,就算我们有了形形色色的人工智能伦理准则,超级智能真的会遵守它吗?我们今天制定的伦理准则之于超级智能,岂不正像蚂蚁为人制定的伦理准则?


关于伦理准则的思考远不止在技术未来的想象之中,人们对伦理准则更迫切的需求是针对现有人工智能的诸多应用。时下的中国,人工智能已经在电子商务、自动驾驶、金融风控中广泛应用,在公共行政和司法等领域中也被人们寄予厚望。可以肯定的是,人工智能目前已经在辅助人们作出决策。比如,电子商务平台依靠人工智能给出用户画像,并据此进行个性化的商品和服务推荐;金融领域用人工智能来计算和衡量风险;警察利用人工智能来对犯罪进行预测和警力重点部署;很多工作开始依靠人工智能自动完成,甚至某些领域已经到了离开算法就寸步难行的地步。这些广泛应用于电子商务、自动驾驶等领域的人工智能技术都是用于某一具体领域的专用人工智能,当然谈不上是超级智能。但是在这些应用中,人们发现了在算法、数据和社会诸多方面的伦理问题,诸如算法歧视、侵犯隐私、算法的误用、滥用(运用于邪恶或不人道目的)等,较为间接和远期的则有就业问题、平等、家庭和社会关系的危机等。


毋庸置疑,在商业公司竞相投资、科技人士争先恐后、世界各国不甘人后的语境中,提出能够指引当前的人工智能技术的伦理准则,绝非易事。正因如此,人工智能的伦理和治理问题将成为二十一世纪包括哲学、政治、社会学、法学等学科领域的重大议题。


人工智能伦理看似备受关注,但在科技行业而言,它却不是个受人待见的议题。道理很简单:无论在中西方,某一公共议题的伦理评价常常被视为一个只分黑白、不论程度的判断。在西方,因为康德伦理学传统的影响,一旦认为某种做法关乎伦理,往往就是个定性的判断;并且判断也和这种做法带来的结果无关,不能说某种做法“更合乎伦理”。在中国,伦理问题也常常是类似鱼与熊掌不能兼得的一种刚性判断。在此背景下,一旦某种产品或者某个类型的服务被质疑不合乎伦理,那么对企业而言,立即会产生巨额公关成本甚至合规的风险。这也是为什么近来所谓“可信赖人工智能”(Trustworthy AI)越来越成为公共讨论中人工智能伦理的替代用语。与讨论是否合乎伦理相比,讨论“可信赖”可以用程度来描述。人们可以说某人工智能产品或者服务比另外一种“更可信赖”。对渴望少被干涉的科技行业,这当然大大减少了公关和合规的危险。



逃避伦理讨论,不仅仅是行业不可言说的倾向,似乎也是现代社会的整体趋势。今天的伦理书籍(或者碎片式的阅读)通常有两类。一类可称作“心灵鸡汤”,这种阅读为现代人提供一种无需思考、甜蜜可人的安慰剂。普通人并不喜欢伦理思考,毕竟这些思考要迫使自己反省、承认自己的问题。“心灵鸡汤”应运而生。它让现代人有了一种自己在思考伦理问题的幻象,同时又把最需要、艰难的问题隐藏起来。另一类则是生物学家的作品,这种阅读或明或暗地让人认同伦理道德并不存在,或者说真正的利他主义并不存在。这些作品往往有“科学”的支持,常常主张人类和动物总体上并无差别,因为二者都只是关心自己的基因能否在后代中延续。道德,至多是一种看似高尚的遮羞布。约翰·道金斯《自私的基因》一书是这种倾向的典型代表。在道金斯看来,人类的基因在残酷的自然进化中生存下来,一定是因为人的行为最大化了基因的复制机率。这些作品在现代的流行让伦理讨论更加困难:既然人的自私是人类进化成功的必然,那么站在进化末端的人也大可不必口是心非。


现代社会将伦理判断归入“私人事务”,也助长了伦理讨论中的相对主义风潮。今天,人们敏感于任何伦理评价。伦理问题被认为是“私人事务”,同时“每个人都有自己的立场”常常被用于抗拒伦理评价的客观性。市场经济的拓展和民主的广泛实现,让现代人比以往有更多的互相合作,但也因此产生更多的冲突。现代社会宁愿将这种冲突压抑在私人领域,并且在公共讨论中尽可能少地提及,以避免诱发、激化冲突。罗尔斯在《正义论》对公共理性和私人理性的严格区分就展现了这样的思路。其结果是,人们在公共领域中伦理辩论的分歧,并不能反映社会上真正的伦理冲突。哈佛大学的桑德尔教授和芝加哥大学的埃尔施泰恩教授在哈佛大学举办的一次公开演讲中不约而同地批评了这样的思路,认为它导致了伦理相对主义的泛滥和现代社会的伦理生活活力的丧失。


如此思想和社会的背景,也为现代社会在人工智能的问题上上逃避伦理反思和讨论提供了思想基础。蚂蚁为人制定伦理规则之说,在这个意义上可以看作是“适者生存”逻辑在人工智能领域的翻版:既然人工智能将远超现在所是与所能,它当然不会被这些伦理准则约束,为何要做无用功?这是上述“适者生存”逻辑在人工智能领域的表现,这一逻辑尚需辨析一二。


Steven Jay Gould


哈佛的生物学家古尔德(Steven Jay Gould)和勒温庭(Richard Lewontin)谈及“适者生存”逻辑时批评,这种逻辑最大的问题在于它没有任何反驳的可能。如果有研究否定了一个版本的基石,往往有新的取而代之。研究者的想象力有多丰富,就可以提出多少新的解释。只要编出一个可能的解释,作者就可以认为工作已经完成。古尔德和勒温庭指出,这些人实际上是诉诸“必须发生”的猜想,而越过了真正的批判性思考和科学研究。


如果在伦理上接受“适者生存”为基础的生物决定论,似乎唯一合理的推论就是应该完全取消伦理思考:既然人只不过是由自身无法控制的基因指令生成的某种大型哺乳动物,思考伦理问题有什么用?在基因的决定之下,人或多或少是在服从既定的程序。反思自己的行为应该与否,恐怕无济于事:即便人有道德方面的愿望和决定,但是否真的能够改变自然规律和我们的本性?在历史上,美国曾经立法禁止饮酒,但挡不住饮酒者从黑市、走私等渠道获取,终告失败。近年来的例子是欧洲少数国家和加拿大在禁止大麻多年之后最终决定解禁大麻。这些事例都吸引人得出诉诸伦理道德终将失败的结论。但是,人们不禁要问,是否所有的道德反思、道德规则都同样无效?人“异于禽兽”的恻隐之心、羞恶之心、辞让之心和是非之心诸种,难道真的不是人性的组成部分?


循“适者生存”逻辑来评说人工智能伦理准则的荒谬,也在于其实质主张是完全取消人工智能伦理思考。认为人工智能的发展遵循某种自然选择的指引,这种看法毫无依据。恰恰相反,如果技术会带来某种的伦理的负面后果,那么选择技术的发展路向或者应用方式就是人不可推脱的责任,关于这一点的讨论在当代科技伦理特别是生命伦理的研究中已汗牛充栋。


与上述伦理相对主义同时出现的,还有一种对人工智能的技术乐观主义态度。看到人工智能越来越多地影响着社会生活的方方面面,从医疗到交通、教育、治理和工作,再到刑事司法和法律,媒体和公共讨论中往往出现一些对社会的未来完全是乐观、憧憬、不带任何反思的评论。越来越多的证据表明,人工智能技术带来的算法歧视、侵犯隐私、算法滥用等伦理问题绝不罕见。从整体上看,人工智能技术在加剧社会不平等方面的影响也可能被忽视了。技术乐观主义让很多人对伦理问题视而不见。


社会是否应该允许算法代替人作重大决策?个人是否有不能让渡的隐私权?这些问题,都是影响当代、波及未来的重大伦理问题。无论是对科学家、工程师、商业领袖、政治人物还是公民个人而言,兹事体大,不可不察。无论以伦理相对主义还是技术乐观主义的面目出现,社会对伦理讨论的逃避,就像一块摇摇欲坠的基石,让人对人工智能伦理忧心不已。

 

本文选自郭锐:《人工智能的伦理和治理》,法律出版社2020年版,第1-8页。标题为公号编者所加。

如您观文后有所感悟

欢迎关注并分享“三会学坊”


    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存