戴益斌| 论人工智能伦理的研究进路
摘 要
人工智能伦理有很多种不同的研究进路。定位式的研究进路主张通过定位人工智能的社会地位解决人工智能的伦理问题;嵌入式的研究进路主张通过为人工智能嵌入道德算法以规避人工智能可能带来的伦理问题;规范式的研究进路主张通过制定相应的人工智能伦理规范以规范人工智能的发展方向。然而,这些研究进路都存在很多难以解决的问题。基于道德特殊主义,我们可以为人工智能伦理问题给出一个更好的解决方案。
作者简介
戴益斌,上海大学哲学系副教授
本文载于《社会科学》2023年第7期
目 录
一、人工智能伦理定位式的研究进路
二、人工智能伦理嵌入式的研究进路
三、人工智能伦理规范式的研究进路
四、一种新的研究思路:基于道德特殊主义的思考
人工智能作为一项革命性技术,在引起社会广泛关注的同时,也引起了很多人的担忧。人们普遍担忧人工智能可能会引起诸多问题,比如失业问题、隐私问题、责任问题等。为解决这些伦理问题,哲学家们采取了多种不同的研究进路。埃姆雷·卡齐姆(Emre Kazim)和阿德里亚诺·索尔斯·岸山(Adriano Soares Koshiyama)根据人工智能伦理问题出现的原因将这些研究进路区分为三种:原则、过程和伦理意识。原则式的研究进路试图通过规范人工智能技术的使用解决人工智能遇到的伦理问题,过程式的研究进路试图通过设计合适的技术规避人工智能的伦理问题,伦理意识式的研究进路试图通过规范人工智能的使用者、设计者来避免人工智能可能出现的伦理问题。本文则主张将人工智能不同的研究进路区分为以下三种:第一种研究进路通过确定人工智能的社会地位,解决人工智能的伦理问题;第二种研究进路通过为人工智能嵌入道德算法,避免人工智能可能引起的伦理问题;第三种研究进路通过社会规制,解决人工智能的伦理问题。其中,第二种研究进路大致对应于卡齐姆和岸山所说的过程式的研究进路,第三种研究进路大致对应于原则式的研究进路,它们分别代表了从自律和他律的角度对人工智能的伦理问题做出限制。伦理意识式的研究进路由于涉及很多不确定性因素,不是我们关注的焦点,卡齐姆和岸山对这种研究进路谈论得也比较少。除此之外,通过确定人工智能的社会地位在一定程度上也可以帮助我们解决人工智能的伦理问题,这也是很多学者谈论人工智能是否具有主体地位的原因之一。为了方便起见,我们将这三种研究进路简称为“定位式的研究进路”“嵌入式的研究进路”与“规范式的研究进路”。在讨论这三种研究进路的基础上,本文试图为解决人工智能的伦理问题提出一种新的研究思路。
一、人工智能伦理定位式的研究进路
人工智能伦理的第一种研究进路即定位式的研究进路,主张通过确定人工智能的社会地位解决人工智能可能带来的伦理问题,其思路可以概括如下:如果我们能确定人工智能的社会地位,那么我们就可以按照现有的社会伦理体系解决人工智能的伦理问题。它包含两个假设:(1)现有的伦理体系不会在短时间内发生较大的变化;(2)我们能够在现有的社会体系下为人工智能确定合适的社会地位。一般认为,第一个假设是合理的。因为我们似乎没有理由认为,现有的伦理体系会在短时间内发生巨大的变化,以至于即便我们可以确定人工智能的社会地位,也无法按照当前的伦理体系解决人工智能的伦理问题。事实上,考虑到人类社会的伦理体系在很长一段时间内没有发生太大的变化,我们应该承认第一个假设的合理性。因此,对于人工智能伦理的第一种研究进路而言,问题的关键在于,如何在现有的社会体系下为人工智能确定合适的社会地位。
虽然人类社会经过长时间的演化,但其认知体系并没有发生太大的变化,仍然保持着主体与客体之间的区分。就目前来说,人们一般倾向于将人视为主体,将与主体相对的存在物视为客体。对于人类而言,常见的客体包括自然物以及普通的人造物。定位式研究进路的支持者期望通过判断人工智能的主体地位或非主体地位来确定人工智能的伦理责任。问题是,无论将人工智能视为主体还是纯粹的客体,都存在很多难以克服的困难。
首先,将人工智能视为主体似乎并不符合当前人工智能的发展现状。虽然人工智能作为一项新技术,发展异常迅速,但就目前来看,人工智能似乎只能在单项领域内取得优异成绩,无法在整体上超越人类智能。因为人工智能总是受算法的限制,但没有哪种算法能解决所有问题;而且,人工智能在处理各项数据时,总是会面临着框架问题,无法确定人工智能收集的哪一类数据与哪一项任务相关而与其他任务无关。这些机制性问题决定了人工智能不可能像人一样,突破自身的局限,成为真正的主体性存在。
其次,将人工智能视为主体性的存在会给社会带来很多混乱。每一个主体性的存在不但拥有作为主体的基本权利,也会承担主体应该承担的责任。这意味着,将人工智能视为主体会赋予人工智能相应的权利与责任。这些权利至少包括类似于人的生命权、健康权;而与之相关的责任则至少包括法律责任、道义责任等。但很明显,无论是赋予人工智能某种生命权,还是要求它承担某种法律责任,都是站不住脚的。因为赋予人工智能某种生命权意味着我们不能随意终结人工智能的物理生命,即便是在一些特殊的情况下,比如,在人工智能即将对人类宠物造成伤害的情况下,破坏人工智能产品都是不合理的。因为人工智能有自己的生命权。同理,要求人工智能自身承担某种责任,似乎也会引起很多人的不满。因为严格来说,人工智能产品没有任何承担责任的可行性。它并不能为受害者提供任何实质意义上的补偿。
同样,将人工智能视为完全意义上的客体,也会面临诸多困难。从人工智能的工作机制来看,人工智能具有一定的自主决策能力。比如,“薇薇”作诗机器人在没有人类介入的情况下可以自主生成一些新诗,这一属性使其区别于传统的机器。将智能机器视为纯粹的客体,会抹杀智能机器与传统机器之间的区别,不利于我们获得关于人工智能的真实认识。另一方面,将人工智能视为纯粹的客体,在责任问题上会导致混乱。因为现有的伦理体系主张,纯粹的客体不承担任何责任,其导致的责任问题由使用者或创造者承担。问题在于,无论是主张使用者承担人工智能导致的责任问题还是主张创造者承担人工智能导致的责任问题,都会引起人们的不满。使用者并没有直接参与人工智能的决策过程,要求使用者承担责任不符合我们对责任主体的理解;与此类似,人工智能的决策过程一般来说超出了创造者的预测范围,要求创造者承担人工智能所有的责任问题,会打消创造者的积极性与动力,不利于人工智能整个行业的发展。
近年来,一些学者试图通过赋予人工智能某种“准主体”地位来规避上述定位的不合理性。这种定位的核心要点在于,既不赋予人工智能某种主体地位,也不赋予人工智能纯粹的客体地位,而是试图在主体与客体之间寻找一种类似于主体但与主体又有所不同的准主体地位。这种准主体地位是人类赋予的主体地位,它在某些特殊情况下会被人类取消。就像人类的宠物一样,它具备某些权利,但无法承担实质性的责任。毫无疑问,赋予人工智能准主体地位具有很多优势,在理论上能够克服将人工智能视为真正的主体与纯粹的客体可能带来的困难,但这种定位能否真正地解决人工智能可能带来的伦理问题是值得怀疑的。
第一,我们现有的伦理责任体系是建立在主体与客体二分的基础之上的,这一伦理体系并没有为准主体地位留下足够的解释空间,这导致我们并不清楚,人工智能的准主体地位在何种意义上成立。用宠物的社会地位类比人工智能的准主体地位,实际上也并不准确。因为人工智能与宠物之间存在重大区别。人类可以凭借自身的共情能力感受到宠物的一些喜怒哀乐,但人工智能表现出的喜怒哀乐未必能引发人类的真实情感。
第二,赋予人工智能准主体地位,并不能解决人工智能可能带来的伦理问题。因为现有的伦理体系并没有澄清准主体地位的伦理关系。以智能无人驾驶汽车为例,我们可以清楚地看到这一点。智能无人驾驶汽车具有准主体地位并不能解决智能无人驾驶汽车的责任难题。一方面,智能无人驾驶汽车的准主体地位不要求智能无人驾驶汽车承担责任,因为它不是一个真正的责任主体;另一方面,赋予智能无人驾驶汽车准主体地位也没有为责任归属问题提供任何可供参考的答案。也就是说,在赋予智能无人驾驶汽车准主体地位的情况下,我们仍然无法处理智能无人驾驶汽车的责任难题。
以上两个理由足以表明,在现有的伦理体系中,人工智能的准主体地位很可能只在概念上具有某些优势,在解决人工智能伦理问题的实践过程中并不起任何实质性的作用。
二、人工智能伦理嵌入式的研究进路
人工智能伦理的第二种研究进路即嵌入式的研究进路,主张通过将人工智能设计成道德敏感的智能体,以规避人工智能可能产生的伦理问题。其核心思路可以概括如下:如果我们可以为每个人工智能产品内置类似于人类道德意识的道德算法,通过道德算法处理人工智能可能面临的各种道德选择,那么人工智能就可以规避各式各样的伦理问题。这种研究思路相当于将人工智能设计成人工道德行动者(artificial moral agents,简称AMAs),让人工智能在遇到伦理道德问题时,能够自主地做出合乎现有伦理道德体系的选择。从直觉上说,如果人工智能具有道德判断的能力,能够做出相当于个人甚至超出个人的道德判断,那么人工智能带来的伦理问题显然不会成为人工智能发展的障碍。问题在于,我们能否将人工智能设计成符合人类伦理体系的人工道德行动者?具有道德决策能力的人工智能是否真的可以规避所有的伦理问题?
一般来说,将人工智能设计成符合人类伦理体系的人工道德行动者只有三种实现方式,即自上而下的实现方式、自下而上的实现方式和混合方式,但无论哪种实现方式都存在难以解决的问题。我们首先考察第一种实现方式。
第一种实现方式之所以被称为自上而下的实现方式,是因为这种实现方式主张将人类社会的伦理体系简化为一些道德原则,并用代码的方式将这种原则内置于人工智能算法之中,以指导人工智能的道德决策。但这种实现方式是否可行是值得怀疑的。
第一,在伦理学界,哲学家们并没有就伦理的基本理论或基本原则达成共识。人们并不清楚到底是应该支持功利主义,还是应该支持义务论,或者是德性伦理。这意味着,自上而下的实现方式从一开始就面临着理论决策上的困难。有些学者试图规避伦理理论上的选择困境,主张直接为人工智能设计出普遍的伦理法则,以规范人工智能的道德行为,其中的典型代表是20世纪40年代由阿西莫夫(Isaac Asimov)在科幻小说《我,机器人》中提出的“机器人三定律”:(1)机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;(2)机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;(3)机器人在不违反第一、第二定律的前提下要尽可能保护自己。然而,即便是如此符合人类直观的“机器人三定律”,也引起了很多争议。阿西莫夫本人对此也有过反思,甚至后来还将“机器人三定律”修改为“机器人四定律”。这些事实表明,为人工智能选择最为基础的伦理原则并不像有些人想象的那么简单。
第二,即便哲学家们可以为人工智能选择最为基础的伦理原则,也并不意味着这些伦理原则适用于所有的伦理场景。因为不同的伦理原则在同一个场景中可能会产生相互矛盾的结果。阿西莫夫对“机器人三定律”的刻画就是其中的一个典型代表。因为他的小说本身就是围绕“机器人三定律”导致的冲突展开的。事实上,考虑到人们在不同版本的电车难题中做出的选择是如此的不同,我们就应该明白,单一的伦理原则并不适用于所有的伦理场景。这也是自上而下的实现方式在学界日渐式微的重要原因。
第二种实现方式即自下而上的实现方式主张通过数据将人工智能训练成符合人类道德规范的人工智能行动者。从本质上讲,这是一种数据驱动的实现方式。目前学界最流行的人工智能技术即深度学习就是这一实现方式的典型代表。通过数据驱动,人工智能已经获得了许多令人意想不到的成果。AlphaGo围棋机器人是其中的案例之一。但在道德问题上,这一实现方式是否可行仍然有很多争议。
首先,道德决策具有语境敏感性,不同的道德数据可能会导致完全不同的道德决策。从这个角度来说,为人工智能准备合适的道德数据是一件至关重要的事情。问题在于,人们并不清楚什么样的道德数据是合适的。考虑到不同文化、不同民族中的人对同一道德事件可能会有不同的看法,这一问题可能会体现得更为明显。
其次,人工智能算法具有黑箱特征,人们并不清楚道德算法在数据充足的情况下会做出怎样的选择。这意味着,即便我们能够为人工智能挑选出合适的道德数据,人工智能的道德决策仍然具有不确定性,它有可能做出符合伦理规范的决策;但同时,它也有可能做出不符合伦理规范的决策。换句话说,人工智能有学“好”的可能性,也有学“坏”的可能性。而后者明显不符合我们的预期。
第三种实现方式即混合方式主张将自上而下和自下而上的实现方式结合起来,以设计出合适的人工道德行动者。一些学者认为,在自上而下和自下而上的实现方式都存在诸多困难的情况下,混合方式似乎是一个必然的选择。虽然与自上而下和自下而上的实现方式相比较而言,混合方式的前景似乎更好,但混合方式自身也存在一些难以解决的问题,比如,在设计符合道德规范的人工智能时,混合方式如何融合自上而下和自下而上的实现方式就是一个难以处理的问题。瓦拉赫(Wendell Wallach)和艾伦(Colin Allen)提到了影响道德生成的各种因素,比如从基因遗传而来的习性、通过经验发现的核心价值、带有文化特征的原则等,如何将这些因素综合在一起,显然是混合方式需要思考的一个难题。
事实上,即便我们能够将人工智能设计成人工道德行动者,也并不意味着这样的人工智能能理解什么是道德行为。因为人工智能的行为决策来自它的算法,而并非出自它的自由意志。我们一般认为,一个行为之所以是道德的,是因为行为主体在众多可能性中,出于爱、同情等众多因素自主地选择符合伦理规范的行为,但就像科克伯格(Mark Coeckelbergh)所说的那样,人工智能似乎没有爱,也没有同情或担忧。更为重要的问题是,将人工智能设计成人工道德行动者,并不能规避所有的伦理道德问题。在某种程度上,这是由算法的本性决定的,单一的算法不可能具备处理所有道德场景的能力。这意味着,人工道德行动者仍然有犯错的可能性,具备伦理道德判断能力的人工智能仍然有可能会做出不符合人类道德规范的行为。在这种情况下,我们仍然会面临着如何处理人工智能伦理问题的局面。也就是说,嵌入式的研究进路并不能彻底解决所有的人工智能伦理问题。
三、人工智能伦理规范式的研究进路
人工智能伦理的第三种研究进路即规范式的研究进路主张通过构建外部规范或各种规章制度以规范人工智能的行为,使其符合人类的伦理体系。国内有不少学者支持这种研究进路。在人工智能实践过程中,这种研究进路也得到了很多个人和组织的支持。公允地说,在第一种研究进路和第二种研究进路存在诸多争议的情况下,规范式的研究进路具备更强的现实性。一些国家和组织发布的各种人工智能伦理规范即是这一研究进路的典型代表。但我们不能否认的是,这一研究进路也存在诸多困难。
第一,为人工智能构建各项规范的理念并不是那么清楚。人们一般认为,发展人工智能需要坚持以人为本的原则。从直觉上说,这一主张是合理的。问题在于,绝大多数学者并没有进一步解释以人为本中的“人”到底指的是全人类、部分国家中的公民,还是某些人或某个人。在某些情况下,人工智能的发展对全人类是有利的,但对某些人或某个人是有害的。比如说,人工智能为了更好地服务人类,需要收集更多的数据,在这一过程中,人工智能的操作有可能会导致某些人失去个人隐私,损害他们的利益。有些人工智能产品的发展甚至会导致某些人失业,使其成为社会的弃儿。而在有些情况下,人工智能的发展有可能对个体有利,能满足某些人的私欲,却会损害全人类的整体利益。比如,一些人工智能武器的诞生有利于某些战争狂人,却很容易伤害无辜的民众。这些可能性表明,在以人为本的原则没有对“人”本身做出合理解释的情况下,它无法在理念层次上起到规范性的作用。更重要的是,即便我们能够澄清发展人工智能需要的各种规范性理念,这些理念之间仍然存在相互冲突的可能性。比如,人们习惯于将人本原则解释成以全人类的整体利益为准,但公正原则要求我们平等地对待每一个个体,二者之间必定会在某些道德场景中产生冲突。从这个角度来说,规范人工智能需要明确它的规范理念,以及这些理念之间的相互关系。
第二,确定规章制度的制定方也是一个难题。人工智能作为一项新型技术,为其制定规章制度显然是必要的。问题在于,我们应该选择由谁来制定关于人工智能的各项规章制度。法律人士对各项法案有深入的了解,但他们对人工智能的了解显然比不上设计者;企业对人工智能的发展方向可能有较为准确的把握,但企业的逐利倾向使得我们无法对其百分之百地放心。有些学者建议,通过建立伦理委员会的方式规范人工智能的发展方向。这一建议毫无疑问是值得重视的,然而,伦理委员会委员的构成模式及运行模式仍然值得我们深思。我们通常倾向于认为,构成人工智能伦理委员会成员的应该是一些熟悉人工智能的专家学者。问题在于,真正受人工智能影响的是那些普通平凡的对人工智能了解甚少的民众,他们的声音更应该值得我们重视。而且更重要的是,即便我们能够组建起人工智能伦理委员会,在实际操作过程中,我们总是会发现,伦理委员会的作用可能并没有想象中的那么大,它总是会受到外界的反作用力。谷歌人工智能伦理委员会成立9天即被解散就是一个明证。
第三,如何为人工智能制订合理的规章制度也是一个难题。一般来说,为某项技术制定某些规章制度总是以清晰地认识该项技术为前提的,但人工智能比较特殊,它的操作过程是不透明的,不但任何人都无法准确地预测它的决策,而且没有人能够在事后解释它为何做出这样的决策。也就是说,人工智能的操作模式是不透明的,不具有可解释性。人工智能的这些特性意味着,我们对人工智能的认识不可能是清晰的。从这个角度来说,为人工智能制定合理的规章制度以规范它的行为,是非常困难的。
规范式的研究进路面临的另一个比较严重的问题是,承认关于人工智能各种规范的合理性并不意味着人工智能的行为一定会符合我们的伦理体系,因为人工智能的不可预测性使得它在遵循人工智能规范的同时仍然有可能做出不符合道德规范的事情。在这种情况下,人工智能产生的责任问题将会给规范的制定方造成严重的困扰。因为从直觉上说,人工智能是在符合制定方给出的规范的条件下做出的决策,它的行为后果理应由规范的制定方承担。但是很明显,这种责任归属方式并不符合我们对责任问题的一般理解。因为我们通常认为只有满足这两个条件的行动者才能被视为责任主体:(1)行动者是行为的主体;(2)行动者是自由的,而不是被迫的。人工智能规范的制定方显然不满足这两个条件,他们不是人工智能行为的主体。
四、一种新的研究思路:
基于道德特殊主义的思考
以上论述表明,目前人工智能伦理三种主流的研究进路都面临着许多难以解决的问题。由于人工智能无法在当前的伦理体系中获得准确的地位,定位式的研究进路面临着失败的风险;由于我们很难为人工智能嵌入合适的道德算法,嵌入式的研究进路也面临着诸多困难;规范式的研究进路相对而言,更具有现实性,但是这种研究进路也有很多具体的问题需要处理。而且,这三种研究进路都有一个共同点,它们似乎都倾向于将所有的人工智能产品视为一个整体,期望通过某种方式,一劳永逸地解决人工智能伦理的所有问题。人工智能定位式的研究进路试图定位的是所有的人工智能产品,嵌入式的研究进路希望为所有的人工智能嵌入道德算法,规范式的研究进路试图规范所有的人工智能产品。但我怀疑这种思路能否合理地解决人工智能带来的所有伦理问题。原因在于,不同的人工智能产品有不同的表现模式,它们带来的伦理问题会有所不同,尤其是有些人工智能产品不会产生较为严重的伦理问题。在这种情况下,将人工智能视为一个统一的整体有可能会抹杀不同的人工智能产品之间的区别。在我看来,道德特殊主义(moral particularism)为解决这一问题提供了很好的线索。
道德特殊主义最早可以追溯至亚里士多德。亚里士多德经常强调,伦理最终关注的是特殊的案例,而不是一般的理论。这一思想启发了很多学者,麦克道威尔(John McDowell)和丹西(Jonathan Dancy)是其中的典型代表。根据丹西的解释,道德特殊主义可以被理解为:“道德思想和道德判断的可能性并不依赖于提供合适的道德原则。”这一理念与伦理一般主义(ethical generalism)相对,后者认为道德思想和道德判断依赖于合适的道德原则。在相当长的一段时间内,伦理一般主义在学界占有主流地位,功利主义和义务论都属于伦理一般主义。不过丹西认为,伦理一般主义是不可能的。
通常认为,伦理一般主义有两种可能性:或者承认只有一条绝对的道德原则,或者主张有多条互相不冲突的道德原则。根据丹西的解释,前一种道德原则概念是原子论的,后一种道德原则概念是促进式的。丹西谈论较多的是后一种道德原则概念。在他看来,前一种概念单纯就是错的。因为道德有许多相关属性,不可能是原子式的。当然,对于丹西来说,后一种概念也是有问题的。道德原则之间的不一致性、无法确定道德原则的数量以及无法合理地解释道德相关属性都是后一种道德原则概念难以成立的原因。丹西支持的是道德特殊主义,但他首先谈论的是一般意义上的特殊主义。
借用麦克道威尔的表述,丹西将特殊主义最原始的主张解释为:“我们既不需要、也不能将寻求一个可评估的视角(人们将其视为理性的)视为对一组原则的追求。”在丹西的解释中,支持特殊主义的主要理由是:“一个理由(或者被当作理由的考量)的行为不能根据它在其他场景中的行为来预测。考量在此起作用的方式将会或者至少会受到此处其他考量的影响。”也就是说,在不同场景中,基于某一理由的行为会有所不同,发生同一行为的理由也会有所不同;同一种考量在某个场景中被视为支持的理由,但在另一个场景中可能被视为反对的理由,甚至根本就不是一个理由。丹西将这一观点称为关于理由的整体论。在他看来,日常生活中有足够多的例子表明,无论是理论上的理由还是实践上的理由,它们都是整体的,某一考量是不是一个行为的理由也完全依赖于语境。
理由整体论有很多优点,能解释很多原子论无法解释的现象,比如丹西经常提到的一些认知现象和实践活动。在伦理领域内,丹西认为,理由整体论同样成立。因为道德理由和非道德理由一样,它们起作用的方式大致相同。比如说,人们一般认为,信守承诺在通常情况下是我们做某事的一个理由,具有道德属性,但是在某些情况下,它不构成我们做某事的理由,甚至有可能是我们不做某事的理由。从这个角度来说,实施道德行为、做出道德判断,与很多因素相关,丹西称之为“道德相关性”。而且,这些道德相关性之间是不可还原的。丹西的这些观点表明,道德原则与道德之间并没有必然联系。因为我们不可能用相互一致的道德原则解释所有的道德现象。
以上是对道德特殊主义的简单梳理,虽然其中有很多细节性问题并没有被提及,但对我们而言,这些内容是足够的。如果道德特殊主义是成立的,那么这将表明,人工智能引起的伦理问题不可能用道德原则解释,而只能依据理由整体论的视角进行分析。因为人工智能引发的每一个伦理问题和人类社会领域中的其他伦理问题一样,都会涉及不同的理由,而且这些理由在不同的场景中会起不同的作用,甚至有可能在不同的场景中完全不起作用。人工智能带来的各种伦理问题以及引起人们广泛讨论的各种与人工智能相关的伦理现象,都可以说明这一点。从这个角度来说,我们应该满足于从具体的场景中分析人工智能可能带来的具体的伦理问题,并针对这些具体的伦理问题给出合适的解答。
当然,严格来说,依据道德特殊主义解释人工智能伦理问题也需要依据一个基本原则,即事实原则。它要求我们依据事情发生的本来面目及其真实存在的理由,从各个方面考虑问题的相关方,以解决人工智能带来的伦理问题。不过需要注意的是,在道德特殊主义的理论框架下依事实原则处理人工智能伦理问题并不与道德特殊主义的基本理念相违背。因为事实原则大概是所有的伦理理论都需要依据的原则,它与各种规范伦理学提出的伦理规范如利益最大化原则、公正原则等有所不同。前者是普遍的,后者具有特殊性。而且,我们也很难想象如何在虚假的背景中处理伦理问题。
事实上,基于道德特殊主义处理人工智能的伦理问题还具有很多优势。
第一,道德特殊主义与人工智能伦理相契合。人工智能之所以会带来各种各样的伦理问题,其中的一个重要原因是:人工智能产品具有多样化特征,它在每个领域都会造成不一样的后果;甚至在同一个领域内,不同的人工智能产品也会因为不同的原因带来不同的伦理问题。比如,人工智能涉及的著作权问题和失业问题显然不是一回事;在著作权领域,微软小冰出的诗集与“薇薇”作诗机器人生成的古诗也不是一回事。也就是说,人工智能会由于产品的不同、应用场景的不同,而有不同的伦理问题,这与道德特殊主义的基本立场一致。因为道德特殊主义主张根据不同的场景不同的理由分析人工智能的伦理问题。
第二,立足于道德特殊主义,我们可以解决很多在道德一般主义框架之下无法解决的人工智能伦理难题。我们以智能无人驾驶汽车的责任问题为例。智能无人驾驶汽车之所以会带来责任问题,是因为我们很难依据现有的伦理体系为智能无人驾驶汽车的责任问题指派合适的责任方。然而,道德特殊主义为解决这一问题给出了很好的方案。依据道德特殊主义,智能无人驾驶汽车带来的每一个责任问题都有其具体的、不同的理由。比如,有些问题是由汽车本身的质量问题带来的,有些问题可能是算法导致的,有些问题是行人没有遵守交通规则导致的,等等。不同的责任问题可以根据导致这些问题的不同因素来处理。我们并不需要一个统一的、一致的原则处理所有的责任难题。在某种程度上,这种处理问题的方式与人工智能责任难题中的混合方案相一致。而很多学者认为,混合方案是解决人工智能责任问题中最具前景的一种解决方案。
第三,基于道德特殊主义解决人工智能的伦理道德问题与马克思主义活的灵魂即具体问题具体分析相一致,在一定程度上可以体现出中国特色社会主义对人工智能伦理问题的独特解决方案。具体问题具体分析是马克思主义的重要方法论,是我们党要求各级领导干部都要坚持的科学方法。它反对教条主义、本本主义;要求我们澄清问题的内涵、把握客观事实;注重在特定的历史条件下、具体的场景中把握问题。虽然道德特殊主义具有不同的理论背景,但它和具体问题具体分析的方法论在实践领域中的诉求基本一致。从这个角度来说,利用道德特殊主义的基本理论解决人工智能的伦理问题可以印证马克思主义方法论的真理性。
当然,依据道德特殊主义解决人工智能的伦理问题可能也会引起一些人的担忧。在这些担忧中,最重要的一个担忧是由道德特殊主义本身的理论特性引起的,即利用道德特殊主义解决人工智能的伦理问题可能会导致相对主义。不过在我看来,这很可能不是我们应该担心的问题。道德特殊主义承认理由的多样性,同时也承认不同的视角会给出不同的理由,这是一个事实;但问题在于,这些理由都属于理由整体论视域中的一部分,都是人类理性可把握的对象。在某种程度上,我们甚至认为,人工智能有可能帮助我们澄清道德相对主义难题。因为人工智能对数据的收集和处理能力远远超出人类,能够发现人类不易发现的相关性,帮助我们揭开相对主义的面纱,认识人类可能存在的道德直觉和道德共识。
基于上述理由,我们认为,利用道德特殊主义思考人工智能的伦理问题是一个值得我们重视的方案。在处理人工智能伦理问题时,我们需要把握的不是孤立的因素,而是各种因素之间的相互联系。当然,这并不是说人工智能的伦理问题之间没有共性,而是说,当我们考虑人工智能伦理问题时,需要考虑每一种伦理问题背后众多不同的道德理由。
(为适应微信排版与阅读,注释从略,转载引用等请参阅期刊原文。)
往期推荐
丁 耘 | 莱布尼茨与力量现象学——从连续体迷宫出发的研究(上)
丁 耘 | 莱布尼茨与力量现象学——从连续体迷宫出发的研究(下)
姜 婷 | 利润率下降趋势的当代之思:以数字资本竞争模式为例
刘 哲 | “ 我 是 场 , 我 是 经 验 ”:早期梅洛 — 庞蒂的生成主体性
陈 畅 | 天道与经世 ——黄宗羲《破邪论》与明清之际“天学”嬗变