查看原文
其他

张今杰丨人工智能体的道德主体地位问题探讨

张今杰 求索杂志 2023-03-26

作者简介

张今杰,男,湘潭大学碧泉书院教授、博士生导师。

原文出处

张今杰:《人工智能体的道德主体地位问题探讨,《求索》2022年第1期,第58-65页。


摘要:随着人工智能技术的不断完善,人工智能体越来越具有类人化的特征,对原来专属于人类的道德主体地位带来了严重的冲击。事实上,伦理学家们也一直致力于扩大道德主体的范围,对于是否应该赋予人工智能体以道德主体地位形成了正反两方面的意见。从人类道德的起源和发展以及人工智能体本身是否具有意识、情感等实际情况来看,它目前不可能拥有道德主体地位,但我们不能因此而忽视其对伦理学发展带来的启示,以及人工智能技术潜在的风险。

关键词:人工智能体;道德主体;意识;情感


科学技术的持续发展深刻而广泛地影响着人类的生产和生活。一方面,人们十分欣喜于这些技术成果带来的高效生产和便利生活,认为它们终将促进人的自由和全面发展;另一方面,有些学者则对科学技术的高速发展表示担忧,担心它们会给人类社会带来不可预测的负面影响,会造成严重的社会问题和伦理道德问题。近年来逐渐成为人们关注热点的人工智能技术更是引发了大量的讨论和争议,人工智能产业领域新闻不断,一系列与法律和伦理相关的争论此起彼伏。很多科学家对于人工智能的未来发展走向忧心忡忡。霍金(Stephen W. Hawking)就曾认为,人工智能的未来发展很可能会导致人类文明的终结。在这些争议的话题中,其中一个非常重要的问题就是,人工智能机器能否自主选择道德行为并为其自身的行为承担责任?换言之,人工智能体有无可能成为道德主体?尼克·博斯特罗姆(Nick Bostrom)和埃利泽·尤德考斯基(Eliezer Yudkowsky)在《人工智能的伦理学》一文中指出:“制造会思考的机器的可能性引发了一系列的伦理问题,而这些问题既涉及确保机器不伤害人类与其他道德上关联的存在者,也与机器本身的道德地位有关。”

 

一、学界对于人工智能体道德主体地位问题的争议

 

当前,人工智能技术有着惊人的发展速度,也引发了一系列争议,其中最主要的问题之一就是人工智能很多时候都是根据程序自主作出行为选择,那它是否可能成为跟人类相类似的道德主体?无疑,这是对专属于人类的道德主体地位的重大冲击。

 

人工智能技术发展到今天,其智能水平已经比较接近人类,能替代人类完成很多简单重复的、海量计算的、高风险的事情。正因为如此,女性智能机器人索菲亚Sophia)才顺利获得了公民身份那么索菲亚作为一个公民,她是否应当拥有普通人类成员所拥有的道德主体地位呢?这个问题引发了包括人工智能领域在内的众多学者极大的争议。有人认为,索菲亚是人类制造出来的产品,是跟其他机器一样的物质存在,与拥有血肉之躯的理性的人不可同日而语,其行为均服从于内置的程序,不可能出于内心的善良意志而做出符合人类道德规范的事,因此不存在道德主体的问题。例如达闼科技的创始人、首席执行官黄晓庆指出,我们今天必须对机器人产业的发展作一个非常清醒的定位,那就是机器人应该还是机器,是我们人类能力的延伸。也就是说,机器人仅仅是作为物质存在的机器,不是有灵魂的理性的人类。有人则认为,随着人工智能技术的不断发展和完善,人工智能体将会拥有不断增强的自主学习能力和自我完善功能,其自我意识也会得到不断的完善,与人类的区别将会越来越小,因此人类应当承认和尊重其在道德领域的权利与地位。玛蒂娜·罗斯布拉特(Martine Rothblatt就认为,“当我们做到像尊重自己一样尊重他人(即虚拟人),并将这一美德普及至世间各处时,我们就为明日世界做了最好的准备”。在她看来,我们应当主动承认人工智能体的包括道德主体地位和客体地位在内的各种权利,如此才能最终真正解决人和机器之间深层次的矛盾。

 

总结起来看,支持赋予人工智能体以某些与人类相似的权利(如道德主体地位)的一方认为,赋予人工智能体以道德主体是人类将世间万物平等的理念付诸实践的现实表现,是破除人类中心主义思想禁锢的一种尝试和努力,具有一定的合理性。但反对者则指出,人类赋予人工智能以道德主体地位的举动,其实并不能真正突破人类中心主义思维,反而可能导致一系列法律与伦理上的困境。有学者认为,“在论证人工智能之时,这些自称‘超人类中心主义’的论证,却依然是人类中心主义的”。也就是说,由人类来决定并赋予人工智能体以道德主体地位,表面上是要破除人类中心主义的禁锢,但实际上仍然蕴含着人类中心主义的基本理念。原因在于:对人工智能体道德主体地位进行确认和界定,不能由人类全权代理,人工智能体自身必须在场,人类需要听取人工智能体自身表达的诉求,不能由人类单方面宣布或赋予人工智能体以道德主体地位,否则依旧落入了人类中心主义窠臼之中。我们对人工智能体道德主体的内涵和外延的界定,都是人类在人工智能体没有参与并表达诉求的情况下进行的。它们自身需不需要道德主体地位,需要何种意义上的道德主体地位,这样一些关键的问题,人工智能体并没有机会表达。因此这实质上依然是人类中心主义理念的延续。另外,赋予人工智能体以道德主体地位,彰显世间万物平等,确实是一种美好的愿景,但任何以伤害人类自身作为代价的主张都是值得商榷的。如果我们赋予人工智能体有限的甚至全部的道德主体地位,将会对人类社会的现状和未来命运产生颠覆性的,甚至可能是毁灭性的重大冲击。因此,赋予人工智能体道德主体地位会带来严重的法律和伦理问题。现有的地球秩序无不由人类主导而制定完成,世界上不同国家和地区的伦理道德和法律秩序都是人类为了维护稳定与发展而由人类相互之间协商制定的。无疑,人工智能体道德主体地位的界定与确认,也应完全由人类来决定和完成。如果人工智能体获得有限的甚至完全的道德主体地位,那么人类面临的不可预见风险也将逐步增加。如果人工智能体最终获得了与人类同样的道德主体地位,那么他们将成为自然人之外的另一类独立的生命体,它们将不满足于人类社会现有的法律制度和伦理道德体系,而会要求建立更适应于其自身的社会规范和制度体系。这样,人类将与地球上其他生物一样,只是普通一员,人类中心主义理念将彻底被打破。由于人工智能体拥有包括人类在内的其他生物体所无法比拟的超级能力,一个新的时代即人工智能中心时代即将来临。地球现有的法律和道德秩序以及人类未来的命运将会面临着颠覆性的甚至毁灭性的挑战。

 

人工智能体能否拥有道德主体地位的问题,关涉人工智能体是否拥有心灵的问题。如前所述,索菲亚已正式成为沙特阿拉伯王国的公民,作为公民,她是否可以像人类个体一样对自己的行为承担责任?人们一般认为,一个个体或种族如果拥有道德主体地位,就意味着他一定有心灵。因此人工智能体如果要拥有道德主体地位而获得人类的尊重,那么它必须至少拥有心灵。没有心灵的物体肯定无法理解人类现存的道德规范并根据这些规范作出合乎人类伦理的行为。因此学界对于人工智能体是否应该拥有道德主体的争议,主要落脚于研究人工智能体是否拥有类似于人类的心灵的问题。这就要求我们对作为认知系统的人工智能体是否拥有与人类一样的心灵作出精确的判断。

 

学界对作为人类最古老的形而上学议题的“心灵”的问题一直都争论不休,一方面人类永远都无法证明我们之外的外部世界是存在的,这被称之为“哲学的耻辱”;另一方面,我们无法证明他人心灵的存在,则成了“哲学的另一个耻辱”。相比于“世界存不存在”的难题,“他人心灵是否存在”的难题更让人觉得扑朔迷离。因为我们虽然无法理性地证明外部世界的存在,但至少我们能感知到外部是客观存在的;对于他人之心,我们根本无法感知他人的心灵,更无法对其进行直接指称。心灵永远被封闭在个人的身体之内,我们无法判定别人是否会跟自己一样会知冷暖、察悲喜,这便是确认和认识他心的难处所在。

 

关于人工智能体是否有心灵的争议历史悠久。支持给人工智能体以道德主体地位的人认为,我们至今都无法证明他人是否有跟我们同样的心灵,但我们会想当然地认为他人是其心灵的合法持有者。在面对人工智能体时,我们同样无法确认其心灵的存在,我们又凭什么拒绝承认它们拥有心灵呢?丹尼尔·丹尼特(Daniel C. Dennett)指出,人仅仅是一种拥有心灵的机器,人工智能体作为一种特殊的数据转换的机器也应该可以拥有思维与意识。他认为,类似于龙虾这样的低等动物都会有自我意识或类似于概念的东西,机器人更应该有。他指出,对于自我意识或类似于概念的东西,“这些东西你怎么叫都可以,但机器人也都有。也许你可以把它们叫作潜意识或前意识概念。这是自我意识的初级形式”。另一方面,以约翰·塞尔(John R. Searle为代表的部分心灵哲学家则反对将心灵赋予人工智能体。他提出了强人工智能与弱人工智能的概念之后,关于人工智能体的道德主体问题就转变为了强人工智能是否可能和是否应该发展的问题。塞尔认为,弱人工智能本身不具备心灵,只是心灵的抽象模拟,而强人工智能本身就是心灵。也就是说,塞尔认为强人工智能本身就是有思维和意识的。他个人反对强人工智能的研究,认为人工智能体的运行机理就是数据的转换,而数据则仅仅是对一些事件的编码,人工智能体不可能掌握编码与事件本身之间的对应关系,因此其运行过程中对数据本身不可能有真正的理解。心灵问题对人工智能体的道德主体问题造成了根本且致命的挑战,“至少在所谓强人工智能出现之前,我们还不能称这样的知识自动发现系统为真正的认识主体”。

 

二、人类扩展道德主体的努力

 

人工智能体究竟是否应该被赋予道德主体地位的问题,涉及人类扩展道德主体的努力。历史上伦理学家们曾经试图将道德主体的范围从人类扩展至其他生物和人类技术的产物。

 

道德主体,意指具有主观的判断能力并且能够为自身行为承担道德责任的人。也就是说,道德主体是指具有自我意识、有道德认知和理性推理能力,并进行道德行为选择、独立承担其道德责的理性行为体。从这个意义来讲,除了具有理性思维能力和自我意识的人类以外,其他事物和特殊人群都不足以成为道德主体。康德认为道德法则来自理性主体本身,并由理性主体所遵守。人类成员中的婴儿、智障人群,以及精神病患者等属于特殊情况,他们虽然具有有限的理性能力,也有初步的道德能力,但他们并不能对自己的道德选择承担完全的责任,而是由他们的法定监护人为他们的行为承担道德责任。罗尔斯(John Rawls)对康德这一主张的理解是,“绝对命令必须把道德法则作为自律原则再现出来,所以从我们对于这个法则的意识来看,对我们(作为理性的人)来说它具有至上的权威性,我们能够接受我们能够把自律原则作为理性原则来接受,并按照它来行动”。罗尔斯认为,按照康德的思路,我们人类作为理性的存在物应该把道德法则视为至高无上的权威法则。可见,在康德看来,在人类发展的历史进程中,唯有理性的有自我意识的人类而非任何其他形式的他在之物是道德的主体。伦理学研究的是人类社会中个人与他人之间的伦理关系,人之外的其他事物均没有资格成为伦理学观照的对象。然而伦理学家们对于道德主体的扩展努力一直没有停止过。

 

首先是试图将道德主体扩展到自然界中人之外的其他生物。随着西方工业化进程的完成,西方经济社会的发展取得了极大的进步,但生态与环境问题也日益凸显出来。生态伦理学及相关的学科便应运而生了。生态伦理学是人类基于严重的生态危机所作的道德考量而发展出来的新的伦理学分支。它的显著特点是将人与自然的关系纳入了伦理学研究的范围,主张破除传统的人与自然之间主客二分的思维方式,试图将西方文明中的人类中心主义发展为生态中心主义。学界关于生态伦理学的争论主要集中在如何看待人与自然之间的辩证关系。正如李德顺所认为的,生态伦理学界争论的焦点在于“确定人的宇宙地位,或者确定自然与人的关系”。即人类作为一种理性的存在,在自然界中是否应该处于中心位置的问题。人类中心主义者认为,自然界仅仅是人类赖以生存与发展的外部条件,离开了人类,自然毫无价值可言。因此他们认为只有理性的人类才能成为道德的主体,除此之外的非人者无道德可论。所以他们主张只有人类才是价值和道德的主体。生态中心主义则认为,人类与自然是平等的,人类是自然界长期演化的产物,是自然界众多存在物的一个种类。自然界本身有着其内在价值,它理应得到人类平等的对待。这无疑降低了人类在其与自然的二元关系中所拥有的主体地位。环境伦理学家罗尔斯顿(Holmes Rolston)认为地球上除了人之外的其他有机体拥有某种属于它自己的内在的善,人类所生存的环境包括动物、植物和微生物在内的各个物种都应该拥有道德主体地位。他对以往人们所坚持的自然界只有相对于人而言的有用性才体现出其价值的观点提出了反问:“难道不是由于地球本身就是有价值的人们才认为它有价值(而不是相反)吗?难道这个生命支撑系统的价值真的仅仅是作为后来者的人类的利益而存在着,或者地球本身不是一个在人类产生以前就已存在,且直到现在仍然是人们利用它的价值前提的神奇之地?”在他看来,地球及其上面的所有生物自身都是有价值的。在生态危机日益加剧的背景下,生态中心主义的各支流派致力于将道德主体的范围扩展至人类之外的其他生命体。

 

其次是试图将道德主体扩展至人类之外的人工物的努力。随着科学技术的迅猛发展,大量非智能的和智能的技术产物如雨后春笋般涌现,给人类以极大的生活便利和生产效率。比如我们经常看到一些具有潜在风险的路段上设计和安置了减速带,驾驶员在经过这一路段时不得不减速驾驶,从而避免交通事故的发生。拉图尔(Bruno Latour认为这表明技术人工物如减速带确实在执行人类道德,目的在于调节人类的行为并使其避开风险,朝着人类道德规范希望的方向发展,因此种技术产品具有潜在的类似于人类的道德主体地位。他在文章中将人工物的道德作用隐喻为“暗物质”。他认为天文学家长期没有发现宇宙中的“暗物质”,而伦理学家也长期忽视伦理学中的“暗物质”。拉图尔进一步指出,人类通过赋予技术设计以道德规范,通过技术人工物对人类行为进行调节,因此技术人工物充当着重要的行为规范者的角色,应该拥有道德主体地位。汉斯·阿切特胡斯Hans Achterhuis)在此基础上提出了“人工物的道德”的概念。他指出有些人工物如景区和影院的验票闸门可以规范逃票的不道德行为,可见这样的人工物在现实生活中可以倡导人类行为选择的道德自主性,实际上在行使着道德主体的权利和义务,应该可以视为道德主体。又如我们在车上增加一些技术设备,可以监测驾驶员是否饮酒或系安全带,及时发出警告,甚至禁止汽车发动,那么这些设备作为技术人工物就作出了道德行为,它们应该具有道德主体地位。维贝克(Peter-Paul Verbeek也支持这个观点。他认为人工物能很好地执行人类设计的道德理念,对人类的行为进行道德维度的调节。他指出:“技术人工物或许积极地影响着其使用者,并且改变着使用者感知世界、在世界之中及使用者之间相互关系的方式。与人类或多或少地相似,技术人工物本身及其活动可被证明为在道德上是善或恶的。”因此它不是简单的生产或生活工具,而是道德承载者、执行者和调节者,与人类一样是道德主体。

 

可见,随着科学技术的不断进步,技术人工物开始逐步拥有人类的部分甚至全部智能。对这些智能性的技术人工物的道德主体地位的研究也就被学者们提上了日程。丹尼尔森(Peter Denielson)、科林·阿伦(Colin Allen)、霍尔(Josh Storrs hall)、瓦纳(Gary Varner)、泽欣尔(Jason Zinser)等人都撰文或撰书表达了支持赋予人工智能体以道德主体地位的观点。

 

总的来说,自西方工业革命以来,伦理学界对于扩展道德主体的努力一直没有停止过。在人工智能技术不断成熟并深刻影响人类生存方式的今天,关于人工智能体是否拥有道德主体地位的讨论更是此起彼伏。主张人类不能赋予人工智能体以道德主体地位的学者认为人工智能仅仅是一种无生命的物质存在而已,对待人工智能体就应该像对待普通的机器一样;主张人工智能应该拥有道德主体地位的学者认为我们应视人工智能体为与动物、植物以及人类一样的生命主体,它们应该拥有与人类同样的权利和地位。

 

从伦理学发展历史的角度来看,道德的接受者或者道德的客体的范围的确在不断扩大。比如在很长的一段时间内,犯人、奴隶、动物等,或多或少被伦理学者们排除在道德接受者之外,它们无权享受道德主体善意的对待。但目前,各国的伦理学者都试图改变这种状况,他们尽力为服刑的犯人和动物的权利摇旗呐喊。有些环境伦理学家则提出,地球生态环境也算得上是道德接受者,所以也要享有与人类相似的权利。这些观点得到了很多人包括普通民众的支持。而扩展道德主体的努力则主要是基于应对生态危机和打破人类中心主义理念的初衷的,目前争议比较大。不管是何种考虑,目前我们的伦理学研究仍然只能在已有的伦理学理念的基石上探索,人类究竟能否将自身的伦理原则赋予智能机器从而使之成为一个道德主体,仍然是一个不确定的问题。

 

三、理性对待人工智能体的道德主体地位问题

 

笔者认为,一方面,从人类道德的起源和发展以及人工智能体本身是否具有意识、情感等实际情况来看,它目前不可能拥有道德主体的地位。另一方面,我们也不能忽视关于人工智能体道德主体地位的争论所带来的积极影响。

 

首先,人工智能体目前无法取得道德主体的地位。

 

第一,就人类道德的起源来说,道德不是从一开始就有的,而是历史的产物,是人类社会形成并发展到一定阶段才出现的。人猿揖别之时,人类个体的力量相当有限,无论是狩猎还是农耕,或是繁衍后代和发生部落之间的争斗,依靠个人的单打独斗都远不如结群而居更为有利,因此群居成为人类最为重要的生活方式。但是在生产力极度低下的社会条件下,群居生活中人们经常会发生个人与个人之间,个人与集体之间的利益矛盾,甚至冲突,出现“一个人与每个人的战争”,这极不利于人类整体的生存与发展。此时有威望有地位的领袖人物就会挺身而出,为群居的集体制定出一些每个人都必须共同遵守的行为规范,每个人都必须牺牲部分个人利益以换取更为基本的团体利益和个人利益,这就是道德规范最初产生的缘由。道德规范形成之后,所有的社会成员都必须自觉遵守,克制一些自私的冲动和行为。遵守规范者就会受到舆论的鼓励和赞赏,违反者则受到社会舆论谴责与惩罚。这样人们受到强有力的内心力量的鞭策,能够更好地规范自己的行为。每个国家、地区和民族都会在漫长的历史长河中形成固有的系统性的道德规范,并通过家庭、学校、媒体等途径一代代地传承下来,并不断完善。可见道德是人类为了更好地生存和发展而产生的,随着人类社会的不断发展变化而不断发展完善。道德自始至终都与人类息息相关,人类就是道德的主体,离开了人类则道德无从谈起。

 

第二,人工智能体不可能拥有意识。人工智能体整体上由两个部分构成,即硬件与软件。硬件由一系列复杂的物理性而非生物性的存在构成,毫无疑问物理性存在不具备自我意识和意向能力。软件部分的核心是一系列复杂的算法程序,那么这些算法程序是否具有意识和意向能力呢?笛卡尔(René Descartes)认为,机器拥有意识的观点是难以理解的,因为心灵跟身体在本质上是不同的。身体具有广延的特征,处于可见的时空之中。人类的心灵与身体完全不同,它是由精神原子所构成的,是具有思考能力和自我意识的。智能机器同人的身体一样也是实物,它是人类身体的一种延伸,它不可能具有类似于心灵的那些智能特征。目前人工智能学界的算法程序各异,但几乎都遵循“输入—输出”的基本模式,没有信息的输入就不会有相关决策的输出,它不能违反物理规律。而人类的大脑意识活动则复杂得多,信息输入无疑会在大脑中产生快速的反应并作出应对。即便暂时没有信息输入,人类大脑也会不知疲倦地运行,所谓“胡思乱想”“浮想连篇”就是这种情况。大脑储存的各种信息也会在某个不确定的时间产生化学反应,产生“灵感”“顿悟”等现象。可见人类的大脑意识活动并非完全受到纯粹物理规则的限制。

 

计算主义学派的学者认为,不管是人类还是人工智能,其认知行为都可以归结为计算,“计算主义认为智能行为是由智能体的认知系统(或大脑)进行的计算来因果性地解释的,用大致等价的术语来说,计算主义认为认知即计算”。但是塞尔批评了这种观点:“纽厄尔和西蒙(1963)在其著作中写道,计算机的认知与人类的完全一样。我喜欢他们的直率……我想要论证,带程序的计算机理解的实际上就是汽车、计算器理解的东西,也就是说,它们其实谈不上理解了什么。”塞尔设计了中文屋思想实验,在实验中,塞尔通过智能机器根据中英文对照手册对输入的中文符号进行转换,最后输出相应的英文。在不了解情况的人看来,中文屋内的人应该是个中文通,但塞尔认为,屋内的人并不理解中文,因为屋内人的翻译仅仅涉及句法学,而与语义学无关。事实上,人类的意识活动和意向性活动都具有语义特征,人工智能体无法真正通过掌握语义学实现对输入信息的理解。人们所说的智能机器的学习能力绝非类似于人类的学习,而仅仅是预先输入的符号和概念的重新组合,无法应对复杂的实际情境和多变的词语含义。例如阿西莫夫(Isaac Asimov)提出的机器人三定律第一条,即“机器人不得伤害人类或因不作为伤害人类”,在这一条定律中,“伤害”“人类”“伤害人类”这些符号都有着各种含义,也会因情境的变化而变化,人工智能体很难在复杂的情境下作出正确的判断和抉择。例如,如果有人正在偷盗或猎杀受国家保护的野生动物而受到攻击时,智能机器是应该制止甚至伤害这个人,还是应该协助他完成自己的目标呢?人类自然很容易作出判断和行动,但如果让人工智能体来处理这种情况,则会面临巨大的风险。因此人工智能体不可能也不应该成为与人类平等的道德主体。

 

有人提出,我们可以通过“自上而下”与“自下而上”两种方式在人工智能体中嵌入道德规范。所谓“自上而下”的嵌入方式就是在人工智能体的设计过程中将“正义论”“义务论”“德性论”等人类社会最重要的伦理理论嵌入其中,使之成为道德主体。阿西莫夫的机器人三定律被认为是“自上而下”模式的重点考虑内容。任何讨论自上而下式机器人道德设计的人都不能不谈阿西莫夫三定律。可见,“自上而下”的进路试图将普遍性的伦理学原则和理论嵌入人工智能而将其构建为道德主体。如前所述,人工智能处理信息的主要依据是语法,但伦理道德问题涉及非常多异常复杂的语义问题和情境问题,这些问题,如电车难题,即便是人类有时也会感到非常棘手,很难作出抉择,人工智能系统就更不可能准确无误地进行处理。所谓“自下而上”的模式,其理念实际上是要人工智能体像幼年人类一样,经历琐碎而复杂的伦理事件,逐步学会和掌握人类社会的相关伦理理论和道德规范,自己摸索处理伦理问题的合理方式,最终形成自己的道德原则和道德选择能力,能对自己的选择和行为承担责任。也就是说要将人工智能体培育为一种能够自由思考、自我判断的主体。然而,几乎所有的智能机器都仅仅具备某一种或几种能力,是人类为了某个特定的目的或任务而设计出来的。比如智能无人驾驶、智能新闻写作、智能下棋机器人等都可以在人类为其编写的算法程序的基础上,通过深度学习而在自己熟悉的领域内不断向人类的相关能力水平靠近,在这个领域内实现一定程度的自由选择,但它们都无法超越被设计好的算法程序去执行系统之外的任务,如智能下棋机器人就无法完成智能无人驾驶系统或手术机器人的工作。因此人类无法真正创造出全能的拥有人类所有智慧和技能的人工智能体,人工智能体无法真正实现理性人类那样的意识自由与自主抉择,更不可能拥有独立承担道德责任的能力。与人工智能体不同的是,与人的生物性身体紧密结合的人类意识是自由的、全面的、系统的,并不局限于对单一领域的事物和现象的反思与抉择。荷兰学者布瑞(Philip Brey)指出,要成为道德主体必须具备三个条件:“能够对正确和错误进行推理、判断和机智的行动;期望他们的行为遵守道德标准;对自己的行为和后果承担道德责任。”泰勒(Charles Taylor)则认为只有拥有五种能力的事物才可能成为道德主体:第一,判断道德上正确或错误的能力;第二,权衡赞成和反对某些选择的道德理据的能力;第三,依据这种权衡的结果作出决定的能力;第四,拥有实现这些决定所需的意志和能力;第五,为自己那些未能履行义务的行为作出解释的能力等等。如前所述,当前的人工智能体既不满足布瑞所说的三个条件,也不拥有泰勒所说的五种能力,人类短时间内不可能设计出来拥有人类情感和自我意识,能够作出自由抉择并承担责任的人工智能体,因此,智能机器不可能成为道德主体,只有拥有理性的人类才有能力进行道德推理,才有道德行为,才有道德责任感。因此拥有理性能力的人类才是真正的道德主体。

 

其次,通过赋予人工智能体以道德理论使之成为人类道德规范的承载者和执行者的建议有一定的合理性。

 

例如前面提到的拉图尔经常例举的“减速带”的例子,为了减小震动,司机自然会减慢汽车的速度。从后果论的角度来说,这与驾驶员接受交规教育并使交通规则内化于心的效果相差无几。通常情况下,我们的道德教化是以人为对象,使道德理论与规范内化于心并自觉遵守相关规则。“自上而下”的嵌入方式则相当于将道德物化,将本应内在于人心的道德规范外化至人工智能体中。人类在面对这种道德化的人工智能体时所作出的道德行为虽然并非出自内心的善良意志,但其实际行为受到了道德规范的规整和调节,达到了与传统道德教化同样的效果。传统的道德教化要求人们弄明白“人应该怎样行动才是道德的”这一问题,而将道德规范嵌入人工智能体中,以调节人类的行为则为这一传统问题给予了一个大异其趣的“物质性的答案”。

 

显然,从后果论的伦理学主张来看,评判一个行为是否道德的标准不是行为者内心的善良意志,而在于行为的实际效果,只要行为的结果有利于大多数人的权益和幸福,这个行为就是道德的。在他们看来,要使人类遵守道德规范,除了传统意义上的“道德教化”之外,这种“道德外化”或者“道德物化”的路径也是一个不错的选择,它的原理是将传统的道德规范与智能技术融合成为一体,使人工智能体充当行为规范者和调整者的角色。这种“道德外化”的进路与传统的“道德教化”路径的有机结合,有利于保障人类的行为符合普遍的道德原则。他们认为,这种方式有利于“人本主义”的伦理学发展为“非人本主义”的伦理学。这也与伦理学领域从“人类中心主义”转向“非人类中心主义”的理论主张高度契合。

 

四、结语

 

人们普遍认为,人类的道德与人类的理性行为是相辅相成的,道德理性通过人类的理性行为而得以体现,而人类的理性行为也肯定会闪烁着道德的光辉。因此人们在谈论道德时必然会涉及拥有理性的人的行为,只有理性的人类能成为道德的主体。相比之下,人工智能体不具备心灵和自由意志,如果人类将已被广泛接受的道德原则嵌入人工智能体中,在简单和普通的情况下也许它们能遵照道德原则完成指令,但是现实社会的实际情况是无比复杂的,即便人类自身,在一些两难情境下也很难理性地作出抉择。智能机器无法设定自我的目的,只会按照指令来行动,无法应对复杂的现实情况,不能根据自己的意志去独立地选择其行为,不会自主选择去做某些事情,只会依靠设计者事先设计好的代码来机械地完成指令。它们仅仅是人类智力和体力的延伸。因此,人工智能不可能超出所编程序规定的范围,依靠自主意识进行独立判断并实施行为,不可能在实际生产生活中面对复杂的情况,作出道德决策。目前来说,人工智能机器究竟能发展至何种程度是不确定的。不论人工智能体将来是否跟人类一样拥有意识和情感,是否能真正成为道德主体,我们都应该积极防范人工智能技术可能对人类带来的危害,将人工智能技术危害的风险降至最低,使其更好地服务于人类社会的发展。

 

(责任编校:张利文)

因排版需要,注释从略,请参阅期刊纸质版原文。 

授权转载请联系duanzexiao@hnass.cn。


刊名:《求索》

主管主办:湖南省社会科学院

编辑出版:《求索》编辑部

地址:长沙市开福区浏河村巷37号

邮编:410003

电话:0731-84219107   0731-84219506

线上采编系统:qszz.cbpt.cnki.net

郑重声明:本刊不以任何形式收取费用。投稿请一律通过线上采编系统,投给编辑个人的稿件一律不受理。除特约专栏外,本刊从未委托其他任何机构或个人组稿,请勿上当受骗。文章一经刊发,即支付稿酬。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存