大数据时代智慧社会治理中的人机合作
作者简介:张陶,中国矿业大学公共管理学院博士研究生;王锋,哲学博士,中国矿业大学公共管理学院教授、博士生导师。
摘要:随着人工智能技术越来越渗透到社会的日常生活中,我们的生活环境变得越来越智能化,当智能机器承担越来越多的公共产品与公共服务提供时,人与智能机器之间的合作就成为智慧社会治理中不得不面对的新问题。人机合作前所未有,而人机合作能够持续进行的前提是之一就如何解决因为人机合作而产生的责任难题。在公共产品与公共服务提供过程中,集体行为的特性使得责任很难区分。智能机器的加入,不仅增加了智慧社会治理的主体,也使责任区分变得更加艰难,到底是政府、智能机器还是生产机器的厂家来承担责任?而责任问题之所以难以解决,关键在于横亘在人们面前的一个无法回避的难题,就是如何面对智能机器能否与人相提并论,甚至超过人类,成为超人的问题。
我们这里所说的机器特指智能机器,即广泛采用人工智能技术而具有智能化特点的机器。随着人工智能技术广泛应用于社会治理过程中,传统意义的合作治理增加了新内容,那就是在我们熟悉的治理主体外,又增加了智能机器这一新的治理主体,也就进一步凸显出人与智能机器之间合作的紧迫性。可是,当我们承认人与智能机器可以进行合作的时候,面临着一个关键性的难题,即当人与智能机器采取合作行动时,合作过程中的责任由谁来承担?是我们还是智能机器?是政府还是生产智能机器的公司?如果我们需要区分人与智能机器之间的责任限度,那么就需要解决一个前设性问题,即智能机器能否成为一个独立的治理主体,或者在终极意义上,智能机器能否作为人来对待?
人机合作:智慧社会治理面临的新问题
人们更愿意在工具的意义上来理解信息技术对社会的影响。当人从自身出发去思考技术的时候,技术是从属于人的,是人认识及改造自然与社会的工具。当我们从这样的立场出发去思考人工智能的时候,我们自觉不自觉地也持有这样的立场。事实上,当人工智能技术还处于初级阶段时,基于此种技术而产生的机器确实只能被看作我们手中的便捷工具。当计算机引入到政府治理领域时,计算机大大方便了人们获取信息的速度,也提高了工作效率。显然,计算机不过是提高政府工作效率的一种工具。那些深受现代信息技术影响的学者,其工具论的立场根深蒂固。麦克卢汉的学生洛根就明确说过,计算机是一种强大的工具。研究网络社会的另一位学者迪克认为,“数字民主和电子政务最好的成绩是更好地供应、检索和交换政治与政府信息。”在这里,他们持坚定的工具论立场。即使是那些早期研究电子政务的学者也没有脱离工具论的立场。他们更多地认为所谓电子政务不过是政府通过运用互联网及计算机等信息技术手段,赋予政府部门以独特的能力,进而提高政府工作效率,改进政府与社会、政府部门之间的关系。韦斯特曾把电子政府划分为四个阶段,即公告板阶段、部分服务传递阶段、带有完全可操作性和整体性服务传递的门户网站阶段和有公众普及和强化问责特征的互动式民主阶段。从功能的意义上来说,韦斯特所说的公告板阶段及部分服务阶段是电子政府发展的早期阶段,这一阶段机器的工具性特征特别明显,公告板就是把政府搬到网上,相当于政府在网络上公布通知,而部分服务传递阶段的电子政府虽说有了一些改进,但也仅限于增加了一些信息搜索与服务传递功能,并没有从根本上改变机器的工具属性。
随着计算机智能化程度的提高,人们对计算机的认识在不知不觉中发生了改变,即从属于人的工具变成辅助人们采取行动的可靠助手。韦斯特所说的电子政府的第三、四阶段,即带有完全可操作性和整体性服务传递的门户网站阶段和有公众普及和强化问责特征的互动式民主阶段属于我们所说的辅助意义的机器。就政府行政而言,随着机器智能化程度的提高,机器承担了越来越多的工作,比如信息收集、整理,提供给行政人员相应的备选方案等,这些工作原来不得不由人自己来承担。事实上,当机器越来越多地承担这样的工作时,也就意味着机器事实上具有了辅助人的功能。从工具到辅助的转变,不仅仅是人们认识上的变化,更意味着机器本身在社会中的作用发生了变化,虽然这种变化还只是初步的变化。事实上,当计算机一定程度上智能化时,人们不自觉地承认它们在人类的工作中发挥着辅助性作用。即使在机器的智能化程度得到大幅提高时,人们对智能机器的认识仍然停留在这一水平上,即智能机器至多具有辅助的作用。但是,无论是工具意义上还是辅助意义上的智能化机器,从根本上还没有摆脱工具的命运。
而当机器越来越智能化时,或者达到某些人工智能技术专家所说的强人工智能阶段时,也就是我们所说的智能机器越来越具有自主性,依靠人工智能、深度学习等技术支撑的智能机器日益广泛地渗透到我们的生活中,“人工智能不再仅仅是没有心智的自动机器,或者小说电影中的虚构形象,而是和我们生活在一起,用我们的语言交流,成为我们的朋友、爱人、同事,甚或潜在的敌人。”当我们的生活环境越来越智能化时,我们对智能机器的定位就不能再局限于工具或辅助这样的功能上。“电脑网络已形成一个新的社会机体,那么与电脑显示器打交道便受到潜在的辐射影响这种说法,则暗示电脑与其使用者之间的联系已经密不可分。人类与机器间的共生合成体可说是正在形成。”随着机器的智能化程度进一步提高,当智能机器具有了自主性时,它就不再是我们生活中的辅助工具,而是我们不得不面对的一个合作者。以人工智能为代表的信息技术深刻塑造着我们的世界,并且形塑着我们的生活方式。当这样的时代来临的时候,我们就不得不面对这样的现实而又日益紧迫的问题,即在一个智慧社会中,我们如何与智能机器进行合作。人与智能机器之间的合作不再是一个想象的问题,而是一个越来越现实的问题,是一个摆在我们面前日益紧迫的问题。
在传统的社会治理中,治理主体无非是政府、社会组织、公民社会、企业等多元化的力量或组织。然而,当我们去思考智慧社会条件下的多元治理时,智能机器就成为我们不得不面对的一个崭新的治理主体。可是,一想到不得不与智能机器要进行合作,心里总有百般的不情愿,我们从心理无法接受这样的事实,即把智能机器当作与我们一样的主体来看待。然而,不管我们心理上如何不愿意,智能机器广泛渗透到社会生活中、甚至成为我们生活中的一部分这样的事实却是无法扭转的。当我们的生活无法离开智能机器时,甚至当我们所需要的公共产品与公共服务也不得不由智能机器来提供时,我们就不得不面对智能机器已经成为社会治理主体这一现实。
谁来负责:人与智能机器的合作困境
当作为主体的人静下心来与智能机器展开合作时,就面临着他们之间如何合作的问题。机器人是人的辅助者,还是智能机器后来居上,不甘心处于人的支配之下,成为人类的主人?我们知道,合作是平等主体之间的合作。如果合作者之间存在事实上的不平等关系,这样的合作不是真实的合作。如果我们承认智能机器成为与人类一样的主体,那么他们之间的合作如何进行。显然,从合作的条件性出发,“在社会整体的合作框架之下的合作行动仍然需要一定的条件,合作者需要围绕合作的主题、合作的内容及合作的方式等展开一系列行动去理清合作的条件,并实现对合作条件的充分利用,才能达成理性的和积极的合作。”
由于社会本身的复杂性与高度的不确定性,要我们为人与智能机器之间设定一种普遍的合作模式是不现实的。但是,在具体事务中采用何种合作方式、如何开展合作却是可以在具体场景中去思考的。就合作本身来讲,合作的实现需要合作者具有相应的合作能力,罗尔斯把这种合作能力明确设定为合作社会中公民的正义感能力与合理善观念能力。显然,就目前的人工智能技术来讲,让机器人具有道德能力,在目前还不具备这样的技术条件。虽然已经有人进行这方面的研究,并且试图通过逻辑计算的方式使机器人具备相应的道德能力,但是,道德问题并不能等同于逻辑运算,我们不能把道德问题还原为逻辑运算。更何况道德问题之所以令人神往,恰恰在于道德伦理需要人的道德直觉、情感等因素发挥作用。
从合作能力中所需要的道德能力来看,智能机器显然还不能与人相提并论。但这并不是说人与智能机器之间无法进行合作。从理性的一面来说,当智能机器具备相应的认知、分析和判断能力后,也就具备相应的合作能力。这就意味着人与智能机器之间的合作是可能的。而我们之所以强调合作需要相应的合作能力,是因为合作意味着具有合作能力的合作者之间开展合作或者使合作持续进行的一个基础性条件是要求合作者在合作行动中承担相应的责任。对政府、企业、社会组织来说,它们确实拥有这样的责任能力。甚至对在组织中的人来说,这种责任也是非常明确的。就合作行动来说,要使合作能够持续展开,合作者之间如何进行责任划分是清晰的,这也就意味着只有在划定相互之间责任的基础上,才能使合作持续下去。
然而,当智能机器越来越具有自主性和自由能力,甚至当智能机器能够独立做出判断采取行动时,也就是说,当智能机器越来越具有人的特点、能够独立行动时,当越来越多的智能机器成为公共服务与公共产品提供不可或缺的一部分时,当智能机器成为社会治理体系中不可缺少的组成部分时,一个让我们感到尴尬而又棘手的问题浮现出来:智能机器具有责任能力吗?如果是肯定的,那它与其他治理主体之间的如何进行责任如何划分?如果没有责任能力,我们还能承认它是多元社会治理主体中的一个组成部分吗?一方面,就智慧社会中提供服务的智能机器来说,它们可能并不是以物化的形式存在,“未来由机器人为人类服务的古老梦想最终将变成现实。但它们是以在地理上分布于各处的多样化、高度专业化并在进行相互交流的智能设备集合的形式出现的,而不是像工业时代晚期的卡佩克和兰所想象的那些叮当作响的多功能人形机器人。”另一方面,人与智能机器之间的共生共在正在形成,可是,“我们一直觉得人类身体在世界中的位置有一个界限,而这种共生合成体威胁了我们这种感觉的稳定性。人类创造了电脑,接着电脑又创造新类型的人,这也许正在悄然发生。”在人与智能机器的共生共在这样一种新的关系面前,在智能机器并不是以典型的物化方式存在时,我们如何来确定他们之间的责任,这确实成为一个难题。
以公共行政决策为例。我们非常清楚,决策要求决策者承担相应的责任,即是说,当因为决策失误而要追究决策责任时,决策者的权利-责任关系是非常清晰的。即使我们不承认智能机器是与人类同样的主体,即使我们认为智能机器只是辅助人类进行决策,但当因为决策本身出现问题时,谁来承担责任?是政府?智能机器?还是生产智能机器的厂家?如果要智能机器承担责任,我们对它处以何种处罚?降级、降职还是相应的法律处罚?即使我们可以对智能机器进行处罚,这种处罚如何实施?显然,我们非常熟悉的应用于人类自身的种种规则在智能机器面前都变得无能为力了。智能机器不会贪婪,不会嫉妒,不会有人的种种欲望,就此而言,我们设定的种种针对人自身的规则对它们起不到任何作用。更为严重的是,即使我们不愿意承认智能机器的主体性和自主性,即使我们只认为它在决断中具有辅助性作用,一旦行为做出时,当我们去追究行为责任时,我们又如何判断人与智能机器之间的责任,到底是因为智能机器所提供的信息和选择方案而影响了人的判断,还是作为决策者的人选择性了解智能机器所提供的信息而导致的最终结果,这其间的责任限度如何才能准确厘清。
显然,在这个问题上,如果必须有人来承担责任的话,政府也不会主动承担责任。我们非常清楚,行为是由政府与智能机器共同做出的,在共同行动中政府与智能机器之间的责任界限很难进行判断,这就使人机之间的集体行动的责任难题凸显出来。更何况就政府本身来说,官僚制组织会通过自身的运作机制而倾向于有组织的不负责任。既然政府与智能机器都无法承担责任,难道我们最后把责任归结为生产智能机器的工厂?因为工厂在设计生产时,没有把责任预先考虑在内,甚或工厂没有设计出相应的程序从而导致智能机器倾向于不负责任。况且,智能机器作为工厂生产出的产品,厂家要对其产品负责。可是,责任问题是在政府使用智能机器的过程中产生的,工厂也可以此为理由,拒绝相应的责任诉求。
这样,当我们把智能机器引入社会治理体系中时,谁来负责这一问题以一种非常尖锐的方式凸显出来,到底谁应当承担责任?政府、智能机器还是生产厂家?如果说传统官僚制本来就倾向于推卸责任,那么,随着人工智能技术的引入,当智能机器越来越广泛地存在于生活中,甚至当智能机器为我们提供公共产品和公共服务成为一种常态时,智能机器在不知不觉之间成为一个治理主体时,政府、智能机器、生产厂家之间的责任关系如何处理?如果不能解决因为智能机器而引发的责任问题,我们所期望的人机合作治理就难以持续下去。
终极追问:智能机器能否成为治理主体
当我们寄希望于通过智能化的技术来优化政府结构、提升社会治理效率时,我们在不知不觉中发现,因为责任难以确定,人机之间的合作治理难以为继。这就使得我们不得不进一步追问人机合作难以持续下去的根源。
从多元化治理这一视野来考察,智能机器成为治理主体似乎没有什么疑虑。智能机器的加入只不过在原来已有的多元化治理主体当中增加了一个主体而已。对生活于当下社会中的人们来说,互联网、计算机等就像每天呼吸的空气一样稀松平常,它们早已成为我们生活中的一部分,如果没有互联网、计算机等,我们面对社会治理问题肯定会变得不知所措。当通过人工智能等技术使计算机等变得更智能化时,当计算机从工具走向辅助、再进一步从辅助变得越来越具有自主性时,我们也就在不知不觉之中认为智能机器成为众多治理主体中的一部分,甚至当计算机的自主化与智能化得到大幅提高时,我们甚至认为它是一个理所当然的一个治理主体,那么智能机器能否成为主体?“信息方式理论的关键不是计算机是否是人脑的精确复制品或甚至比人脑还好,而是电脑书写是否对主体性的诸种性质提出质疑。”
在我们看来,主体之所以成为主体,至少意味着具有自由意志与反思能力。如此看来,即使我们勉强承认智能机器可以成为治理主体,但是按照是否具有自由意志及反思能力这一标准来衡量,至少目前智能机器还没有自我反思能力。从表面上来看,智能机器似乎有自由意志,然而当我们了解了智能机器的工作原理后,我们会发现,这种自由意志在某种程度上是一种表象。自由意志以自由选择为前提,而能够进行自由选择是以存在众多可选择的方案为前提。建立在人工智能技术基础上的智能机器其工作原理恰恰是通过程序性设计让计算机在面临具体情境下进行选择,其典型的表达语式就是“IF……THEN”。也就是说,计算机的选择实质上已经通过程序设定好了。这意味着这种自由即使有也是有限的。对一个具有自由意志能力的主体来说,我们宁愿不要这种设定下的自由。
就反思性这一面来说,目前人工智能领域流行的深度学习似乎在某种程度上表明智能机器具有反思能力。反思意味着主体能够意识到自身存在的欠缺,正是这种欠缺推动着主体不断走向自我完善。当我们这样来思考时,目前技术水平下的智能机器还不足以具有这种反思能力。正是在这个意义上,洛根坚定地认为,建立在人工智能基础上的智能机器无论如何也不可能成为主体。“计算机生成的‘智能’不是人的智能,而是人的智能的模拟。”
更进一步说,对智能机器能否最终成为独立的治理主体,需要我们回答一个问题,智能机器能不能与人类相提并论?也许有人会觉得这个问题太幼稚了,智能机器怎么可能和人相提并论呢?确实,从人自身的独特性来说,我们很容易得出答案,那就是智能机器永远不可能成为人。人之所以为人,就在于人既有理性,又有情感,人既受生理因素的影响,又受心理因素的影响。面对人工智能技术的飞速前进,人类原来认为独属于自己的能力与工作,现在人工智能都做得得心应手,在某些方面甚至比人做得更准确、更有效率。面对这种情况,情感似乎成为人类维护自身尊严的最后一道防线。在洛根看来,“人的头脑既受神经元和电子流的影响,又受内分泌系统和内啡呔的形塑。同理,人的思想既受理想和逻辑的控制,又受愉悦、爱情、道德、审美、神秘感和好奇心的控制。”人的独特性在于人有情感、有直觉,有喜怒哀乐。在这方面,即使我们教会机器人去体验人的喜怒哀乐,那也是对人类情感的模仿。
正因为如此,洛根一再强调,人工智能和人类智能不能相提并论。“人工智能不是一种独立的智能形式,而是人类智能通过计算机这种人造物所进行的传播,计算机是信息储存和加工的媒介。……人工智能系统是人造物。人造物不容纳智能,也不聪明,其功能只不过是人类智能的媒介。读一本书并不等于会见了书的作者。用电传进行的会话模拟了面对面交流的话语,却不能替代面对面的会晤。”当然,洛根还是站在人类中心主义的立场上来思考人工智能的影响,其中包含了对人类独特性与至上性的坚定维护。福山也持有同样的立场。福山认为:“人类存在的最重要的意义,完全不是由于物质性设计。而正是人类所独有的全部情感,让人产生了生存意义、目标、方向、渴望、需求、欲望、恐惧、厌恶等意识,因此,这些才是人类价值的来源。”在福山看来,人之为人的独特性就在于人拥有情感,机器“几乎不可能获得人类情感。安卓系统、机器人或计算机突然能够经历人类情感,比如,恐惧、希望,甚至性的欲望,这些都是科幻小说里的事情,从没有任何人设想过这一切如何发生,哪怕仅是有细微的靠近。”
正如萨特所说,人是一种欠缺性存在。现实中的人总是不完满的,总是存在着种种不足、不如意,存在着某种令人无法实现的遗憾等,正是这种不完满让我们的生活充满了各种可能性,其间有希望、有追求、有沮丧,甚至有放弃……正是这多种体验让我们体会到生活的丰富多彩。只有经历了生活的艰辛与痛苦,只有经历了生活中的酸甜苦辣,我们才有资格说是一个大写的人。然而,当人工智能技术与现代生物技术相结合,让我们变得越来越完美,甚至于要把我们造就成一个“完人”或者“强人”时,当我们不需要任何努力,一切就变得触手可及时,人之为人的意义体现在哪里?人的尊严与价值又如何体现?正因为如此,福山严肃地告诫人们,“我们能够治愈疾病,能够延长寿命,能够使孩子更易于管教,但代价却是一些无法言说的人类品质的丧失,如天分、野心或绝对的多元性。”也许有人会说,我们可以实验,实在不行的话,我们还可以改过来。在人及人类社会的问题上,甚至在应用技术改造人及人类社会这一问题上,我们需要注意的是,人及人类社会的演进具有不可逆性。这也就是说,一旦我们选择了某种发展路径,再返回原路的可能性几乎为零。就像我们今天离不开智能手机与互联网一样,这些设备甚至成为人们的标配。我们很难想象,今天的人们离开了网络,他们如何生活。我们不可能退回到没有网络、没有智能手机的年代。也就是说,当我们试图怀着某种良好的愿望去改造人及社会,甚至当我们变得对某种技术越来越依赖时,不经意的改变一旦发生,比如,一旦我们选定人工智能技术来改进社会治理,我们面临的后果可能是无可挽回的。
确切地说,人之所以为人,在于我们的生活中更多地存在着偶然性。但是,人工智能技术的发展却要消除偶然性。“人工智能可能让每一个人在个人生活中都达到最佳状态:总是选择正确的伙伴、专业、职业,选择正确的一切。‘困难选择’变得没那么困难了。定义我们道德生活的无法量化的部分变得可以量化了,拥有了这样的技术,从我们的决策中获取最大的效用变得太有诱惑力以至无法拒绝。不需要质疑道德窘境、安全地知道我们不会犯错,真是这样我们反而处于危险之中,我们可能失去了作为人类最为珍视的一部分:我们的人性。”人非神灵,人也许会犯错。生活中有许多偶然性是人自身无法掌控的。正因为如此,犯错的人才显得更可爱,才值得我们尊敬。人正是从犯错中变得成熟起来。然而,人工智能技术总是在适当的时候替我们做出正确的选择,这样的话,我们就永远不会犯错了。永远不会犯错的人与神有什么区别?如果不是神,那也是一个超人,一个能力出众、永远不会犯错的超人。
当我们强调人的独特性,当我们强调人所具有的独特品质——情感时,是否意味着面对人工智能技术的高歌凯进,人类只能逡巡不前?就人工智能的发展以及智能机器的发展前景来看,我们似乎还看不到任何让其停下来的迹象。这是否意味着我们在面对这一新技术时的两难处境:一方面,人工智能所带来的便捷与效率是有目共睹的;另一方面,面对人工智能后来居上,甚至取代人类智能的可能,人又不无担忧,在日益强大的人工智能面前,人还有什么用处?我们还有什么存在的意义?我们对人的定义是否还须固执于从人自身这一角度去思考?就目前来看,我们似乎还无法提供一个明确的答案。但是,借用福山一书《我们的后人类未来:生物技术革命的后果》译者在其译者前言中的话可以表达我们对智能机器未来的思考:“展望现代科技发展的前景时,必须摆脱人类中心主义的思路;反思现代科技所带来的伦理问题和政治问题时,人类中心主义却是必须坚持的原则和底线。”前一立场能够使我们清楚地预见危机,后一视野能够让我们有足够的办法解决危机。就智能机器能否成为与我们相提并论的治理主体这一问题来说,答案也许就在人类中心主义与超越人类中心主义之间。
文章来源:《学海》2019年第3期
本期小编:小胖师兄