查看原文
其他

助手还是主人? AI 在现代政治生活中的角色辨析|圆桌论坛 第020期

政治学人 政治学人 2019-04-24

回归生活的政治·圆桌论坛

第二十期

助手还是主人?

AI 在现代政治生活中的角色辨析


问题发布

我们生活在一个信息社会中,身边的一切仿佛都被迅速数据化并接入网络。这些被收集起来的数据总量极大、维度极多、复杂性极高且时时变化,处理这些数据所需要的计算能力已经远远超出了人脑的极限,因而我们不得不依靠机器的计算能力才能对“大数据”加以筛选和分析。基于此,在不远的未来,由人工智能(AI)参与甚至全权负责完成治理决策将是一个必然的趋势,而在这样的未来世界图景中,人类的政治形态必将相应地发生变革。史蒂芬·霍金、比尔·盖茨和伊隆·马斯克等人,近年一直在各种场合多次呼吁世人警惕人工智能的“军备竞赛”,特别是要警惕军用人工智能的研发,认为这有可能“唤出魔鬼”。应当说,除了研发杀人机器人外,在政治领域的很多方面(如竞选、投票、代议和立法等等),人工智能都可能开启潘多拉的魔盒,在解决问题的同时又给人类社会带来诸多前所未有的新问题。我们目前正站在一个十字路口,探讨政治领域中人工智能的身份角色和职责边界,是思想界亟需完成的“时代课题”。



观点阐释

张乾友


人工智能的发展是人类社会的一场试验。这种试验的目的,一是去看一种被视为具有革命潜力的技术本身能够进化到何种程度,二是去看这种技术对于社会到底会产生何种程度的影响。之所以说是试验,而不是探索,是因为人工智能对于我们并不完全是未知的。经历过历次重大技术变革之后,对于抽象意义上的技术发展逻辑与人工智能这种具体技术的存在性质,我们已经有了相当程度的认识,但对于它的实际发展潜力,我们并没有确切的判断。同样,在当前人类的政治想象中,我们已经为人工智能技术预留了相当大的作用空间,但同样不确定的是,我们不知道人工智能技术是会沿着我们预留的空间发展,还是会突破这一空间。在某种意义上,政治是一个规范体系,通过这一规范体系,社会可以解决自身面对的许多问题。但任何规范体系都有它解决不了的问题,而且政治本身具有极大的惰性,非常难以从内部产生变革的动力,在这种情况下,我们希望技术变革能够为政治变革提供推动力,让规范体系能够保持自我完善的可能性,让我们能够以政治的方式来解决更多问题,来更好地解决这些问题。

在这里,我们相信政治有它自己的价值和逻辑,保护政治的价值和保护解决问题的政治逻辑。但同时,过去几十年来,科学技术与管理技术的许多变革已经呈现出了否定政治价值和用技术逻辑取代政治逻辑的倾向,尤其是,人工智能似乎意味着人的政治判断可能让位于技术判断,意味着寻求最优解的技术逻辑可能让作为一种规范性思维的政治逻辑无从立足,从而取消政治存在的前提。对政治理论来说,对这种挑战的回应,一方面涉及如何在新的技术条件下重新证成政治的价值,另一方面涉及如何在新的技术性价值与传统政治价值之间寻得平衡,以重新设计政治这一规范体系。

张雪帆


人工智能的进步毋庸置疑地对整个社会的政治行为和政治想象产生巨大的冲击。很多时候对于这样的新鲜事物,我们很难简单断言是好是坏,但对其投以关注是一种应该的态度。我在美国的时候曾经和Dr. Catlaw参加了 The Quantified Self的Arizona区的研究。在那时起,我就发现信息技术的进步在政治生活中透射出两种矛盾的意向:

一方面,随着信息处理能力的提升,我们看到了泰勒主义的回归。这种观点最口语化的表述就是“别瞎操心,让专业的来”。我们不需要每位乘客都明白航空工程的原理,但只要政府组织过专家进行论证,设立标准,安排检测,没有任何航空工程知识的老百姓都可以放心地坐上飞机,享受航空公司的服务。与之同理,在公共行政事务之中,随着信息技术的进步,痕迹数据的挖掘,许多信息处理行业已经采取针对性的投送服务。在这样的情况下,如果专家比人民更知道公共管理的最优法(one best way),通过大数据信息挖掘可以知道公民的偏好习惯,那么我们许多基于传统社会契约的代表性假设都将失去意义。可以说,随着专业术语、专业知识的强势,人工智能的工具性应用,公民进入过程控制的门槛大大提升了。

但另一方面,信息技术的进步使得数据的制作简易化,这使得普通人获取整理数据、并用科学语言表达自身、定义公共议题的门槛大为降低。例如传统测心率需要到医院照心电图,后来技术进步使得24小时动态心电图成为可能,再后来甚至智能手环都可以开始统计个人的心率数据。这种数字生产的个人化,使得数据不再垄断在专门机构专家手上,大量数据可以由公民生产,可以被公民定义。这种情况下,政治更加回归到福柯所谓的“governmentality”的意涵上。

因此,人工智能时代,数据处理的高门槛和数据生成的低门槛这组矛盾将不断碰撞,究竟何为公共领域,怎样才是政府边界等问题将变得越来越超出传统的框架之外。矛盾终会形成超越。

贾开


 “助手”还是“主人”这样的二分法更有可能是AI在现代政治生活中所将扮演角色的两个极端,其是整个频谱上的两个端点。比如在有关AI伦理的讨论中,阿西莫夫机器人三原则、EPSRC(英国国家工程和物理科学研究委员会)起草的机器人准则都将机器视为产品或工具。在这种视角下,AI将被框定(以及限制)为既定现代政治生活框架内(法律和技术标准范围内)的人类产物。很明显的,这种伦理视角束缚了AI本身可能推动人类社会进步的潜力,而其到底在多大程度上能够实现,也是一个未知数。或许正因为此,包括阿希洛马、IEEE、USACM在内的诸多机构(或会议)所提出的AI的伦理原则,更多的是将AI视为法律意义上的责任主体,从而在此视角下探究对其进行规制的政策路径。对于后者而言,其已经开始想象AI作为“主人”的未来可能性,例如阿西洛马23条军规即明确提出了对于超级AI研发的担忧。不过尽管如此,对于AI作为“主人”的想象,更有可能还是精英阶层在自觉或不自觉中所创造的“理论对话”,其与人类现代政治生活的紧密程度,对于经济发展的贡献程度,对于人类社会作为整体福利水平的改善程度,或许都相距甚远。《卫报》对于阿西洛马23条军规的批评正来源于此,其认为该伦理原则的起草主体过于封闭,过于关注“超级人工智能”的危险而没有注意到AI当前发展对于普通人的影响。从这个角度讲,当我们在讨论远景时,“助手”和“主人”的分野或许是有益的;但当我们在讨论近期或中期的政策选择时,或许更应关注的是在这两个端点之间的丰富频谱,而非跳过这个过程而直达端点。


质询与回应

TO张乾友老师:

     请问张老师,在人工智能时代,政治价值是否会发生改变呢?如果会改变,政治价值可能会纳入哪些新的元素?

张乾友


在人工智能时代,政治价值一定会发生改变。

政治理论关于政治的界定一直包含着认知性的维度,人独特的认知能力是人作为“政治动物”的前提之一,进而,政治建构才能围绕着人的价值而展开。现在,人工智能正在挑战人的认知独特性,而且,从已有的一些发展来看,人工智能在认知层面上超越人本身,似乎只是一个时间问题,那么,人是否还有能力基于自己的价值来建构政治就是存疑的。当然,政治理论关于政治的界定还有规范性的维度,对这一维度主张,政治本质上是一项道德事业,是道德推理的一种实践模式。因此,人的道德存在就构成了政治的价值基础,构成了人主张政治“主权”的依据。人工智能不是一种道德存在,但它可能学会道德推理。

从一个方面来看,这意味着人工智能即使在既有的政治模式下也可能提出很有说服力的竞争性价值主张;从另一个方面来看,这意味着价值证成可以成为人与人工智能寻求积极对话的一种方式。我们接受什么样的政治价值取决于道德推理和价值证成的过程。规范理论的一大成就是确立了某些人不能因为其认知优越性而垄断道德推理和主导价值证成的前提,在人工智能时代,这仍然是规范理论可以前行的方向。人工智能是文明的产物,也会重塑文明,而它能在何种程度上重塑文明,也取决于它所处的理论框架。

所以,我们当前面临的并不是会发生什么样的改变、会产生什么样的冲突的问题,而是我们能够做出什么样的努力,来产生我们想要的改变和避免我们不想要的冲突的问题。


TO张雪帆老师:   

张老师的观点最后浓缩为专业化的高门槛和数据生成的低门槛之间的矛盾,那么即便专业化也有可能技术失控,而且好树也可能结出坏果子。所以,张老师立论的因果逻辑是什么?

张雪帆


其实我观点最后的总结是AI带来“数据处理的高门槛和数据生成的低门槛这组矛盾”。

所谓数据处理的高门槛就是说,我们现在的AI算法越来越复杂。大家不难想象一下,我们在看春秋战国时期的政府管理书籍,其中对管理对象的数据处理基本仅限于简单运算,到近代社会开始出现描述统计。在这样的发展过程中,最初的数据处理是没有任何教育门槛的,只要能数手指点数就能理解。到近代,只要有基础教育都能理解百分数,平均数等的概念,就可以理解数据处理所带来的意义。而当机器学习盛行以后,又有多少人真的明白神经网络分析的算法结构。当百度算法告诉你,某条近路可能没有另一条远路好走,因为你不熟悉的时候,你真的明白他分析你不熟悉近路而绕路更好的数据逻辑么?其实绝大多数人是不知道的,这时只有变成一种盲目的选择,我相信百度,或我不相信百度,而不是有理有据的相信。盲从是政治的最大隐忧。

但另一方面,春秋战国时代的数据可以纳入公共领域的统计是非常有限的,到了近代仍然是控制在官僚部门手中的,统计的口径和数据来源所有都是统计部门决定。但AI技术大数据使得各种数据获得变得方便,你我的日常痕迹都可以成为公共数据的一部分。未来产生数据的门槛会越来越低,这使得越来越多数据可能产生新的议题。议题设置的开放是政治最大的活水。

AI就是在盲从和开放中为我们带来威胁和希望!


TO贾开老师

       请问关注两个端点的丰富频谱是指既不是助手也不是主人吗?但实际上,近期人工智能依然在助手阶段?而且人工智能发展如此快,说不定“明天”就有了一个全新的角色。因此我认为更多要考虑未来发展,使其仍可控。

贾开


所谓关注频谱中间部分,实际上是指,以不超越现有发展技术水平但又不过度限制技术发展可能性的态度,面对人工智能发展所可能引发的治理风险。

近期的人工智能发展,实际上已经不能视之为“助手”。将人工智能视为“助手”的背后是将其视为“工具”的倾向,而这种“工具主义”思维一方面可能限制技术的发展,另一方面也可能将我们引入伦理困境。因为如果被定义为工具,那么人类便可以对人工智能进行“压迫”,可以命令、可以丢弃、可以损害;但反过来,我们期待的人工智能却是具有感知、认知、情感的实体存在。如果人类社会对于虐待动物都不能接受的话,那么我们何以能接受对于人工智能的“虐待”?这便是阿西莫夫和EPSRC伦理原则所可能导致的困境。

就将其视为“主人”并因而对人工智能的发展充满警惕的思想而言,类似于我们对于基因技术的警惕,是有所裨益的,比如在司法决策领域限制不透明的人工智能的使用、在军事领域限制人工智能的使用,都是出自于这样一种思维。不过就现在的技术发展水平以及未来可能路径而言,对于人工智能作为“主人”的担忧仍可能为时尚早。即使不讨论技术发展的可能性,这种担忧可能也同样面临认知上的挑战。事实上,对于“主人”的担忧具有一个潜在假设,即认为“机器具有取代一切的潜力和可能性”,甚至包括人类的创意,乃至精神。然而,“精神”真的是可被计算的吗?或者反过来讲,人工智能也可以具有“精神”吗?这一问题并非当前才出现的新问题,长久以来对于“精神”与“物理定律”的关系的讨论都与此相关,当前人工智能的快速发展也并不能给予此问题以肯定的回答。从这个角度讲,我们仍然可能不必要恐惧这个未来“主人”是否会来临,而更应该担心当前人工智能的运用及其影响。


学术争鸣

张乾友


 贾老师关于不能以工具主义的思维来看待人工智能发展的观点很有启发。比如人本主义,并不是说人是目的,其他都是工具,这其实是一种工具主义,而从工具主义出发,所有存在物都可以成为工具,人和人也互为工具。从这个角度去看,人工智能的发展前景在很大程度上取决于我们能否超越工具主义这种根深蒂固的思维方式。我个人近期在试图构造一种道德分工论,其中也有把人和技术纳入同一个规范框架的意图。

雪帆兄提到大数据技术对偏好信息的整合,的确对传统的代表性政治构成了挑战。如果代表制度的功能主要在于偏好的传递与聚合,那现在似乎不再需要代表了。不过,集体决策本身不仅是一个偏好聚合的问题,更重要的是价值判断以及对价值分歧的解决。在这方面,代表制度可能仍是有价值的。不同价值主张在形成内部共识和展开外部论辩的过程中总会产生代表性的陈述者,不过,这种陈述者的产生和选举脱钩倒是可能发生的,也可能带来代表的去职业化和政治的进一步平民化。当然,前提是我们真的认为政治的核心仍然是个体价值判断的独立性和在此基础上对价值分歧的集体解决。



张雪帆

我会这么回应乾友的问题:

其实乾友的回应有个潜在预设,价值判断及对价值分歧的解决是不能假手于人的,而必须价值持有者自身表达和整合。只要在这个前提之下,乾友的论述就是合乎逻辑的。问题这个前提为什么成立呢?这本身就值得我们深思。不管东马西马,全世界马克思主义者都强调社会对人意识的塑造。当我们不再把我们这些潜在假设视为理所当然,而摆在台面分析的时候,我们就能看到事情更深层次的另一面。我们是从哪里得到价值判断不能假手于人这个观念的?

当我们思考这个问题的时候,我们一个很直觉的判断就是因为价值判断是我们每个人作为独立思考个体存在的标志,这太重要了所以无论怎样我们不能委托出去,否则自主意识层面的“我”就不存在了。这种论述咋听起来似乎有点道理,但一旦深究就会发现,我们其实对很多看起来重要的东西也没那么在意。例如,我们大部分人都不知道飞机的工业设计机理,但我们还是心安理得的坐上去了,甚至还会嘲笑那些说搞不懂状况不敢坐飞机的老人家土气不懂世面。我们连自己的命这么重要的东西都能假手于人,我们为啥就这么在意价值判断呢?

更进一步说,AI之所以是智能就在于他不仅是像传统算法那样展现数据,而且他无时无刻不在帮你做价值判断。例如,百度根据你的驾驶习惯判断要去这个目的地,你绕路走熟路比你走近路要更好。这种对好坏优劣的判断是不是一种假手于人的价值判断?如果当人们在不熟悉AI底层数据逻辑的情况下,就像相信飞机能飞一样来相信AI做出的判断,那今天会有人习惯于按照导航走,那么明天这些人会不会按照AI推荐的政策方针来行动呢?到那一天会不会,相信AI制定政策的人对那些不肯将价值判断交于AI坚持要自己做决定,即使因为有限理性不能做出最佳决策的人的嘲笑,会不会就像今天嘲笑不敢坐飞机的人一样?

但话又说回来,其实AI之于政治很大程度上是旧瓶新酒,有其技术语言成为价值的一面,也有其辅助大家开放思想创设议题的一面,不断涌现的新议题其实会抑制盲从的出现,又会推进独立自主的感受表达和思考。AI的进步不会是西瓦之争这出历史大剧的落幕,更可能是新高潮剧情的登场。


张乾友


雪帆讲的是监管制度的功能。当监管制度运行良好时,个体选择信任制度,相信制度可以保障技术得到负责任的运用。在这里,监管制度设立与否、如何设立都是价值判断的结果,相不相信制度也是一种价值判断。这个过程中可能存在很多理性无知或默认同意的情况,但并不意味着人们放弃了价值判断。



张雪帆

这里其实不只是监管,固然监管是人们信任的必要条件,但不能反过来说有良好监管就能有信任。其实这里的本质是有多少的议题还在自己关心掌握之下。这引申出以下两大问题。

1)就像鲍曼的经典例子,一个人看着别人杀人会有生理的不适,及伦理的难以接受。但如果同样的人是在军工厂工作,他只会为自己工厂拿到大订单而欢欣鼓舞,却不会管他生产的武器在非洲杀了多少人。他也不会觉得自己在规范价值上有什么缺损。制度很多时候是无形的塑造,而不是给你提供选择。当你还在思考我要相信或者不要相信的时候,其实并没有太大的问题。真正的问题在于大量的人已经不去思考,很放心的按照约定俗成的方式交给专业的人士处理。今天已经有大家越来越习惯让AI根据实时路况寻找驾车路线取代自己看地图规划,那距离让AI根据实时社会情况寻找政治路线又有多远,中间究竟有什么逻辑可以让人们据此判断究竟什么改变是可以接受的,什么改变是不能接受的?

2)即使我们在寻找这个公共规范价值的锚定点上有长足的进步。由于未来大量的价值判断会要通过算法的形式才能表达,这其实等于重塑了公共行政的语言,即各种概念本体关系的表达形式。很大程度个人生活中价值判断的工作聚集在了懂AI底层语言的工程师手上,这就是数据处理的高门槛。而且新语言对旧语言的冲击,以及相互间的制衡都会成为重要的一环。

所以结论是,我们没法断言人民会或者不会放弃自己的价值判断,这取决于人民对于新技术的变化方向是否有足够的慎思或警觉。


张乾友


技术会规训行为,这是规范理论在思考制度设计时必须考虑的一点,但规范理论不应把行为的可规训性作为不可避免的前提。制度应该是在规范行为,包括对技术的应用空间提供规范性框架,由此规范行为。这涉及如何看待agency的问题,进一步就是“助手”还是“主人”的问题,而这个问题目前应该是想办法打开探讨空间,从不同角度提出新的问题。



贾开

感谢乾友老师和雪帆老师,受益匪浅,包括观点和后续的评论。

乾友老师和雪帆老师从不同角度阐述了对于人工智能发展所可能引起“变化”的反思。这种“变化”并不必然为“好”,也不必然为“坏”,不过正如乾友老师所言,“当前可能应该打开探讨空间,从不同角度提出新的问题”。

从我的理解来看,二位老师的关注点似乎是一致的,都是聚焦人工智能高度发展后,作为个体的人(以及作为整体的人类社会)的主体性问题。从公共政策的角度来看,这些讨论是很有必要且很有价值,可以做预先式的应对与规范。

我想提出的另一个问题,则是技术可能性的问题,其又可细分为两个问题:人工智能技术究竟在多大程度上能够在功能上取代人类?人工智能技术的发展,是否具有其独立的技术逻辑抑或也仍然是嵌入在人类社会之中?

事实上,大家所周知的,这一轮人工智能的浪潮是建立在“大数据+机器”学习的基础上,其应用环境仍然存在较大局限性。尽管当前仍然存在其他人工智能技术的发展路径,但潜在能体现出较大突破的技术路径却仍然屈指可数。另一方面,人工智能技术的发展并非脱离于我们本身的社会环境,而更可能是嵌入其中,甚至是强化、放大当前社会的既有结构(或矛盾)。从这个意义上讲,技术的规训性本身也存在反过来的受到社会影响的机制。

以上问题并未直接回应乾友老师和雪帆老师提出的思考,我想更多是作为补充。最后,我想再补充一下对于不确定性的认识。实际上,对于人工智能的未来发展,完全的乐观和彻底的悲观似乎都仍然过于“确定”。承认并接受未来的不确定性,尤其是人类个体或整体在此过程中可能发挥作用的不确定性,我觉得可能同样也是重要的。


学人点评

黄璜


感谢三位老师给我们带来一场思想大餐,也感谢公众号创造的这种微笔谈的形式,让我们可以细细琢磨三位的观点。不敢说完全领会三位老师的思想,我仅能谈一谈自己对老师们的理解。在第一轮自述中,张乾友老师首先为我们指出了AI时代存在一种潜在的人类政治价值的危机,张雪帆老师则鲜明地指出由AI带来的数据处理与数据生成之间复杂性的不同所产生的某种“矛盾”,而贾开老师则认为在未雨绸缪与杞人忧天之间应当存在一种相对更理性的现实选择。在第二轮答问中,乾友老师进一步延伸了在政治价值维度上的讨论,而雪帆老师关于人类会不会按照AI推荐的政策来行动的论述,和乾友老师提出的人的政治判断可能让位于寻求最优解的技术判断,在我看来是一致的。雪帆老师类比了对专家(技术)系统的信任,由此怀疑AI时代所谓代表性假设的前途,不过乾友老师对此似乎又并不悲观。贾开老师则紧扣主题,在他看来所谓“主人”一说尚无技术可行性的依据。不过三位老师的共同观点在于,应当打开研讨的空间,扩大研讨的议题,可能才是真正解决问题之道。

再简单谈几点我个人的想法。首先,人工智能的话题在西方国家经久不衰,有着其哲学和科学的双重背景,而国内原先主要在认知科学领域里面讨论,是一个小众话题。这些年应该是在阿尔法狗战胜柯洁之后火了起来。议题有三个方面,乐观主义的,悲观主义或怀疑主义的,和现实主义的。悲观主义或怀疑主义,无论AI是否在不久将来出现飞跃以达到“强AI”,大概都是对AI超出人类能力的担忧甚至恐慌。如果执着于想象,那么不如推及到一个极端,即AI可能演变成无所不会的新物种,人类在AI面前就像在“神”的面前一样卑微如尘,如电影《黑客帝国》所展现的,那么无论是认知层面还是规范层面似乎都没有讨论的必要了,或者说所有基于人的本位的讨论便也没有意义了。乐观主义可能更多具有技术的和产业的背景,不过一些观点也是有启发的,比如说可能的一个方向是人与AI的结合。人会用AI来武装自己,而不是简单的制造出一个对立物。或者说,人既然可以制造出自己的一个压迫者,是不是也可以再制造出一个解放者呢?

其次,与其说是数据处理和生成的门槛之间存在矛盾,不如说因为数据集聚所形成的不平衡。算法其实并不神秘,现有的基础算法都是历经多年,我们不能假设所有的技术人员都只愿意把算法保留在少数人手上,而不愿意变得更加市场化。另一方面,即使我把算法交给你,对你可能也没什么用,因为你可能除了自己的数据,以及你能够获得的那些其实大家都能获得的数据之外,并没有更多数据来使用这些算法。这个命题似乎和AI并没有直接联系,不是AI的发展所带来的,相反是因为数据资源和计算资源的集中才推动了这一波AI能够摆脱旧的范式而获得快速发展。

再次,强AI未必强,弱AI未必弱。AI的主体性这个问题其实国外理论界在几十年前就有很多讨论,我们看到很多比较早期电影所描述的,尽管是科幻,背后是当时社会对AI的思考。我们现在要做的工作,可能不是辨析“主人”还是“助手”。AI即使永远不会发展到具有某种主体性,也可能对现有国际政治、军事和文化产生重大影响。在现有技术条件下,可能讨论如何认识这种可能性,并且对其中可能负面的问题做出战略和政策的设计会更为现实。


主持人总结

柳亦博


感谢乾友、雪帆和贾开老师的精彩发言,感谢黄老师的点睛之评。在群里筹划论坛时,看到嘉宾们深度的、高质量的思想交流与观点碰撞,我就知道这次找对人了。作为主持人,关于本期论坛的主题我想再啰嗦两句。其实,我在与周媛同学商量这一期的主题时,想到了从人工智能的一个身份角色入手,给出它在人类政治生活中可能扮演角色谱系的两端,即通过掌握信息实际控制了我们生活的“主人”,与被人类设计出来任劳任怨忠实可信的“奴隶”。但是,作为“奴隶”存在、附属于人的“人工智奴”(吴冠军老师语),只会被人视为一种自动工具而充当战争或娱乐的消耗品,不会把人工智慧体视为与人具有同样主体性的存在,更不会发展出一种健康的人机伦理,所以我们在题目中最终见到的是“主人”与“助手”这两个身份,而其中无疑透露出“如何避免人工智能成为我们生活的主人”的追问。从三位嘉宾与点评人的观点阐释中,对这个问题的剖析真的是让我拍案叫绝。

同时,我们在赋予人工智能“一个身份角色”时,往往关注的是“角色”以及与此对应的身份伦理,而忽略了其中的“一个”——为什么未来人工智能在政治领域只能扮演一个身份?为什么不会有多个版本的人工智能同时存在?是我们默认了人工智能的开发应该由公共部门垄断,还是在竞争中终将有一款最高效的算法脱颖而出?由此引发一个追问,最高效的算法就一定是善的算法吗?认识自我无疑是哲学探索的最高目标(恩斯特·卡西尔语),这也导致了哲学的分叉——认识论的差异造就了哲学思想的不同,因而哲学、伦理学观点都是非常私人化的东西,只有在最基础、最底限的部分是收敛的,越往高处延伸就会越发散。明白了这一点,再去看“耻于自己的不道德,这是梯子上的一级,而在梯子的顶端,人们将耻于自己的道德”(尼采语)这句话时会有不一样的理解。

既然我们能够欣然接受哲学与伦理学的分叉(赵汀阳老师语),为什么不能接受人工智能算法的分叉?也许是因为我们接受不了你的智能管家比我的更好用。那么,我们是不是在内心深处根本没有将人工智能视为“智慧体”而只是“人工造物”?毕竟没有人会因为自己的手机电量耗尽而心生愧疚,但一般都会因为自己(间接)害死了他人而寝食难安。人类是不是一直就没能学会如何与另一个智慧体平等相处?恐怕是的,15世纪以来的历史已经无数次的给出了答案。如果人工智能成为“超人工智能”,它会成为取代人类的更高级生命吗?这些看似遥远的问题绝非没有意义,因为,对于人类而言,技术总是来得太快而哲思总是来得太迟。让机器选出最优方案只需要给它数据与算法,而让机器心生怜悯、敬佩或恐惧,则需要我们在另一条路上持续探索。希望本期论坛所生产的知识,能够成为点点荧光,与众多研究一起照亮“人工智能”这个神秘的黑箱。最后,再次感谢黄璜老师、张乾友老师、张雪帆老师、贾开老师以及为本期论坛付出良多的周媛、张兰、罗一萍、赖镇桃同学,感谢之情拳拳,排名无分先后。

柳亦博、张乾友和张雪帆老师(从左往右)

拍摄于:兰州大学110周年校庆年系列活动——2018中国公共管理学术年会暨第四届公共管理青年学者论坛


感谢本期主持人与嘉宾参与此次讨论。圆桌论坛为政治学人推出的系列活动,以上为本次论坛全部线上活动纪实,文章为原创作品,任何纸质或网络媒体转载请联系授权(微信号:zzxrbjtd)。

欢迎点击右侧超链接报名参与讨论:政治学人圆桌论坛  期待有观点的人~

圆桌论坛集锦

再谈东北|文化产业监管|脱贫攻坚|生育风波|“指向弱者”的暴力|高考状元|国家与个人|人才新政|LGBT|高校X骚扰|知识付费|学生会|地域黑|网络审判|城市人口政策|“江歌案”|女士优先车厢|社区运转|共享单车

组长:朝   菌

   编辑:罗一萍   

审校:赖镇桃

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存