收录于话题
#AI那厮
12个内容
物理学能统领万物吗?心理学可以还原成脑科学吗?笔者认为,各层面的理论自有其独特价值,不可以互相完全替代,因为一个特定的现象往往只能在某个层次上讨论。一个常见的误区是,许多人认为某个层次比其它层次更基本甚至更真实,而其它层次只不过是建筑在其上的近似描述,因此原则上可以都“还原”到这个基本层。笔者之所以不同意很多人坚信的“意识是从脑中涌现出来的”,因为这隐含着“神经层描述是基本的(或真实的),而意识层描述是导出的(或虚构的)”的预设。
提示:本文是一篇严肃的书评。阅读本文发表您的感想至留言区,并点击“在看”,截至9月7日中午12点,我们会选出5条留言,每人送一本《脑与人工智能》。
撰文 | 王培(美国天普大学计算机与信息科学系)
顾凡及和卡尔·施拉根霍夫(注:考虑到中西方不同的习惯,我下面分别称二位为顾先生和卡尔,而不考虑二者不属于同一个称谓体系这一问题)合著的《脑与人工智能:一位德国工程师与一位中国科学家之间的对话》[1](以下简称《对话》)从许多方面来说都是独特的。即使不提其中英文对照的形式,两位专业和文化背景都迥然不同的资深专家通了几年的电邮来讨论共同关心的问题,这本身就是很罕见的。像各国的脑模型计划、深度学习在围棋等领域的成功这类话题,近年来已经成媒体新宠,各路专家也都登台亮相过了,但不同观点的深入交锋并不多见,还不要说这种交锋还是在惺惺相惜的气氛下进行的了。
我觉得《对话》首先可以被看成科学讨论的范本,尤其是青年科技工作者们可以从中学到如何既保持开放心态又不沦为随声附和,既不放弃自己的原则又尊重对方的观点等等“基本对话礼仪”。这种对话本应是科学研究的重要形式,但又是在媒体中和教科书中看不到的。二位作者在各自的领域中都已是功成名就了,但仍能愿意认真地考虑不同意见,并不耻于承认自己的缺失和疏漏之处,这是难能可贵的。能够保持赤子之心和君子风度,这只有在对话目的纯粹是满足求知欲和推动科学发展(而非眼前的功利或证明自己的高明)时才能做到。《对话》的另一个特点是话题的广度。围绕脑科学和人工智能这两个核心领域,书中以通信文本和背景专栏两种方式介绍了大量相关知识,并不时将讨论提升到科学哲学、科学政策的层面,而又紧扣当前的问题,绝无卖弄学识之嫌。这不仅将有关思考置于更大的背景之上,也增加了阅读体验的生动和愉悦。比如说卡尔在荣升外祖父之际开始意识到“祖父母在系统化、汇总和筛选知识以及教授相关知识和技能方面做了大部分工作”,生动地表现出一个思想者时时处处都不忘“理论抽象”的特质,令人忍俊不禁。由于《对话》中谈到了大量话题,在这篇短文中无法逐个加以评论。下面我仅选几点加以讨论。《对话》的源头是顾先生对欧盟“人脑计划”(HBP,用计算机模拟整个人脑)的质疑(可参阅《欧盟人脑项目:有钱有大计划,就能做出基础科学突破性成果吗?》),而卡尔也恰有同感,故二人相互补充,对这个当时炙手可热的计划进行了剖析,而其主要预测已被后面的历史发展所证实。我个人在这个问题上的观点和二位作者高度一致,即认为1. 我们对脑的认识尚不足以支持全脑范围的计算机仿真,
2. 智能计算机未必要在细节上复制人脑。
这两个论断都是关于人脑和计算机的功能等价性的,只是关注的方向恰好相反。
从计算机被发明出来那天起,其和人脑的等价性就是个被反复探讨的问题。由于计算机就是被造出来完成人脑的某些任务的,功能与人脑自然有重合。而在另一方面,由于计算机是个机电设备而人脑是个生物组织,这二者显然又有根本差别。因此,计算机和人脑的关系不是“相似还是不似”的问题,而是“在哪些方面相似,相似到什么程度”的问题。这听上去像是常识,但在讨论中人们往往会注重于这个关系的一个方面,而有意无意地忽略了相反的证据。从原则上讲,任何对象或过程都可以在计算机中被模拟或仿真,而结果的逼真程度会随着计算机模拟技术的发展和对模拟对象的认识加深而不断提高。对于人脑这个对象及其内部过程当然也不例外,因此我并不怀疑脑模型研究的理论和实用潜力。这里需要注意的是,除了当前计算技术的限制之外,脑模拟主要受限于模型本身的精确程度,因此囿于当前脑科学的水平。一个不正确的模型对脑科学的价值就相当有限了,不管它工程上如何宏大。卡尔反复强调“模型”和“理论”的差别,顾先生指出不能把人脑当作人造物件,理由都在这里。这不是靠砸钱就能解决的,而“大科学”的运作方式在此类情形下反而会阻碍科学进步,包括集中资源时对其它研究思路的抑制和失败后的殃及池鱼。即使脑模型尚不能准确模拟人脑,它能否为智能机器的设计提供思路呢?原则上这当然是可能的。像我在《当你谈论人工智能时,到底在谈论什么?》中所分析的,从广义上说所有人工智能的研究路线都是对人类智能的某种模仿,其差别只是在抽象程度和覆盖范围上。目前的“类脑智能”把智能看作脑的产物,进而在神经元水平上模拟脑结构,这自然不无道理,但认为这是实现通用智能的唯一途径就未免至少是想象力不足了。近期关于“类脑智能新突破”的报导都忽略了所谓的“新功能”在人工智能历史上大多已经被其它技术用更简单的办法做到了,当然那些技术有别的弱点,因此现在不常被提起了。比如说所谓“灾难性遗忘”就是人工神经元网络独有的问题,因此这里的进展是不能被用来证明这条技术路线的优点的。二位作者在《对话》里提出了相当充分的论据,来说明智能机器不一定是越“类脑”越好,而且除了脑结构之外,身体的作用和社会环境对智能系统也是不能忽略的,所以即使有理由走这条路,现在考虑到的因素也远远不够。我完全同意顾先生的下述结论:“探索脑功能机制和开发智能机器是两个不同的任务,虽然它们是相互关联的,但不应该混淆两者。”各种脑模型的支持者常常声称这种研究有一石二鸟之效,但很少为这个结论提供超出直觉之外的论据。而一旦分别讨论这两个目标,评价标准就不一样了。如果脑模型主要服务于脑科学,则其主要标准就是它在多大程度上相似于大脑;如果是作为实现智能的手段,那就要在功能和效率等方面论证其优于其它手段之处,而不能只靠“类脑”来说事。《对话》后期的核心议题是“意识”,包括它如何在人脑中出现和能否在计算机中出现。顾先生和其他一些学者一样,认为这个现象的根本特征是主观性和私密性,因而和科学研究所要求的客观性和公共性不相容。即使我们可以(从第三人称的角度)透彻地描述一个认知过程,但这和(从第一人称的角度)直接感受它毕竟不同,因此“讨论人工意识的问题还为时尚早”。卡尔认为人工智能在未来可能会有意识,但承认这是个非常困难的问题,目前还看不出如何解决。
这个问题大概是我和《对话》作者们观点差异最大之处了。我同意意识的主观性和私密性,但不认为这为对意识的科学研究和计算机实现设置了不可逾越的障碍。在直接讨论意识之前,让我们先看看精神活动的主观性、私密性和对这种活动的科学研究之间的关系。首先,主观性和私密性不限于(狭义的)意识,而是普遍存在于各种精神、心理活动之中。以感觉为例,正像卡尔说的:“我们永远都不能确定你所看到的红色究竟是否就是我看到的红色”,这不仅因为感觉的结果只直接呈现于感官属于的认知主体之中,也因为感官的微小差异也会造成感觉能力和结果上的差异。比如说某人也许对某种颜色(或味道)比其他人更敏感。当讨论范围从感知移至认知,私密性依旧,而主观性更甚。像我在《“意思”是什么意思?》中所说的:“由于概念和语词的意义均由相关的经验决定,而不同的系统总是有不同的经验,所以意义从根本上说是私人的和主观的。”我们的观念取决于我们的躯体、和环境相互作用的历史、从语言和经验中习得的概念体系,等等,因此我们之间的观念差异既不是任意的,也不简单地总有个谁对谁错。这就好像我们都是带着一副有色眼镜看世界,而每个人的眼镜又不完全一样。请注意这里不存在“摘下眼镜看世界的本来面目”的可能性。尽管我们仍然可以说世界独立于所有认知主体而存在,但对世界的任何描述必须依赖于一个概念体系,而不同的体系用不同的方式“分割”世界,使我们得以聚焦于具体事物。比如说《对话》中讨论到的翻译问题。严格地说,完全精确的翻译是不可能的,因为不同的人类语言自带不同的概念体系,因此对应于一副特定的“眼镜”。这也就是有些语言学家主张“不同的语言对应不同的世界观”的根据。和很多人想象的相反,并不存在一种“上帝的语言”可以描述世界的“本来面目”。所谓“裸眼”其实也是一种眼镜,否则如果连聚焦功能都没有,怎么“看到”事物?如果是这样,科学理论的客观性又如何可能呢?在这里“客观性”实际上是指“公共性”而非“无主体”。我在《“意思”是什么意思?》中解释过,“意义的客观性成分主要是通讯和社会化的产物,因为这些过程为不同系统提供了相似的言语经验和社会经验,并促使它们按照约定和习俗使用语词”,而躯体、自然环境、社会环境的相似性越高,这种约定和习俗也就越容易建立和保持。在书中,卡尔也提到了“通讯”和“共情”在消除主观性上的作用。就此说来,即使某个心理现象具有主观性和私密性,这也不妨碍我们建立相关的科学理论和计算机实现。比如说关于大脑是如何辨认色彩的,我们已经有相当好的理论(尽管不是十全十美),而且可以在计算机上实现同样的功能(尽管细节上与人脑不同)。当然,计算机仍然不能享受到卡尔看到他喜爱的那种蓝色时的感觉,但我们其他人也不能呀。这里科学技术所需要的并不是卡尔的那一副不可分享的“私用眼镜”,而是大家都可以用的“共用眼镜”,尽管用这种眼镜看不到某些用“私用眼镜”才能看到的东西。把理论当作“眼镜”这个比喻还可以进一步展开。即使都是“共用眼镜”,也仍可以有“度数”(放大倍数)之差,而度数不同的眼镜会使我们看到不同的景象。对应到科学领域中,不同的学科使用不同的概念体系,以此确定了其中的理论的描述层次。一个“低层理论”就像高度数的眼镜(或者说显微镜、望远镜),可以看清更多的微观细节;一个“高层理论”则提供了更大的视野,适合于描述系统的整体或宏观特征。
在多种描述层次共存的情况下,各层上的理论自有其独特价值,是不可以互相完全替代的,因为一个特定的现象往往只能在某个层次上讨论。比如在某个观察距离上能看到的一条山谷,在离得太近或太远时就看不到。“只见树木不见森林”也是说的这个理。这些层次之间当然有关系。“推进镜头”(至下一个层次)往往可以更好地了解某个成分的内部结构和过程;“拉开镜头”(至上一个层次)往往可以更好地了解某个成分的外部功能和联系。说不同的学科(物理、化学、生物等等)对应用不同的描述层次,这可以算是常识,但相关讨论中有两个常见的误区。一是认为某个层次比其它层更基本甚至更真实,而其它层次只不过是建筑在其上的近似描述,因此原则上可以都“还原”到这个基本层。这种观点的极端形式就是“物理主义”,即认为唯有物理学有可能提供一个“万物理论”。在和本文直接相关的讨论中,这种还原论对应于“心理学可以还原成脑科学”的假设,同时也是“只有类脑计算才能完全实现人工智能”的信心来源。在科学哲学中关于还原论的讨论已经有很多,《对话》中也有涉及,我这里只补充两个不常被提到的分析角度。其一是以往讨论的重点常常是“哪种理论准确地描述了对象”,因此低层理论会以其细节的丰富而胜出。这里被忽略的是理论的使用者在信息加工能力上的限制和要说明的现象。包括过多无关细节的理论常常是不好用甚至没法用的,而这正是上升到更高的描述层次的主因之一。另一个因素就是同一个高层过程常常与多个低层过程相对应,而对很多目的而言,区分这些低层过程毫无必要。举例来说,一栋建筑物当然是由原子组成的,但我们不会在原子水平上进行建筑结构设计。为什么?不是因为不可能,而是没必要和太麻烦。在讨论理论层次关系时常犯的另一个错误就是认为不同层次上的描述之间有因果关系,比如说某个心理层面上的事件A是由某个神经层面上的事件B“造成的”,而实际上A和B是在用两组不同的语汇描述同一个过程,所以不存在因果关系。比如说我们可以用“大量分子碰撞”来解释“热运动”,而不能说前者是后者的“原因”。不管怎么定义“因果关系”,说的总是不同事件之间的关系,所以如果A和B根本上是被不同的语汇所描述的同一个过程,那么在二者之间是无因果可言的。基于上述分析,我不同意《对话》作者们(以及很多其他科学家)“意识是从脑中涌现出来的”的说法,因为这隐含着“神经层描述是基本的(或真实的),而意识层描述是导出的(或虚构的)”的预设。我认为神经层描述(甚至物理层描述)仍然是使用特定概念完成的,因此和意识层描述并无本质不同,都是一个观察者以一种特定的观察方式得到的。和很多重要概念一样,“意识”并没有一个公认的定义。但尽管如此,其核心含义仍是关于一个认知主体的自我认识,因此这种“内向”的自我感知和“外向”的环境感知有很多共同点。其差别我认为主要在两点:1. 内部环境是独享的,而外部环境是共享的,这就强化了意识的主观性和私密性。但如前面分析的,外向的感知也不是完全没有主观性和私密性,所以这个差别是相对的程度之差,而不是绝对的本质之差。尽管我们无法直接体验他人的内心感受,共情、推理等机制还是使我们有一定的“设身处地”、“推己及人”的能力。
2. 我们对自身认知活动的感知是直接实现在概念层上的。比如说如果我问你“你刚才在想什么?”你对这个问题的答案当然在你“脑海”中对应着相关神经元的活动,但你直接“感到”的是“念头”。这和视觉、听觉等从物理信号开始的多层抽象有根本不同。我们的“内心感受器”直接感受到“意义”,而不像其它感官那样只提供信号,将对其“意义”的获取留给后面的知觉、识别、理解等过程。其结果就是我们描述内心感受与活动的“心理语言”和描述外部感知的“物理语言”(广义的,也包括化学、生物等层面的词汇)使用不同的概念语汇。即使我们有办法借助某种设备精确地在神经元层面观察一个过程,从中得到的“第三人称”描述也和当事人的“第一人称”描述不同。可以说我们观照内心时所用的“眼镜”和观察世界时所用的不是同一副,它们产生的结果甚至都不在同一个描述层次上,因此不可以精确互译。
由于上述原因,当我们由于想法A采取了行动B,然后看到外显后果C的时候,A是用心理语言描述的,C是用物理语言描述的,而它们之间的关系被描述为“A是C的原因”。这往往被看成“精神变物质”,而外界事件引发的心理活动则成了“物质变精神”。但这种跨层次的因果关系所造成的“解释鸿沟”可以更自然地被归因于两种不可直接互译的语言被分别用来描述这两个被联系的事件。上述的情景完全可能在人工智能系统中出现。在[2]中,我们描述了一个具有简单自我感知和自我控制能力的智能推理系统,其中的“自我”概念的基本内容是“我在什么条件下可以采取何种行动来导致何种后果”,即上述的“ABC”关系。虽然目前还非常简单,这一机制已经具有产生上述意识现象的能力,即系统本身有“内部心理经验”(某种“意识流”),并可以根据过去的经验和当前目标选择行动。这就是说某种人工智能系统完全可能有意识,尽管和人类的意识内容不会一样。当然,这并不是说现在所有自称“人工智能”的系统都会有意识,因为它们的行为基本与经验无关,更不必提内部经验了。一个可以预料的反对意见是说这仍仅仅解决了查默斯所谓的“简单问题”,而没有解决“困难问题”,后者是说明主观感受如何能从神经元活动中产生出来(《对话》中对这个区分有详细介绍)。我认为这里有两个要点。一是在人工智能系统中只要是由感官直接提供给系统的信号构成的输入流就是系统的“主观经验”。这种经验的私密性就在于即使我们可以将其复制或解释成我们可以理解的形式,对于我们这些外界观察者而言这也不再是第一人称的主观经验,而是第三人称的客观经验,但这不能作为系统自身没有主观经验的理由(“子非鱼,安知鱼之乐?”)。另一个要点就是主观感受本来就不是“从神经元活动中产生出来的”,而是系统自身的直接观察结果,而其中所用的感官是根本“看不到”神经元(或电子线路)的。我们对相应神经元活动(或电信号活动)的描述只是在另一个层次上从另一个视角对同一个过程的描述,因此二者之间并无“生成”关系可言。这就是说查默斯的“困难问题”本来就不是个正确的问题。我在这个问题上的看法与顾先生在《对话》中表达的看法不同,虽然我完全同意他对意识的主观性和私密性的强调,以及“意识活动不能被还原成脑活动”的结论。尽管有这些不同意见,我仍然确信在近年出版的大量关于人脑和人工智能的书籍中,《对话》应该算是最深刻的之一。读者们一定可以从中受益,并被激发出更深入的思考与研究。1. 顾凡及,卡尔·施拉根霍夫.《脑与人工智能:一位德国工程师与一位中国科学家之间的对话》(含三册: 《脑研究的新大陆》《意识之谜和心智上传的迷思》《人工智能的第三个春天》)[M]. 上海教育出版社,2019
2. Pei Wang, Xiang Li, and Patrick Hammer. Self in NARS, an AGI System, Frontiers in Robotics and AI, Volume 5, Article 20, 2018
注:本文所提到之作者其他文章,可进入公众号底部菜单“精品专栏-AI那厮”查阅。点击https://cis.temple.edu/~wangp/Chinese.html,可查阅作者所有科普文章和科普视频。
版权说明:欢迎个人转发,任何形式的媒体或机构未经授权,不得转载和摘编。转载授权请在「返朴」微信公众号内联系后台。
特 别 提 示
1. 进入『返朴』微信公众号底部菜单“精品专栏“,可查阅不同主题系列科普文章。
2. 『返朴』提供按月检索文章功能。关注公众号,回复四位数组成的年份+月份,如“1903”,可获取2019年3月的文章索引,以此类推。
↓↓↓长按下方图片关注「返朴」,查看更多历史文章