虽然John McCarthy哀叹说“人工智能比我们想象的要难”,但Marvin Minsky解释说,这是因为“容易的事情很难”[38]。也就是说,我们人类在没有太多思考的情况下所做的事情,比如眺望世界,理解我们所看到的,进行对话,走在拥挤的人行道上而不撞到任何人等等,这些事情对机器来说是最困难的挑战。而相反,让机器做对人类来说非常困难的事情往往更容易。例如,解决复杂的数学问题,掌握国际象棋和围棋等游戏,以及在数百种语言之间互相翻译……这些对机器来说都相对容易。这是一种被称为“莫拉韦茨悖论”(Moravec's paradox)的问题,它以机器人学家Hans Moravec的名字来命名,他写道:“让计算机在智力测验或跳棋时表现出成人水平的表现相对容易,但在感知和行动能力方面,计算机穷极一生很可能也达到一岁孩子的水平‘'。这个谬论从人工智能领域的萌芽之初便影响了人们对人工智能技术的思考。人工智能先驱 Herbert Simon说:“人们认知中所有感兴趣的事情发生在100毫秒以上,而100ms其实就是你认出母亲所需要的时间”[40]。Simon是说,要理解认知,我们不必担心无意识的感知过程。这一假设反映在大多数象征性的人工智能传统中,它侧重于对已经感知到的输入的推理过程。在过去的几十年里,符号派的人工智能方法在学术界失去了青睐,学术界主要由深度学习主导。深度学习确实解决了感知的问题。然而, 这一谬论背后的假设,仍然出现在很多近期发表的人工智能的言论当中。例如,在2016年的一篇文章中,深度学习先驱Andrew Ng引用了 Simon的假设,大大低估了无意识感知和思维的复杂性:“如果一个典型的人能够用不到一秒钟的思维完成一项脑力任务,我们现在或不久的将来都可以使用人工智来将其自动化”[41]。而更微妙的是,谷歌DeepMind的研究人员在谈到AlphaGo的胜利时,将围棋游戏描述为“最具挑战性的领域”之一[42]。这个挑战是对谁而言?也许对人类来说是如此。但正如心理学家 Gary Marcus所指出的,有些领域,包括游戏,虽然对人类来说很容易,但对比而言,这些任务对于人工智能程序来说,比如Alpha Go,会更具挑战性。一个例子是猜谜游戏,它既需要表演技能、语言技能,更需要复杂的思维理论[43],这些能力远远超出了人工智能今天所能完成的事情。人工智能比我们想象的要难,因为我们在很大程度上没有意识到自己思维过程的复杂性。Hans Moravec这样解释了他的悖论:“人类经历了上亿年的进化,大脑中深深烙印着一些原始的生存技能,其中包含了巨大、高度进化的感官和运动机制,这些都是人类关于世界本质以及如何在其中生存的上亿年的经验。我相信,执行这种需要深思熟虑的思考过程是人类最外化的表现,而其背后深层次和有效的,则是源于这种更古老和更强大的感知和运动能力的本能反应。而这种支持通常是无意识的。换句话说,因为我们祖先的强大进化,我们每个人都是感性理解、人情世故和运动领域的杰出运动员,我们实在是太优秀了,以至于我们在面对实际上十分困难的任务时还能驾轻就熟”[44]。简而言之,Marvin Minsky指出,总的来说,其实我们不知道自己的大脑最擅长什么[45]。
谬论3:助记法的陷阱
“助记法陷阱”(wishful mnemonic)一词是计算机科学家Drew McDermott在1976年对人工智能的批评中所提出的,他说:“人工智能程序头脑简单,其主要根源之一便是它会滥用助记符,比如它会用“理解”或“目标”来指代程序和数据结构,从而在程序运行时表现出理解的样子,但其实只是输出了“理解”的字样。这是很荒诞的,因为这就像是一个工程师把它的主循环称为“理解”,那他就算技艺再高超,能力再超群,也没办法真正理解数据背后的意义,更没办法用算法逼近真正的目标。他可能会误导很多人,其中首当其冲而不自知的就是它自己。实际上,他应该将这个主循环称为“G0034”之类的没有实际意义的代号,看看它是否能说服自己或其他人,让他们相信G0034实现或理解了某些部分。一旦你看到这一点,你就会在脑子里浮现出种种研究人员会犯的助记法陷阱的例子[46]。”可悲的是,时至十年后的今天,人工智能工作中还是助记符陷阱的重灾区。其中最严重的泥淖之地便是术语,与人类智能相关的术语。这些术语被用来描述人工智能程序的行为,也用来评估模型的效果和性能。神经网络的灵感来自于人类大脑,但本质上来说他们之间存在很大的差异。机器学习或深度学习方法背后的学习机制,和人类(或者动物)的学习机制存在着天壤之别。事实上,如果一台机器学到了人类意义上的东西,我们希望他能够在不同的环境中运用这些知识。但是,事实证明,情况往往并非如此。在机器学习中,有一个专门的子领域叫做迁移学习,它关注如何让算法能够将他们在某个领域中学习到的东西迁移到新的场景中。而这是人类学习的基础,或者说是与生俱来的能力。显然,机器学习目前无法做到这点——它还不是真正的智能。事实上,我们在讨论或者评价机器学习能力的方式,也影响了我们对这些能力的客观评价,从而无法为它给出一个合适的位置。具体来说,IBM的一位高管曾经在无意之中谈到McDermott的言论,他说“沃森可以在几秒内阅读世界上所有的医疗保健文本”[47]。而IBM的网站则声称沃森项目能够“理解其中语言的上下文和细微差别”[48]。此外,DeepMind的联合创始人Demis Hassabis告诉我们,“AlphaGo的目标是击败世界上最好的人类玩家,而不仅仅是模仿他们”[49]。ALphaGo的主要研究人员David Silver这样描述了一个现象:“我们在比赛的过程中总是去问AlphaGo,问它觉得它在比赛的过程中表现如何。,但是直到比赛快结束的时候,AlphaGo才认为它将获胜[50]。”人们可能会争辩说,类似于助记法这样的方法只是方便机器速记而已:IBM的科学家知道沃森并不能像人类那样阅读或理解;DeepMind的科学家知道AlphaGo没有人类那样的目标或者想法,也就没有类似人类的“游戏”或者“胜利”这样的概念。然而,这种速记可能会误导那些试图理解结果的吃瓜群众,从而连带着影响媒体对这些结果的报道。而且这还会潜移默化地改变人类对于AI系统的思考方式,即使是人工智能专家也会受此影响,从而对AI系统与人类智能的相似程度作出错误的判断。McDermott的“助记法的陷阱”指的是我们用来描述人工智能项目的术语,但研究界也适用助记法的陷阱来命名人工智能的评价方法,评价我们测试人工智能技能的优劣程度。例如,以下是人工智能子领域中最常用的一些评价方法。在“自然语言处理NLP”领域中,“斯坦福问答数据集[51]“、”RACE阅读理解数据集[52]"和“通用语言理解评估[53]”这三个常用的数据集出现的频率很高。在所有这些评价标准中,最好的机器算法的性能已经超过了人类(Amazon Mechanical Turk workers)。这就引来了一些媒体的过度宣传,如“新的人工智能模型在回答问题时超越了人类的表现”[54],“计算机在阅读理解方面比人类好[55]",以及“微软的人工智能模型在自然语言理解方面超越了人类”[56]。考虑到这些评价标准的名称,人们得出这样的结论并不奇怪。但问题是,这些基础实际上并不能衡量回答问题、阅读理解或者自然语言理解的一半能力。这些测试仅仅能够从某些方面来对人工智能的性能进行评价;此外,这些基准中的许多项目是允许机器学习进行捷径学习的。正如前文所述,机器可以利用这些统计相关性的捷径在训练和测试数据集中实现高性能、而无需剖析挖掘和学习到理解任务真正需要的实际技能的[57,58]。虽然机器在这些特定标准上的表现可以超过人类,但人工智能系统仍远未达到人们从基准测试集中所看到的那样神通广大。
谬论四:智能都在大脑中
智能是可以与身体分离的东西,它既可以作为一种非物质的信息存在,也可以完全封装在大脑中。这种观点在哲学和认知科学中有着悠久的历史。在20世纪中叶的心理学领域中出现了所谓的“心里信息处理模型”。这个模型将大脑视为一种计算机,它有输入、存储、处理和输出信息的能力。在这种理论中,除了在输入(感知)和输出(行为)的阶段之外,四肢和身体几乎没有实际的作用。在这种观点下,认知完全发生在大脑中,理论上,认知与身体的其他部分是分开、独立的。这种观点的一个极端推论是,在未来,我们能够将我们的大脑“上传”到一台计算机中,也能够将人类的认知和意识上传到计算机当中[59]。“智能在原则上是非实体的”这种假设在历史上几乎所有关于人工智能的工作中都出现过。其中,早起人工智能研究中最具影响力的想法之一是Newell 和Simon的“物理符号系统假说PSSH“,该假说指出:物理符号系统具有一般智能行动必要和充分的手段[60]。其中”物理符号系统“指的是非常类似数字计算机的东西。PSSH假设,通用智能可以在数字计算机中实现,其中不包括大脑或身体的任何非符号的过程。(关于符号过程与此符号过程的讨论,请参见[61]Hofstadter的Waking up from the Bollen Dream)。Newell和Simon的PSSH是人工智能符号派大营的理论基础,在20世纪90年代和21世纪统计和神经启发的机器学习兴起之前,该领域一直是人工智能领域的领头羊。然而,后一种非符号性的方法也认为身体与智力是没有任何关联的。但是,从20世纪80年代的连接论,再到今天大行其道的深度神经网络,这类神经元启发的方法通常都会假设智力仅仅来源于大脑的结构和动态。今天的深度学习网络类似于谚语中的brain-in-a-vat:它被动地从外界接收数据,输出行为指令,而不在世界中与任何类型的物体主动互动。当然,机器人和自动驾驶的不同之处在于它们在世界上有物理的实体存在,但到目前为止,它们的物理交互方式,对它们“智能“反馈的贡献是相当有限的。智能仅存在于大脑的这种假设导致了人们的猜测,要实现人类级别的人工智能,我们只需要扩大机器的计算存储单元,以匹配大脑的“计算能力“,然后为这种大脑匹配的“硬件”开发合适的“软件”。例如,一位哲学家曾经写了一份报告,结论是,他认为计算机需要10^15FLOP/s的吞吐量才有可能来执行和人脑类似的任务(但是考虑到实际情况和可行性,这可能有点难)[62]。换句话说,我们不要无脑的肌肉棒子或者无躯干的思想幽灵!顶尖的人工智能研究人员也同意这一观点,也就是需要扩大硬件的计算能力以匹配大脑的结构,从而实现人类级别的人工智能。例如,深度学习先驱Geoffrey Hinton预测道,“要在人类层面理解语言,我们可能需要人类层面的大脑资源,我们的大脑中有数以亿计的神经元连接。但迄今为止,我们建立的最大的神经网络仅有十亿个连接。所以实际上我们还差了好几个量级,但我相信硬件人员会解决这些问题的。其他人则预测,“硬件终有一天会满足我们的需求,实现人类级别的运算速度和存储容量,而这种硬件最有可能就是量子计算机[64]”然而,越来越多的研究人员则开始质疑“人工智能仅存在于大脑”这一模型的基础,希望从另一个角度理解和创造人工智能。计算机科学家Rod Brooks在他所著的“计算机隐喻的死胡同(The cul de sac of the computational metaphor)”中认为,“我们之所以被困在这个死胡同里这么久,是因为摩尔定律一直在给我们温水煮青蛙,它总是做出正向但是微小的提升,我们一直在想,哦,人类一直在进步,在进步,在进步。但是我们没有真正想过另辟蹊径来实现更大更快的突破。”[65]。事实上,几十年来,许多认知科学家一直在主张让人们关注身体在所有认知活动中的中心地位。其中一位杰出的科学家,心理学家Mark Johnson在Embodied Congnition项目中写道,(Embodied Congnition项目是一个在20世纪70年代中期开展的关于具身认知的研究项目),该项目“开始以我们的大脑和身体在我们所经历、思考和执行的一切的核心作用提供证据”[66]。心理学家Rebecca Fincher-Kiefer这样描述了具身认知范式:具身认知意味着概念知识的表征依赖于身体:它是多模态的。它不是非模态的、符号性或者抽象的。这个理论表明,我们的思想是建立在一些基础上的,或者与感知、行动和情感密不可分的联系在一起的,我们的大脑和身体一起工作,以获得感知[67]"。很多学科也都为这一理论提供了诸多证据。例如,神经科学的研究表明,控制认知的神经结构,与控制感官和运动系统的神经结构密切相关,抽象思维利用了基于身体的神经“地图”[68]。正如神经科学家唐·塔克所指出的,“没有任何大脑部分可以进行非实体感知”[69]。认知心理学和语言学的结果表明,我们的许多抽象概念,几乎都是基于物理的、基于自身的内部模型的[70],还有一部分是由日常语言中发现的基于身体的隐喻系统所揭示的[71]。其他几个学科,比如发展心理学,也提出了具身认知的证据。然而,人工智能的研究大多忽略了这些结果,尽管有一小群研究人员在被称为“具身人工智能”、“发展机器人学”、“基础语言理解”等的子领域探索这些真理。与具身认知理论相关的是,伴随着我们深层社会生活的情感和“非理性”的偏见,通常会被认为与智力是分开的,或者阻碍理性的。但实际上它是使智力成为可能的关键。人工智能通常被认为是针对一种“纯粹的智力”,一种独立于如饮食和睡眠等情绪、非理性和生存需求的存在。这种对人工智能的定义在某些方面局限了它的发展,这种纯粹的理性智能可能性的假设是有失偏颇的,很有可能会导致人类对未来“超级智能机器人”的恐慌。例如,哲学家Nick Bostrom断言,一个系统的智力及其目标是正交的。他认为,“任何水平的智力都可以与任何最终目标结合起来”[72]。例如,Bostrom想象了一个超级人工智能系统,其唯一目标是生产回形针。这个想象出来的超级机器人发明了生产回形针的巧妙的方法,但这个方法消耗了地球上的所有的资源。人工智能研究员Stuart Russell同意Bostrom关于智能和目标的正交性的观点。“很容易想象,一个通用的人工智能系统能够或多或少地赋予某个任务目标,包括最大限度地增加回形针的数量,或者求取圆周率小数点后的若干若干位的数字[73]。“Russel对此十分担心,因为如果我们不加任何限制地让这种超级智能体来解决问题时,可能会导致很多不可预测的后果:“如果一个超级智能的气候控制系统想要解决全球变暖,降低二氧化碳,但是它发现其中最行之有效的方法是将二氧化碳的排放量降低到第二次工业革命前的水平。而达到这个目的的唯一路径就是将人口减少到零,那它会怎样做呢?(比灭霸还狠,不对……奥、奥创?)”如果我们把错误的目标输入人工智能机器,而它比我们更聪明,那局面很可能就不可控了[74]。上文中Bostrom和Russel提出的思想实验有着一系列的假设,它们假设人工智能系统是“超级智能”的,是没有任何基本的人类常识的,同时它拥有完美的计算机硬件惊人的运算速度、精度和可编程性。但这些关于超级人工智能的假设,在本质上则会受到智能本质缺陷性的困扰。在我们的心理学或神经科学知识中,没有任何东西能够在没有情感、没有文化基础也没有人类对于事物的知识管理体系的前提下,达到“纯粹的理性”。相反,我们从具身认知的研究中学到的是,人类的智力似乎是一个由各种错综复杂的、紧密相连的属性所组成的复杂集成系统,其中包括情感、欲望、强烈的自我意识和自主意识,以及对世界的常识性理解。目前来说,我们还不清楚这些属性是否可以分开。