人工智能与人类社会|混合认知有助于消除智能“黑箱”
混合认知:一种优化的
人工智能适应性表征策略
作者简介:魏屹东,哲学博士,山西大学哲学社会学学院二级教授、博士生导师,认知哲学研究所所长,曾任哲学社会学学院院长,教育部人文社科重点研究基地山西大学科学技术哲学研究中心学科带头人,中国自然辩证法研究会科学哲学专业委员会委员、中国现代外国哲学分析哲学专业委员会委员,山西省哲学学会副会长,山西省自然辩证法学会监事。
摘要
摘要:混合认知是不同认知方式的组合或整合。它是认知科学和人工智能发展到一定阶段的产物,其实质是不同适应性表征系统(自然的和人工的)的融合,其中适应性表征能力是不同认知系统的共性。混合认知系统的其他属性或特征都是由这种基本能力衍生而来的,这些特征包括自主性、能动性、具身性、交互性、符号性和语义性。尽管混合认知强化了人工的“智能”,但其黑箱性仍然难以消除。混合认知作为可解释人工智能的出现,有助于我们弄清认知背后的隐性机制。
关键词:混合认知;人工智能;机器人;自主性;具身性;符号性;适应性表征
所谓“混合认知”(Blended Cognition,缩写为BC),根据瓦尔韦杜(J. Vallverdú)和穆勒(V. C. Müller)的说法,[1] 是研究一个智能系统如何使用或部分结合几种方法来决定可能的行动输出或数据评估和存储的领域。在认知科学中,其他类似的定义是将不同的认知范式结合起来,戴维·弗农定义的混合认知系统则是认知主义系统(计算表征主义)与涌现系统(联结主义、动力主义和生成主义)的结合。[2] 混合认知的重要性在于,在这些主要范式或可能的层次之间没有预先建立的、僵化的控制层次,但存在优化的协作和组合的功能策略,其中的关键点是系统的灵活性和适应性。从进化的角度看,认知系统的这个混合过程经历了从感觉运动到符号化,从直觉到高度形式化,从有意识到无意识的过程,这些过程按顺序或平行进行;人类从一长串的选项中进行选择,以解决复杂的任务。这个过程也就是“混合认知”,即几种认知方式或范式的结合。在笔者看来,这种混合意义上的人工认知或智能是优化的适应性表征认知系统,人机混合本质上就是具身性与机械性的结合,适应性和优化性的结合。[3] 本文要阐明的是,人工智能中的混合认知,本质上是人类具有的各种启示法结合而成的适应性表征能力,它进一步激发了人工智能和机器人学的研究,表现出更强的适应性、表征性、自主性、能动性、具身性、交互性、符号性和语义性。然而,我们也要看到,虽然混合认知的可解释性增强了,但“黑箱性”(Blackboxness)仍一定程度上存在。这种黑箱性可能就像信息系统中的噪音一样,难以彻底消除。
一、“混合认知”的适应性和表征性
关于“混合”的意义,计算机先驱冯·诺依曼在讨论计算机的“混合”类型时,指的是“模拟原则和数字原则同时存在的计算机类型。更准确地说,在这种计算机的设计方案中,一部分是模拟的,一部分是数字的,两者互通信息(数字的材料),并接受共同的控制”。[4]也就是说,计算机的这两部分各有自己的控制,而且这两部分必须能够通信逻辑材料。在冯·诺依曼看来,这种计算机装置既要求有能够从已给定的数字转换成为模拟量的器官,也要求有从模拟量转换成为数字的器官。前者意味着从数字表征中建立一个连续量,后者意味着测量一个连续量并将其结果以数字形式表征出来。在我看来,这个过程就是匹配任务的适应性表征。穆勒认为,“混合”意味着有一个可能的数据和任务需求的组群——语义学、身体、心智。这里的“语义学”是指在特定时刻对行为体或智能体(Agent)的信息价值;“身体”是指行为体身体上的要求和可能性(自由度),如灵活性和吸收效果;“心智”指的是行为体所表现出的启发式机制,能独立执行自适应可预测行动,旨在为数据流提供答案。
就人类认知而言,它与意识(心智)是混合的。认知心理学一般将人类的意识分为三类:无意识(Un-consciousness)、潜意识(Sub-consciousness)和意识(Consciousness)。鉴于认知科学和脑科学的发展,尽管无意识和潜意识的机制和构架我们并不清楚,但它们的某些状态我们还是知晓的,如无意识的睡眠、自然认知器官(大脑)的结构,潜意识的感觉运动耦合、模仿行为等,都具有敏捷性和潜力。而有意识的情形是我们都熟悉的,如学习、计划、决策等,关于它的构架、启示法和例子也很多,如形形色色的意识理论和认知模型。这些意识类型(如果存在的话)在许多方面都是混合的,也意味着它们是难以严格区分的。
那么如何理解这种认知上的混合呢?在认知模型中,穆勒认为“混合”可以两种方式来理解。首先,一个普遍的观察是:人类在试图解决问题以采取行动时,会使用大量不同的认知和推理启示法,如科学认知及其各种表征(模型、图表、方程式)。其次,人们不仅使用多个启示法(每个不同的行动类别都有一个),而且能够按顺序或平行组合这些启示法,甚至根据局部变量混合这些启示法,如类比思维可使用来自归纳、演绎、溯因推理过程的不同组合。也就是说,人类的思维不是单一的,而是多种方式的组合或混合。
然而,在穆勒看来,多数哲学家如柏拉图、莱布尼兹、笛卡尔或康德等,大多是从单一理性方式提高人类的思维能力,忽视了人类认知的真正力量是一个近似的、隐喻的和混合的过程。人工智能与生物学的混合表明,生物学激发的人工智能形成了人工智能系统中的混合认知和超启示法,未来将可能构成具身性/形态学→多模态数据绑定→启示法优化→多启示法选择→超级启示法的循环演进。
对于人工智能系统来说,有没有一种方法论使得结合规则或创造新规则成为可能呢?穆勒认为混合认知是一种可行的方法,笔者认为其实质是适应性表征方法论,因为混合认知只是集中和整合了已有认知模式和方法,并没有意识到其中的内核是适应性表征。在笔者看来,认知的适应性表征是内部和外部表征的混合,并通过这种内外混合构筑意义。玛格纳尼(L. Magnani)认为,有两种基本的外部表征活跃于“心智的外化”过程中:创造性表征和模仿性表征。模仿的外部表征反映了已经在大脑中表征的概念和问题,它们有时可以创造性地产生新的概念和意义。比如,在大脑与合适的认知环境的混合互动中,模仿的几何表征可以成为创造性的,并产生新的意义和想法作为被适当地重新塑造的“认知生境”(Cognitive Niches),[5] 如解析几何的产生。图解作为外部图标表征(通常由符号充实)是由外部材料形成的,这些材料要么模仿(通过再现)大脑中已经存在的概念和问题,要么创造性地表达在大脑中没有符号学“自然家园”[6] 的概念和问题。随后的内化图示表征是对外部图示在大脑中激活的神经模式的内部再投射,它是一种复述(学习)。在一些简单的情况下,复杂的图式转换可以像外部物体一样被“内部”操纵,并且可以通过转换和整合的神经活动进一步产生新的内部重构的表征。
从认知的角度来看,这个过程解释了为什么人类主体似乎既能进行联结主义类型的计算,如涉及表征作为I级计算,[7] 又能进行使用表征作为II级计算。[8] 在玛格纳尼看来,心智的外化过程(离身或体外)涉及两个过程:一方面,表征是获得结果的中介,允许人类在大脑中重新表征从外部获得的新概念、意义和推理手段,这些概念、意义和推理手段以前在内部是不存在的,因此是不可能发生的,即先进行一种异化,再在神经元层面通过重新表征外部“发现”的东西完成复述。这意味着我们对突触模式以类比方式从环境的明确图示中“拾取”的数据结构进行认知的几何运算。另一方面,在人们的大脑中重新表征部分概念、意义和推理装置,只要是明确的,就可以促进推理,而以前由于人脑的能力有限,需要付出很大的努力。在这种情况下,思维表现并非完全在内部处理,而是在内部(隐性或显性)和外部图标表征之间的混合互动中进行。在某些情况下,这种互动是在内部和计算工具之间进行的,而计算工具又可以利用图标/几何表征来进行推理。因此,所谓混合认知,从表征来看,就是内部与外部表征的结合、适应性与表征性的结合,这其中都体现了概念组合和混合表征。
二、混合认知中的智能自主行为体
从生物学来看,认知是一个生命体给它在某一时刻拥有的信息或数据提供答案的一组混合过程。人工智能体作为非生命体是进行实际推理的人工实体,是一种智能自主行为体(Intelligent Autonomous Agent,缩写为IAA),笔者根据沃尔顿(D. Walton)[9] 的梳理将其特点概括如下:
(1)目标导向性:当IAA进行行动和表达某些类型的言语行为时,如做出断言,它就会产生可以被记录的承诺。从其中一些承诺可以推断出,该智能体已经制定或承诺了一个目标。
(2)信息感知性:IAA有感知能力,也有从其他来源收集信息的能力,如证人或专家的报告,因此,它可以发现其目前的情况。
(3)主动性:在感知的基础上,IAA有能力采取某种行动,以改变其环境。
(4)预测性:IAA熟悉机构中预期的正常工作方式,并拥有关于更广泛世界的其他类型的常识。
(5)洞察力:IAA能够感知或发现其行动的后果。
(6)纠错性:如果IAA看到其先前或计划中的行动的后果有可能与其目标背道而驰,它可以纠正这些行动。
(7)控制力:IAA能够控制为实现目标而采取的行动如何因需要落入一个有序的序列。
(8)建构性:IAA能够将一连串的行动组织成一个具有不同抽象程度的层次结构,从较一般的到较具体的,反之亦然。
(9)猜测性:IAA可以对其行动未来可能的后果形成假设。
(10)适应性:IAA经常需要通过快速适应新的信息来灵活地进行规划。
(11)尝试性:IAA通常会继续尝试实现一个目标,即使之前已经失败。
(12)记忆性:IAA有足够的记忆资源来跟踪它的承诺,以及在情境随时间变化时保留对情境的了解。
(13)灵活性:IAA有能力将新的承诺添加到以前的承诺存储中,并在需要时收回承诺。
(14)保持性:IAA不仅需要意识到其过去行动的一些后果,而且需要将这些后果保留在记忆中,以便在未来的审议中能使用。
(15)协同性:IAA经常需要与其他智能体沟通,以协作解决问题。
可以看出,IAA的上述这些特点是人类都具有的,人工智能体若都具备,就达到甚至超过了人类水平。这些特点显然也是适应性表征系统(自然的和人工的)具有的特征,对于理解实践推理的性质具有根本意义。因为它们清楚地揭示了实践推理需要如何适应特定情境中不断变化的环境。这种能够依环境变化而及时调整其行为的能力,是一个智能体必备的,人类是这样,人工智能体也应该是这样,否则它就不能被认为有智能了。所以,一个智能体,无论是人类还是机器人,适应性表征是其最基本的能力,有了这种能力,其他高级认知能力,如自我意识、决策推理、道德自主性,就有了认知基础。换句话说,适应性表征可能是高级心理能力的发生机制。
在笔者看来,IAA的上述特征是适应性表征的不同方面,其自主性(自治性)尤为显著。事实上,适应性表征就蕴含了自主性,或者说,自主性是适应性表征的一个主要方面。弗农将自主性定义为一个系统自我决定的程度,也就是系统的行为不受环境决定的程度,以及系统因此决定自身目标的程度(不受其他系统控制)。[10] 这意味着自主系统具有自我行动和自我决定的能力。我们知道,人的无意识或潜意识行为是自主的(非有意控制)。这与机器的自动化很相似,难怪拉·美梅特里称“人是机器”。[11]
加拉诺斯(V. Galanos)认为,人类意识与非自主行为有很深的关联,其无意识与自主表达有关,而机器行为则与自动功能有很深的关联,无意识是其唯一的表达形式。[12] 他采用基于信息圈概念的更基本的本体论,将人类和机器都视为信息人(Inforgs),并提出思考四象限模型中留下的未解释部分:(a)人类非自动意识(有意识);(b)人类自动无意识;(c)机器自动“意识”;(d)X(未知)。在他看来,我们可借用代数方法的交叉乘法,将(a)与(c)相乘,然后将结果除以(b)得到(d),即:人类非自动意识[×]机器自动“意识”/人类自动无意识[=]未知行为。这是实证地研究有意识的人类和无意识的机器之间的日常互动关系,然后根据与无意识的人类行为有关的主题进行研究。这将有助于人们创造一个明确的观点:构成X的是什么,即在表达无规律的机器行为时有时被误解为有意识的行为,这实际上是令人担忧的。这就需要可解释人工智能或可解释机器学习的介入。
这里引出一个令人疑惑的问题:人工智能或机器人到底有无“智能”(心智),在什么意义上有智能?在什么意义上无智能?这是对早期图灵的机器智能(通过图灵测试的所谓智能)的反思。从计算是认知的观点来看,通过图灵测试的机器似乎有智能(我称之为假装的智能);但从感受性来看,机器没有经验性智能(因为没有意识,经验性智能是基于意识的)。所以在经验意义上,人工系统的智能并不存在,因为从社会科学的角度来看,我们越来越难以在自然和人工之间划清界限,如人类培育的大量植物和动物。从延展认知的角度来看,我们越来越难以分辨实体是否拥有被视为智能的东西,或智能是否是在互动之后发生的现象。[13]
笔者认为,在制造实体的意义上,自然类和人工类的确难以区分,[14]但是在意识或认知上,自然意识和人工“意识”还是容易区分的。前者是自然进化的,后者是前者衍生的(如果有的话)。事实上,人工智能已经存在,而且发展迅速,至于它有无意识并无太大争议,因为这是显而易见的。这个事实表明,在人类和人工智能实体之间还没有纯粹的不可分性。人类和人工智能之间的这种常识性区别是立足于人类中心主义的,也就是以人类为标准区分人类之外的事物。这实质上是一种二元划分(人类—非人类),这种二元划分容易让人产生对人工智能的极度渴望或极度恐惧的两个极端心理,这在社会多个方面都有表现,如政策制定、人机互动带来的法律和道德问题。如果从混合认知的角度观之,这些问题似乎不是问题。因为人工与自然在方方面面都是混合的,有时很难分清,如人类智能的机器模拟,由于机器是人制造的,机器涌现的智能行为(如机器人跳舞)是人类延展的还是机器自己的?
按照加拉诺斯的看法,借助精神分析方法可解决这种混淆,即从理论上理解自主性是人类主体和人工主体之间的共同特征,将其作为一个标准来确定:为什么这两种形式的实体在其认知行动中既是相当对立的又是相当互补的——它们是混合认知。到目前为止,除混合形式外,人类主体与人工主体之间的唯一区别标准是有生命/无生命、有意识/无意识和自然/人工存在形式这种二分法。混合认知意味着,我们应该研究人类决策和行动的混合和组合条件,包括有意识和无意识的行为,以便利用这些混合过程来构建智能系统的人工架构。只要人类和机器人在某种程度上都是一个延展心理游戏中的参与者,他们是有生命的或无生命的、自然的或人工的属性,在其中起着次要作用。只要产生某些期望的结果需要他们都是变化的智能体即可。用信息哲学的术语说,人类主体和人工主体都是信息圈[15] 的居民,“一旦我们以信息的方式解释实在,它(信息)就是实在的同义词”。[16]
根据信息哲学,实在和现象可以在几个不同的抽象层次上进行研究,由此弗洛里迪(L. Floridi)提出了任务解决的“抽象层次方法”[17] 来解决计算问题,因为计算本身就是抽象的(数学化、逻辑化)。在人类主体和人工主体交互(人机交互)的情况下,人机间有多个问题:它们在哪些层面上不是对立的,以便将这两个群体视为交流的行动者(抽象层次1);它们发生这种交流的共同环境是什么(抽象层次2);交流问题位于哪个领域(抽象层次3)。根据弗洛里迪的说法,信息哲学已经为抽象层次1和抽象层次2提供了框架,这两个群体是生活在信息圈(抽象层次2)中的信息人(抽象层次1)的子类别。正如他所说:“今天,我们正在慢慢接受这样的观点:我们不是独立的和独特的实体,而是体现信息的信息人,相互连接并嵌入一个信息环境中,即信息圈,我们与在许多方面与我们相似的自然和人工主体共享。”[18] 显然,抽象层次1的意思是,只要人类主体和人工主体都参与了信息生产、消费和交换的活动,它们就共享一个共同的环境,就像人类和动物都是生物圈的居民一样,因为它们共同分享有机生命和自然环境。
必须承认,信息圈的概念提供了一个有趣的平面本体论模型,即环境抽象层次2留下了一个抽象层次3(人类主体和人工主体沟通的基础)待我们去研究。事实上,人类和非人类动物都居于抽象层次1中,他们设定了一个共同的环境“生物圈”(抽象层次2)。以同样的方式,信息哲学是以信息为中心的,把人放在信息圈里。因此,生物圈也是信息圈,人工智能的世界就是信息世界。如果所谓的“元宇宙”能够实现,它也一定是信息世界(虚拟与真实的混合世界)。
三、认知机器人的自主性和黑箱性
前述表明,自主性(Autonomy)是适应性表征系统的一个主要特征。在机器人学中,机器人的自主性是依据其所处环境中应对不确定性的能力来定义的,其自主性程度与它完成任务和实现特定目标需要人类操作员协助的程度来确定。这意味着,人类操作员参与的程度越低,机器人的自主性就越高,直到机器人自主行动(无人参与)。从控制论和哲学来看,控制论研究系统的自动性(自组织特性),哲学探讨主体人的自主性(自由意志),这两种类型的自主性似乎都与(人工)意识有关。然而“意识是我们似乎无法捕捉的鱼之一,就像智能一样。我们认识到它的存在、痕迹和影响,但它的确切性质、工作方式和‘位置’仍然无法被我们掌握。由于厌倦了空手而归,一些哲学家最近试图间接地接近意识的问题”。[19] 用控制论的一个术语说,人类主体和人工主体在某种意义上都是“黑箱”,也就是说,观察者只能通过对其输入和输出的间接、描述性观察来了解其“内部”(如大脑)的复杂情况。科学研究就是要将“黑箱”(完全未知)通过“灰箱”(部分知晓)变成“白箱”(完全知晓),这既是人类认知水平提升的过程,也是可解释人工智要做的事情。正如弗洛里迪指出的,“我们是在灰箱里处理黑箱的信息人”,[20] 意思是说,人类作为信息人,我们存在于一个对我们来说半透明的世界,与对我们眼睛完全不透明的实体和现象共存。这意味着,对人类主体而言,通常认为是有意识的自主性,被认为是无意识的“隐藏”心智部分的表达,正如心理分析所指明的那样。在被认为是无意识的人工智能中,自动化作为其主要功能构成了智能活动的核心表达,正如控制论和控制系统理论所揭示的那样(自组织演化)。
可以发现,理论提取自动机信息的方法与心理分析的间接方法极为相似,突出了人类主体与人工主体的共同“黑箱性”。这意味着从自动机的行为中获得有关其内部结构的信息方法可从外部实验中推导出来,如将输入词输入自动机,检查相应的输出词序列,并在此观察基础上得出结论。对人类来说,自主性取决于内部反应与外部事件的适应和匹配,因此,非自主的、有意识的行为是常量,自主性才是变量。对人工主体而言,从纯技术机器人角度来看,“心理机器人”作为“即将到来的人工智能对心理分析研究基础的形式化的第一步”,[21] 是建立一个基于意识—潜意识—无意识划分的人工信息架构,并在一个内置的压缩系统中分析各种“心理表征”。这里存在一个从机械的自动性到有机的自主性的过渡,即机器的无意识自动化到有机体的有意识自主性的过程。这个过程包含了从物理系统到生物系统,从无生命到有生命,从非认知到认知的复杂演化过程,其中的二元绝对区分是少量的,而混合是居多的。总之,混合自主性可能是理解混合认知的一个主要方面,因为自主性在人类和人工智能领域都存在,技术上也很难被构建,它似乎是解释和构建认知的关键因素。这与笔者主张的适应性表征有共同之处,因为自主性是适应性表征的特性之一。
那么,认知机器人这种自动机器具有像人那样的自主性吗?它如何体现生命性?一个自然主义的、基于活动的人工生命模式——自主人工主体(Autonomous Artificial Agents,缩写AAA)试图回答这个问题,[22] 自主性是其绕不过的一个问题。尽管目前的自主性自然主义模型构成了人工智能体发展的主要路径之一,但在诸如活动、规范性、同一性和环境等概念的相对重要性方面还有一些问题需要解决。即使是在自动化(Automation)框架内将自主性和感觉运动性的定义结合起来,也缺少构成人工生命的规范动力学的关键特征,如人工生命和机器人学中的自主性。[23]
自主性无疑是构成一个主体(自然的和人工的)的一个核心要素。在哲学上,自主性与主观性或主体性(Subjectivity)是近义或同义的。自主性具有不依赖或独立的含义,与自由相联系,如道德自主性、自律,其主体是自我决定的,具有逻辑上的独立性,康德在《道德形而上学基础》第二节中将主体性视为人类本性的尊严和每一种理性本性的基础。主观性与客观性相关,是人的一种存在方式和感知体验,通常以第一人称表述。如果这种理解是对的,那么人工智能和机器人领域使用自主性概念更为恰当,因为人工系统缺乏第一人称的感受性。
由此可知,自主性是一个实体选择自己命运的能力;为自己设定规范,而不是由外部律则(自然规律)决定。如果一个实体拥有一种同一性(身份),既能使其按照自己的利益、目标或规范行事,又能迫使它按照自己的利益、目标或规范行事,而不是由环境或设计来决定,那么我们就可以说它是自主的。[24] 这样看来,行为体、规范性和同一性的概念似乎深深地交织在一起(混合)。在人工智能领域,这种交织反而是一个挑战,因为“自主性只需要从自己做事的角度来分析,这只涉及独立的行为或活动,仅此而已”。[25] 如果我们将自主性等同于独立行为,那就等于将自主性(有心理性)降为自动化(机械性)。这里似乎存在一个问题:人工物理系统的自动化与自然生物系统的自主性有着严格的区别,如有意识与无意识、有生命与无生命,这种区分在人工智能领域有必要吗?在我看来,这个问题可通过适应性表征来消解。理由很简单,物理系统和生物系统都存在适应性表征行为,或者说,适应性表征是两种系统的共性。[26]
如果智能体对自己的存在有所认识,这构成了人工智能的自主性的另一个方面——反思性。自主性在某种程度上也意味着主体将自己的存在嵌入世界本身的结构中,因为自主主体不是封闭在自己身上,其活动对世界产生影响,即:自主主体可以对世界做出判断,对世界采取行动,适应世界,把世界变成一个合适的环境,在其中成长、繁衍和死亡。这意味着自主主体通过自己的活动,其居住的环境不可避免地被改变了。换句话说,只要我们将自主主体的活动仅仅局限于其身上,而不完全承认它通过规范世界而对世界本身做出贡献的方式,自主性就不能被完全掌握。如果自主性导致对世界的规范性改造,也就意味着它属于世界,成为世界的一部分;并让我们认识到它不仅仅是一种资源或威胁,也是一个以规范方式通过时间和空间活动的混合之地。
四、生物激发的机器人的自创生性和能动性
系统科学表明,系统的自主性是从物理基础开始的,即在生命系统的基本特征中寻找行为体的基础,并从这些基本能力的描述和专业化的角度理解行为体的发展。[27] 因此,这种合成最小主义大多关注生命系统,由此产生了生物激发的机器人技术并提供了许多洞见。[28]
我们知道,认知科学中有两种类型的自主性:构成性的和行为性的。这种区别类似于两个主要系统观点之间的区别:一个是源于马图拉纳和瓦雷拉[29] 的自创生理论;另一个是由诺埃和奥雷根[30]等哲学家倡导的感觉运动理论,其灵感可追溯到皮亚杰[31] 和吉布森[32] 的工作。这两种观点都提供了克服人工智能体的表征内部模型所遇到的限制和问题的方法。[33] 自创生观认为,自主行为体是一个不稳定的自我生产行为体,其同一性由特定的组织闭合定义,即以特定的方式整合物质和能量的流动,以维持其内部过程网络和环境之间的边界。感知运动观认为,自主行为体有能力通过调节其与环境的耦合(定义为所有可用的传感运动或然性依赖的集合)而采取适应性行为并发展出认知功能。
显然,自主性是适应性表征的一个特征。适应性表征与生命—认知同一性论题[34] 相关,这有助于自主人工智能体的设计。[35] 众所周知,20世纪40至60年代,阿什比(W. R. Ashby)关于适应性和稳定性[36] 的想法是:在一个更新的生成主义框架内,将内部动力学(神经、代谢等)与行为动力学(感觉运动耦合、行为偏好等)联系起来,涵盖了从细胞到社会的各种类型的自主性。[37] 这说明生物的自主性从细胞就开始了。这种低层次的自主性是高层次自主性(如意识的、道德的)的必要条件,构成了一个连续统一体。所以,自主性不是凭空产生的。
一般来说,自主性模式有三个主要条件:同一性、不对称性和规范性。[38] 同一性的意思是说,面向自我生产和维护操作性封闭的过程网络包括内部和行为的动力学。不对称性是说,行为体调节其与环境耦合的能力满足其同一性。规范性是说,行为体根据一套基于维持其同一性的条件来满足失败或成功的事实。由于“偏好”或“习惯”不能完全在行为体内部设计,就像“动机”被实例化为简单的同态驱动那样,自主性必须在本质上立足于感觉运动耦合和神经动力学之间的循环。[39]这种神经动力学和感觉运动耦合之间的可塑性双向耦合是相当有效的,[40 ]因为它允许相对统一的偏好共存,换句话说,是一个行为的生成矩阵,而不是一个固定的需求或动机系统,被设计成一系列行为体必须平衡的独立驱动。这些转换仍然主要发生在环境发生变化的时候,但不是每次都自动发生。因此,具身认知科学的生成主义也面临不小的挑战。
薛纳特(C. Chanet)和尤伯伦(D. Eubelen)认为,鉴于不确定性和内生性都是自主性的特征,生成主义所表现的自主性会面临四种挑战:
一是一元论的挑战:如果生成主义坚持其基于同一性的自主模式的普遍性,其他模式也根据系统维护的规模或模式,规定了不同种类的自主性:每种模式(细胞自主性、行为自主性、社会自主性、道德自主性等)都对“现象学领域”的体验形式(选择性相关环境)开放。
二是个体化挑战:尽管自主性的生成主义模型的支持者经常坚持组织和操作的封闭性的过程性、耦合性、动态性维度,但这些过程大多是适应性/保守性的功能仍然是假设性的,从而妨碍了对自主性作为一种基本形式的理解。这已经是自创生模型面临的一个问题。有人抱怨说,自创生是一个非历史性的概念,[41] 在时间上逆转的自创生过程仍然是自生性的。[42]
三是规范性挑战:将规范性的起源定位在自我维护的总体规范中,不允许有意义的规范建立的可能性,因此,未能将规范性作为基础。这个问题深深植根于康德和新康德的遗产中,[43] 几乎所有关注自我维护(自生的)的自然主义方法都是如此。虽然生成主义的自主性定义在物理上和机械上不是决定性的,因为实现目的的手段不是预先确定的,因此可能失败,但它在目的论上是决定性的,因为最终可行性或可持续性条件是一个“所有价值的母价值”,[44] 超越了任何规范领域。
四是环境挑战:即使环境被认为是制定环境的必要条件,也会很快被吸收到感觉运动循环中。最终,被制定的世界是一个主观的世界,是对行为体而言的世界。[45] 然而,环境不一定是任何多行为体系统的基本变量,而是迈向完全自主互动领域的垫脚石,只涉及行为体。[46]
鉴于这些挑战,薛纳特和尤伯伦认为,我们可通过基于活动的模型重新配置同一性、规范性、活动和环境的相对意义。同一性是规范性条件的核心,必须在环境威胁或变化的情况下保存下来,就像人的人格同一性一生都保持一样。因此,行为体的活动在目的论上由其同一性决定,并受其环境制约。这是语境决定行动(意义)。规范性条件源于一个活动网络,该网络在本体论上超越了同一性的构成和维持。行为体的同一性和环境子集是多种活动相互交流的多尺度副产品。
总之,可行性或可持续性条件既不充分,也不一定能说明自主行为体的活动。如利他主义的母亲往往忽视自我维护(即牺牲自我利益)。自主行为体的活动必然涉及多个规模和多个行为体,如细胞群落、蚁群。活动总是在整个环境中构成性地扩展,如青蛙鸣叫。活动也总是在复杂的环境中与他人交互,如社交活动。
五、认知机器人的具身性和交互性
问题是,机器人如何实现其自主性呢?我们认为可通过具身性(Embodiment)和交互性表征(即适应性表征)来实现,因为智能体的实现从具身认知到社会认知需要交互觉知能力。[47] 我们知道,人的自主性是基于生物身体的感知运动(生物具身性),机器人的自主性是基于感知—行为的物理实现性(物理具身性)。比如,神经机器人学的具身模型[48] 就是一个好例子。著名物理学家理查德·费曼有一句名言:“我不能建造的东西,我就无法理解。”也就是说,我建造的东西我能够理解。然而,人工智能的机器学习是人设计建造的,其中的“黑箱”问题人们并不理解,所以说我建造并不意味着我一定理解,于是才有了可解释机器学习。前述已表明,混合认知的目的是通过研究人类如何将情感、认知、感觉运动和知觉表征结合起来,为设计更现实和更高效的机器人服务。或者说,混合认知的目标之一是建立受生物启发的机器人模型,能够通过模仿人的功能来控制不同种类的信息,研究一个智能系统如何使用,甚至部分地结合多种方法来决定可能的行动输出。笔者预测这可能是具身人工智能要实现的目标,其中适应性表征是不可或缺的能力。
神经机器人学(Nurorobotics)作为具身人工智能的一个领域,目的是建构类人行为的机器人。在人类和非人类灵长类动物包括大多数哺乳动物中,一般运动行为,特别是抓取的视觉运动表征,受情绪和对环境突出特性的情感感知的影响。在目前可用的生物学上似真的机器人抓取模型中,运动互动方面较少得到研究。通过整合情感神经科学的经验证据与视觉、运动神经科学的神经证据,有助于我们使神经机器人学的解决方案更加具身化。研究表明,通过生物学和人工智能的混合,可使视觉和抓取的神经机器人模型更符合神经科学中遵循的认知和感知的具身观点,因为认知源于具身性,这似乎是唯一能够考虑到认知系统的生物复杂性的观点,并相应地适当解释认知系统对其所处环境的高度灵活性和适应性。这是适应性表征方法论在机器人学中的应用。
从适应性表征方法论来看,神经机器人学是将生物的运动反应能力迁移到机器人。这是因为,我们感受自己所处情境的方式,决定了我们与这种情境互动而建立的运动反应。将这种方式迁移到机器人上,就是神经机器人学方法。我们知道,当代类人神经机器人的一个目标是建立类人机器人,即能够与环境自由互动的机器人,也就是我主张的能够适应性表征的机器人。根据我们对人的了解,要建立一个能够与环境互动的具身机器人,就意味着人们要通过遵循管理人类的解剖功能原则,建立一个能够通过其运动技能与环境进行适当互动的机器人;实现一个回路,使机器人能够以几乎与人类一样的方式,从情感角度评估它在环境中面临的对象。需要指出的是,这种生物启发的人工智能不是生物合成意义上的生命体,其构成元素不是生物基质,而是物理基质。
一般来说,神经机器人学关于具身机器人建模有三个约束:神经生物学的、具身的和行为的。[49] (1)神经生物学约束。模型的神经系统应该至少具有人类神经系统的一些关键特征,如预测加工。(2)具身性约束:用具身模型来复制实验,即模型不仅被赋予与人类相似的大脑(人工神经网络),而且还被赋予与我们相似的身体(感应运动系统)。换句话说,机器人应该被赋予一个感应运动系统,至少在某些方面与人类的感应运动系统相似。(3)行为约束:模型应该能够再现和复制实验中产生的行为,如抓取、跳跃。抓取是人类运动行为的一个重要方面(如机械臂),机器人对抓取的模拟可通过上述条件来实现。从情感(抑制或激活)的角度来看,物体属性的表征,或情感相关属性,或情感表征,可以通过抑制或激活影响我们表征同一物体固有的行动属性或可能性,如可抓取、可攀爬等方式。[50] 根据这些要求,模型有助于我们在一个共同的具身框架内整合各种不同的经验结果,这些结果是通过不同的范式和技术获得的,如行动处理的视觉替代模型可满足对具身机器人的三个要求中的第一个方面。[51]
从哲学上考虑,运动系统如抓取蕴含的信息共变、视觉运动转化、情感视觉的适应性表征值得我们反思。在感觉系统与外部环境共变的基础上,我们的大脑必须表征这个环境的一些特征。比如,如果一个可抓取的物体是危险的,我们可用布尔区分将其表征为:(可抓取,危险);如果一个物体是危险的且不能抓取,可表征为:(危险,不可抓取)。同理,我们也可以把一个物体表征为脆弱的,因此,在特定条件下是可以抓取的:确保抓取的力量足以握住物体,但又不会因为力量过大而损坏物体。通过感知系统对特定几何属性的共变,环境中的同一几何属性被两种不同但相关的表征状态所读取,如大脑中视觉运动表征和情感表征(抑制或激活)。随着视觉运动的转换,视觉系统与物体的几何属性相联系,并且由于进入大脑的信息,这些几何属性被读作行动属性。为了真正实现具身性,机器人应该在视觉运动转换和情感编码方面被赋予这种适应(共变)和表征的相互作用。这样,机器人的视觉系统就能够与环境中的属性发生共变。正是由于这种适应性共变,行为体(人和机器人)能够跟踪不同的属性,而这些属性在运动和情感方面的重要性可以由参与行动和情感编码的其他大脑区域完美地表征出来。
在方法论上,这是通过构建来理解的混合或综合方法。这种混合方法不仅与关注分析自然现象是一致的,也与关注构建人工系统的工作是一致的。因此,“如果我们对沙漠蚂蚁如何找到回巢的路,或人类如何行走或在人群中识别人脸感兴趣,我们就构建一个系统,一个模仿我们想研究的行为的某些方面的人工制品”。[52]这种研究方式被证明是非常强大的,因为我们必须建立一个在现实世界中真正起作用的东西,没有办法掩盖细节。当我们为此建立一个抽象理论时,具身机器人的实现就是可能的。这就是适应性表征方法论。
事实上,我们已经部分地与具身认知机器人(Embodied Cognitive Robot)形成共生关系(Symbiosis),如侵入式脑机接口技术。即使这种具身机器人只有一点基本的具身能力,如移动和说话,它也大大改变了我们的生活方式和相互沟通的方式。具身认知机器人作为人的物理替身,可在遥远的地方移动,监测安全情况,而另一些则提供社会服务,如提供导航和引导。人机的共同基础(Common Ground)无疑是实现人类与认知机器人共生的关键。这里的共同基础是每个参与者在互动前需要分享的知识、信念和假设的集合。[53] 在这个意义上,共同基础就是人机交互的情境或语境,语境是动态变化的,即一种情境的语境会随着交互的进行而动态地更新。这种共同基础与我提出的语境叠加模型是一致的,[54] 即人工主体与人类主体在交互中形成一个共同领域(交叉语境),这样他们才有“共同语言”,才能交流和互动。
六、人机交互中的符号性与语义性
人和机器人有了共同基础(语境)就一定能够互动交流吗?为了使认知机器人能够顺利地参与社会互动,它必须能够分享语境,并通过解释传入的社会信号以及在互动过程中产生适当的社会信号来更新。这个过程就是机器学习,它与人的学习应该是一个道理。假设一个人和机器人去商店买东西,他们应该有共同的购物知识(语境),如生活用品是用来做什么的。因此,语境作为共同基础涉及从社区背景(包括文化和习俗)到参与者在互动过程中动态形成和更新的想象场景,使参与者能够以一种有效的方式进行可靠的和创造性的交流。因此,寻求人机交互的一大挑战是内在信息的默会性(Tacitness)——人机共同遵循的默会知识。
目前人们利用虚拟现实和人工智能的最新进展,不仅让研究者从不同的角度充分分享情境,包括参与者的第一人称视角,而且还赋予参与者自己的想法以可视化的能力。[55] 如果人工智能被赋予第一人称视角,并被视为一个实时的助手,向我们建议一些关于对方的文化、动作或解释,它就可以改善我们人类的互动,如不同语言的翻译。实时协助可能会让我们的机器人伙伴在互动过程中通过考虑人工智能提供的可能解释而对我们产生“同情”。人工智能助手可能会让我们考虑适用于对话的其他解释,从而帮助我们更好地了解情况。这不仅是未来社交机器人要执行的任务,也需要我们通过符号学对混合认知予以说明或解释。
然而,人机的认知混合的问题在于,我们对人类认知了解多少,才能让我们将其与人工认知混合,而所谓的“混合”究竟是指哪些方面的结合?人类—自主机器系统(Human-Autonomous Machine Systems,缩写HAMS)是人机交互混合认知模型的一个很好例子。众所周知,推理和决策是人类认知的核心方面,这一般涉及两种认知:分析性认知和直觉认知。[56]分析性认知涉及有意识的深思熟虑的判断和决定,它利用有限的工作记忆资源和假设性的思考。这种认知的容量有限,反应缓慢,并且需要自愿的、费力的认知。直觉认知涉及基于无意识的情境模式识别的判断和决定,不受工作记忆限制的约束。这种认知的容量大,反应快,并以先前的经验为基础。按照这种划分,我们可以看出,分析性认知是后天的,是显知识,直觉认知是先验的,是隐知识。这两种认知方式就是两种知识的区分方式,可通过符号学和生物符号学来解释。
在笔者看来,符号学处理概念、意义和非语言记号,生物符号学处理细胞、细菌、真菌、植物、动物这些概念和意义。将这两个领域结合起来的是霍夫迈尔(Hoffmeyer)的“符号圈”(Semiosphere)概念[57] ——所有生物体居于一个符号世界。可以说,这个概念将生物学与符号学进行整合,形成了生物符号学,构成了我们研究自然界中生命和意义的新方法。[58] 根据实用主义哲学家皮尔斯的符号学,一个感知或思想的意义在于它被解释为对其他物体或事件的思想的符号。[59] 这意味着符号(即意义)包含了感知、思想或概念与其他东西(如对指称的对象或事件的思考)之间的关系。例如,一个早晨上班的人可能会把他或她对堵在公路上的感知解释为他或她上班要迟到的记号或图标(意义)。在皮尔斯看来,图标或记号可以是:(1)与它的指代物有相似之处的图标,如照片;(2)与它的指代物有偶然关系的指号,如刺耳的轮胎声和撞击声;(3)与它的指代物有任意关系的符号,如语言的元素。[60]
如何将符号学与人工智能联系起来呢?笔者认为可通过“框架”(frame)概念来进行。“框架”是符号学的主要概念之一,人工智能中的框架概念就借自符号学。所谓框架,它是一种记忆中的数据结构,用于表征原型的情况,通过必要的细节改变来适应现实。框架的较高层次表征语境,被固定下来表征特定情况下永真的东西;而较低层次表征终端或论据,必须由一些特定的元素或数据实例化。明斯基曾提出,[61] 当遇到新情境,或对某一问题的看法发生重大变化时,会引起对“框架”表征的记忆检索,因为框架必然涉及语言和语义,一个框架和它的低层终端之间的关系可以提供一个句子的意义。我们熟悉的脚本和计划的概念也是基于框架的,[62] 并在生活中被广泛使用,如去餐馆用餐的计划和脚本。这是语句意义产生的过程。
意义产生的过程也是感觉形成(Sensemaking)的过程,框架可以塑造并帮助定义相关的数据;反过来,数据可以推动框架的变化。[63] 由于感觉形成是具身的,这意味着意义的形成是与直觉认知相关的,即直觉认知综合了模式并重新组合了记忆。从符号学来看,将感知、思想或概念解释为指代其他事物的记号(意义生成),似乎需要直觉模式合成和记忆重组。[64]根据这种观点,人类的意义创造需要通过直觉认知进行模式合成和记忆重组。模式合成就是概念重组,这种有意义的概念重组和符号解释是直觉的,没有任何有意识的中间阶段,这意味着思维似乎是一种建构性的、模式化的分析—合成操作。[65]从神经科学来看,记忆、想象和预测有着共同的神经基质。[66]因此,直觉认知通过无意识的情境模式合成和识别来参与意义的形成,这涉及记忆的重新组合,是基于经验的,也当然是具身的。
这种直觉认知的无意识处理与整合信息理论(IIT)相关。根据整合信息理论,意识是由整体生成的整合信息组成的,[67] 意识的数量与综合信息的数量相对应。然而,信息可以通过直觉认知以无意识的意义制造的形式存在,[68] 这意味着仅仅是信息的存在对意识并不充分。因此,信息论不能用来解释意识,因为信息只相对于已经存在的意识而存在。[69] 直觉认知的意义生成需要基于经验的情境模式综合,这似乎是基于案例的推理的一种形式。基于案例的推理涉及从记忆中检索的无意识的解决新问题,被称为“提醒”(Reminding),[70]适应类似的、以前解决的问题的解决方案,而不是依赖规则。
总而言之,符号学的指号过程可以被看作框架及其数据的层次关系。框架的概念似乎等同于语境的概念,而所有的符号学都是基于语境的。为了让主体将某物解释为指代或表征其他东西的记号,并通过模式合成和记忆重组产生意义,我们必须充分了解特定语境的具体内容。符号学的行为本身取决于综合和产生意义的主体的专业知识和敏锐度。所以,符号学包括生物符号学,是哲学语境论的一种具体形态。框架、架构、脚本等概念,均与语境相关,事实上,在笔者看来,语境就是语义框架,就是概念范畴,就是意义形成的基底。所以,任何解释都离不开符号和语境,符号与其语境的脱离必然产生误解,甚至产生错误表征。就意义而言,无论怎样强调语境的作用都不过分,因为我们人类是语境化的物种,生活于语境世界。
不可否认,直觉认知是人类的一种先天能力,如以直觉认知从事意义制造或符号学的有力证据是,医生、消防员所做的大多数决定都是基于有意义的情境模式识别的过程。如何将这种能力与人机交互结合起来是个难题:直觉认知适用于人类和自主机器系统吗?激发模式合成和记忆重组是一种方法,比如,我们对过去事件的回忆和重述,小学生对童话故事情节的重新描述,有助于大脑的模式合成与记忆重组。先前没有经历的突发事件也有助于模式合成和记忆重组的激发,例如,假设您停在加油站旁边的红绿灯前,突然有一辆车失控冲过来,很可能会撞上加油机,进一步导致加油机起火。这种突发情况使您立刻意识到危险,这种情境不会基于任何单一记忆,而是几种模式的组合:油遇火会燃烧∧火能烧伤人∧逃离危险。
人机交互中的情境可能也是如此。想象一下,机器被设计为动态地改变其记忆中各元素之间的关系,以反映它“理解”的某种变化,如更新其内部符号系统的基础。[71] 帕特森(R. E. Patterson)和埃格尔斯顿(R. Eggleston)认为,这种更新可以导致预测,从而为诱发人类洞察力的激活线索的产生提供信息。符号基础中的这种更新表征了人工记忆的操作,而激发洞察力的线索则表征了人类记忆的操作,在伴随着意义生成的模式合成和记忆重组过程中,人类—自主机器系统中的“混合认知”将需要对人类记忆(通过激发线索)和人工记忆(通过更新)进行操作。他们进一步认为,在最邻近层面,人类和自主机器认知的“混合”可以通过在伴随着意义创造的模式合成和记忆重组过程中对人类和人工记忆的操纵来实现。因此,具身人工智能要发展人机之间的共同理解和共同感知,以及为灵活和有效的决策创造人机共享的环境。
七、结语
混合认知是认知科学和人工智能包括机器学习发展的必然结果。混合就是将不同认知范式或模型加以整合,因为任何单一范式或模型都不能反映和说明认知或智能的本质。正如多明戈斯将符号学派、联结学派、进化学派、贝叶斯学派和类推学派混合起来形成所谓的“终极算法”那样,[72] 构成一幅“优化城”(相当于混合认知域)。从哲学语境论来看,为了实现某种形式的共同理解和共同决策,我们可以建立一个共同的语境基础或语境框架,以便人类和自主机器在其中都能将某些物体或事件解释为表征同一事物的相同记号。这可能是人类和自主机器可以执行认知协调的工作计划的一种方式。而且,为了实现共享感知,自主机器可以创建一个用于激发人类洞察力的焦点线索——适应性表征,该线索将由人类和机器共享。共享的基础一定是共同语境或交叉语境,而形成共同基础的核心是适应性表征。因此,混合认知就是一种优化的人工智能适应性表征策略。
▲原刊于《上海师范大学学报(哲学社会科学版)》2023年第1期(图片源自网络,如有侵权请联系删除。)注释
1 J. Vallverdú, V. C. Müller, eds., Blended Cognition: The Robotic Challenge, Springer Nature Switzerland AG, 2019, preface, p.vii.
2 戴维·弗农:《人工认知系统》,周玉凤,魏淑遐译,王希审校,北京大学出版社2021年版,第28页。
3 P. Abrams, “Adaptationism, Optimality Models and Tests of Adaptive Acenarios”, in S. H. Orzack, E. Sober, eds., Adaptationism and Optimality, Cambridge: Cambridge University Press, 2001.
4 约翰·冯·诺依曼:《计算机与人脑》,甘子玉译,商务印书馆2002年版,第17页。
5 L. Magnani, Abductive Cognition: The Epistemological and Eco-cognitive Dimensions of Hypothetical Reasoning, Heidelberg/Berlin: Springer, 2009.
6 L. Magnani, “Manipulative Abduction, External Semiotic Anchors and Blended Cognition”, in J. Vallverdú, V. C. Müller, eds., Blended Cognition: The Robotic Challenge, p.40.
7 I级计算是指神经激活的模式,它是身体和环境之间相互作用的结果,也是前符号性的(图示阶段),并由进化和个人历史适当地形成:模式完成或图像识别。
8 II级计算是指衍生的组合语法和语义由符号学环境中发现或构建的各种人工外部表征和推理装置(如图标表征)动态地形成;它们或多或少完全在神经学上被偶然地表征为神经激活的模式,有时倾向于成为稳定的意义结构并固定下来,因此永久地属于上述的I级。
9 D. Walton, Goal-based Reasoning for Argumentation, Cambridge: Cambridge University Press, 2015, pp.12-13.
10 戴维·弗农:《人工认知系统》,第114页。
11 拉·美梅特里:《人是机器》,顾寿观译,王太庆校,商务印书馆1991年版。
12 V. Galanos, “Blended Automation: The Language-game of Psychoanalytic Automatism and Cybernetic Automata”, in J. Vallverdú, V. C. Müller, eds., Blended Cognition, Springer Series in Cognitive and Neural Systems 12, Chapter 4.
https://doi.org/10.1007/978-3-030-03104-6_4.
13 V. Galanos, “Artifificial Intelligence Does not Exist: Lessons from Shared Cognition and the Opposition to the Nature/Nurture Divide”, in D. Kreps, et al eds., This Changes Everything ICT and Climate Change: What Can We Do?, HCC13 2018, IFIP AICT 537. Springer Nature Switzerland, Switzerland AG, 2018. https://doi.org/10.1007/978-3-319-99605-9_27.
14 J. Vallverdú认为,人类和人工设备都可称为“实体”的种类,拒绝“自然”和“人工”之间的区分,认为这种区分已经过时,而且是完全错误的。我不认可这种观点,因为实体是一个更广泛的概念,当然包括自然类和人工制品,但从认知或智能的角度看,自然和人工之间的区分是必要的,否则人类智能和人工智能就混为一谈了。参见J. Vallverdú, “The Emotional Nature of Post-cognitive Singularities”, in V. Callaghan, et al eds., The Technological Singularity, the Frontiers Collection. Springer, Heidelberg, 2017, pp.193-208,https://doi.org/10.1007/978-3-662-54033-6_11。
15 信息圈是指由所有信息实体、它们的属性、互动、过程和相互关系构成的整个信息环境,如互联网世界。
16 L. Floridi, The Fourth Revolution: How the Infosphere is Reshaping Human Reality, Oxford: Oxford University Press, 2014, p.41.
17 这个术语最初源于计算机科学,意指计算层面的差异,如问题界面的抽象层次、计算语言的抽象层次。参见L. Floridi, “The Informational Nature of Personal Identity”, Mind Mach, Vol.21, No.4, 2011, pp.549-566。
18 L. Floridi, “Turing’s Three Philosophical Lessons and the Philosophy of Information”, Philos Trans R Soc A Math Phys Eng Sci, 2012, 370(1971):3536-3542(3540).
19 L. Floridi, The Philosophy of Information, Oxford: Oxford University Press, 2011, p.290.
20 L. Floridi, The Philosophy of Information, p.371.
21 A. Khrennikov, “Toward Psycho-robots”, Paladyn J Behav Robot, Vol.1, No.2, 2010, pp.99-108(99).
22 C. Chanet and D. Eubelen, “Towards Autonomous Artificial Agents? Proposal for a Naturalistic Activity-based Model of (Artificial) Life”, in J. Vallverdú, V. C. Müller, eds., Blended Cognition, Chapter 10. https://doi.org/10.1007/978-3-030-03104-6_10.
23 T. Froese, N. Virgo, E. Izquierdo, “Autonomy: a Review and a Reappraisal”,in Advances in Artificial Life, Springer, Berlin/Heidelberg, 2007, pp. 455-464. https://doi.org/10.1007/978-3-540-74913-4_46.
24 W. F. G. Haselager, “Robotics, Philosophy and the Problems of Autonomy”, Pragmat Cogn, Vol.13,No.3, 2005, pp.515-532.
25 I. Muntean and C. D. Wright, “Autonomous Agency, AI and Allostasis a Biomimetic Perspective”, Pragmat Cogn, Vol.15, No.3, 2007, pp.485-513(493).
26 魏屹东:《适应性表征:架构自然认知和人工认知的统一范畴》,《哲学研究》2019年第9期。
27 W. D. Christensen and C. A. Hooker, “Autonomy and the Emergence of Intelligence: Organised Interactive Construction”, Commun Cogn Artif Intell, Vol.17, No.3-4, 2000, pp.133-157.
28 R. J. Duro, F. Bellas, J. A. Becerra Permuy, “Brain-like Robotics”, in N. Kasabov(ed.), Springer Handbook of Bio-/neuroinformatics. Berlin/Heidelberg: Springer, 2014, pp.1019-1056. https://doi.org/10.1007/978-3-642-30574-0_57; D. Floreano, C. Mattiussi, Bio-inspired Artifificial Intelligence: Theories,Methods and Technologies. Intelligent Robotics and Autonomous Agents, Cambridge, MA: MIT Press, 2008.
29 H. R. Maturana, F. J. Varela, The Tree of Knowledge: the Biological Roots of Human Understanding, Rev eds., Shambhala; Distributed in the U.S.by Random House, Boston/New York, 1992.
30 J. K. O’Regan, A. Noë, “A Sensorimotor Account of Vision and Visual Consciousness”, Behav Brain Sci, Vol. 24, No. 5, 2001, pp.939-973. https://doi.org/10.1017/S0140525X01000115.
31 皮亚杰:《发生认识论原理》,王宪钿等译,胡世襄等校,商务印书馆1997年版,第1—2章。
32 J. J. Gibson, The Ecological Approach to Tisual Perception, Boston: Houghton Mifflflin, 1979.
33 E. A. Di Paolo, T. Buhrmann, X. Barandiaran, Sensorimotor Life: an Enactive Proposal, Oxford: Oxford University Press, 2017.
34 X. E. Barandiaran, “Autonomy and Enactivism: Towards a Theory of Sensorimotor Autonomous Agency”, Topoi, 2016,1-22, p.9.
35 X. E. Barandiaran, Mental Life: a Naturalized Approach to the Autonomy of Cognitive Agents, University of the Basque Country, 2008. http://www.barandiaran.net/phdthesis/; M. D. Egbert, X. E. Barandiaran, “Modeling Habits as Self-sustaining Patterns of Sensorimotor Behavior”, Front Hum Neurosci 8(août), 2014. https://doi.org/10.3389/fnhum.2014.00590; J. Stewart, O. Gapenne, E. A. Di Paolo, Enaction Toward a New Paradigm for Cognitive Science, Cambridge, MA: MIT Press, 2010. http://site.ebrary.com/id/10453038; X. E. Barandiaran, E. A. Di Paolo, M. Rohde, “Defifining Agency: Individuality, Normativity, Asymmetry and Spatio-Temporality in Action”, Adapt Behav, Vol. 17, No. 5, 2009, pp.367-386. https://doi.org/10.1177/1059712309343819; A. Moreno, A. Etxeberria, J. Umerez, “The Autonomy of Biological Individuals and Artificial Models”, Biosyst Model Autonomy, Vol. 91, No. 2, 2008, pp.309-319. https://doi.org/10.1016/j.biosystems.2007.05.009.
36 W. R. Ashby, “The Nervous System as Physical Machine: With Special Reference to the Origin of Adaptive Behavior”, Mind, Vol. 56, No. 221, 1947, pp.44-59; W. R. Ashby, Design for a Brain, Dordrecht: Springer, 1960. https://doi.org/10.1007/978-94-015-1320-3.
37 T, Froese, E. A. Di Paolo, “The Enactive Approach: Theoretical Sketches from Cell to Society”, Pragmat Cogn, Vol. 19, No. 1, 2011, pp.1-36. https://doi.org/10.1075/pc.19.1.01fro.
38 E. A. Di Paolo, H. Iizuka, “How (not) to Model Autonomous Behaviour”, Biosyst Model Autonomy, Vol. 91, No. 2, 2008, pp.409-423(pp.410-411). https://doi.org/10.1016/j.biosystems.2007.05.016.
39 X. E. Barandiaran, “Autonomy and Enactivism: Towards a Theory of Sensorimotor Autonomous Agency”, Topoi, 2016, p.20.
40 H. Iizuka, E. A. Di Paolo, “Toward Spinozist Robotics: Exploring the Minimal Dynamics of Be Havioral Preference”, Adapt Behav, Vol. 15, No. 4, 2007, pp.359-376(p.375). https://doi.org/10.1177/1059712307084687.
41 A. Moreno, M. Mossio, Biological Autonomy, History, Philosophy and Theory of the Life Sciences, Dordrecht: Springer Netherlands, Vol. 12, 2015, p.311. https://doi.org/10.1007/978-94-017-9837-2.
42 E. A. Di Paolo, “Autopoiesis, Adaptivity, Teleology, Agency”, Phenomenol Cogn Sci, Vol. 4, No. 4, 2005, pp.429-452(p.444). https://doi.org/10.1007/s11097-005-9002-y.
43 S. Rand, “Organism, Normativity, Plasticity: Canguilhem, Kant, Malabou”, Cont Philos Rev, Vol. 44, No. 4, 2011, pp.341-357. https://doi.org/10.1007/s11007-011-9196-3.
44 E. A. Di Paolo, “Organismically-inspired Robotics: Homeostatic Adaptation and Teleology Beyond the Closed Sensorimotor Loop”, in Dynamical Systems Approach to Embodiment and Sociality, 2003, pp.19-42(p.18).
45 T. Ziemke, N. E. Sharkey, “A Stroll Through the Worlds of Robots and Animals: Applying Jakob Von Uexkülls Theory of Meaning to Adaptive Robots and Artificial Life”, Semiotica,2001,1-4(134):701-746. https://doi.org/10.1515/semi.2001.050.
46 T. Froese, E. A. Di Paolo, “The Enactive Approach: Theoretical Sketches from Cell to Society”, Pragmat Cogn, Vol. 19, No. 1, 2011, pp.1-36(pp.11-12). https://doi.org/10.1075/pc.19.1.01fro.
47 K. Dautenhahn, et al., “From Embodied to Socially Embedded Agents—Implications for Interaction-Aware Robots”, Cognitive Systems Research, Vol. 3, No. 3, 2002, pp.397-428.
48 G. Ferretti and E. Chinellato, “Can Our Robots Rely on an Emotionally Charged Vision-for-Action? An Embodied Model for Neurorobotics”, in J. Vallverdú, V. C. Müller, eds., Blended Cognition, Springer Series in Cognitive and Neural Systems 12, Chapter 5. https://doi.org/10.1007/978-3-030-03104-6_5.
49 A. M. Borghi, C. Gianelli, C. Scorolli, “Sentence Comprehension: Effectors and Goals, Self and Others, An Overview of Experiments and Implications for Robotics”, Front Neurorobot, Vol. 4 , No. 3, 2010. https://doi.org/10.3389/fnbot.2010.00003.
50 F. Anelli, A. M. Borghi, R. Nicoletti, “Grasping the Pain: Motor Resonance with Dangerous Affordances”, Conscious Cogn, 2012, 21:1627-1639.
51 E. Chinellato, A. P. del Pobil, The Visual Neuroscience of Robotic Grasping, Achieving Sensorimotor Skills Through Dorsal-ventral Stream Integration, Cham: Springer International Publishing, 2016, p.51.
52 R. Pfeifer and J. Bongard, How the Body Shapes the Way We Think, Cambridge, MA: MIT Press, 2006, p.78.
53 H. H. Clark, Using Language, Cambridge/New York: Cambridge University Press, 1996.
54 魏屹东:《科学表征:从结构解析到语境建构》,科学出版社2018年版,第584—585页。
55 M. S. Mirzaei, et al., “Towards Conversation Envisioning for Cognitive Robots”, in J. Vallverdú, V. C. Müller, eds., Blended Cognition, Springer Series in Cognitive and Neural Systems 12, Chapter 6. https://doi.org/10.1007/978-3-030-03104-6_7.
56 R. E. Patterson and R. G. Eggleston, “The Blending of Human and Autonomous-Machine Cognition”, in J. Vallverdú, V. C. Müller, eds., Blended Cognition, Springer Series in Cognitive and Neural Systems 12, Chapter 8. https://doi.org/10.1007/978-3-030-03104-6_8.
57 J. Hoffmeyer, Signs of Meaning in the Universe, Bloomington: Indiana University Press, 1996.
58 S. Brier, “Biosemiotics”, in Enc Lang linguist 2nd ed, 2006, 2:31-40; T. A. Sebeok, Signs: an Introduction to Semiotics, University of Toronto Press, 1994; T. A. Sebeok, “Signs, Bridges, Origins”, in J. Trabant, ed., Origins of Language, Budapest: Collegium Budapest, 1996, pp.89-115.
59 J. Hoopes, Peirce on Signs, Chapel Hill: University of North Carolina Press, 1991, pp.7, 239.
60 J. Bruner, Acts of Meaning, Cambridge, MA: Harvard University Press, 1990, p.69.
61 M. Minsky, “The Psychology of Computer Vision”, in P. Winston, ed., A Framework for Representing Knowledge, New York: McGraw-Hill, 1975.
62 L. W. Barsalou, W. Yeh, B. J. Luka, K. L. Olseth, K. S. Mix, L. Wu, “Concepts and Meaning”, in K. Beals, G. Cooke, D. Kathman, K. E. McCullough, S. Kita, D. Testen, eds., Chicago Linguistics Society 29, papers from the parasession on conceptual representations, University of Chicago: Chicago Linguistics Society, 1993, pp.23-61.
63 G. Klein, B. Moon, R. Hoffman, “Making Sense of Sensemaking 2: a Macrocognitive Model”, IEEE Intell Syst, 2006, 21:88-92.
64 R. Patterson, R. G. Eggleston, “Intuitive Cognition”, J Cogn Eng Decis Mak, 2017, 11:5-22.
65 U. Neisser, Cognitive Psychology, Englewood Cliffs: Prentice-Hall, 1967.
66 S. L. Mullally, E. A. “Maguire, Memory, Imagination and Predicting the Future: a Common Brain Mechanism?”, Neuroscientist, 2014, 20:220-234.
67 G. Tononi, M. Boly, M. Massimini, C. Koch, “Integrated Information Theory: from Consciousness to Its Physical Substrate”, Nat Rev Neurosci, 2016, 17:450-461.
68 R. Patterson, B. Pierce, A. Boydstun, L. Ramsey, J. Shannon, L. Tripp, H. Bell, “Training Intuitive Decision Making in a Simulated Real-World Environment”, Hum Factors, 2013, 55:333-345.
69 J. R. Searle, “Can Information Theory Explain Consciousness? Review of Christ of Koch’s Consciousness: Confessions of a Romantic Reductionist”, The New York Review of Books, MIT Press, January 10, 2013.
70 R. C. Schank, Dynamic Memory Revisited, Cambridge: Cambridge University Press, 1999.
71 S. Harnad, “The Symbol Grounding Problem”, Physica D Nonlinear Phenom,1990, 42:335-346.
72 佩德罗·多明戈斯:《终极算法:机器学习和人工智能如何重塑世界》,黄芳萍译,中信出版集团2017年版,第309页。
编辑:梁钰妍 张微 王雅梅
校对:李嘉君
审核:陈吉
往期推荐
都市与语言|从上海方言看海派文化(2022年第5期)
好文!必须点个在看