查看原文
其他

人工智能与人类社会丨新一代智能系统的发展趋势

点击上方“上海师范大学学报哲社版”关注我们


人工智能与人类社会


混合智能

人机混合智能:

新一代智能系统的发展趋势


作者简介:刘伟,北京航空航天大学工学博士,北京邮电大学人工智能学院研究员,北邮人机交互与认知工程实验室主任,剑桥大学访问学者,清华大学战略与安全研究中心中美二轨AI谈判专家,媒体融合生产技术与系统国家重点实验室特聘研究员,中国指控学会认知与行为专委会副主任委员、城市大脑专委会委员。研究领域为人机融合智能、认知工程、人机环境系统工程、未来态势感知模式与行为分析/预测技术等多方面等。至今发表论文70多篇,出版专著6部,译著3部。现为中国信息与电子工程科技发展中心专家委员会特聘专家、国家自然科学基金评议专家、全国人类工效学标准化技术委员会委员、中国人工智能学会高级会员。 


摘要:研究智能这个复杂问题是困难的,但可把它分解成人机环境系统问题分析处理,人所要解决的是“做正确的事(杂)”,机所要解决的是“正确地做事(复)”,环境所要解决的是“提供做事平台(复杂)”。智能不是人脑(或类脑)的产物,也不是人自身的产物,而是人机环境系统相互作用的产物。人工智能要超越人类智能,在现有数学体系和软硬件设计模式基础之上,基本上不大可能,但在人机一体化或人机环境系统中却是有可能的。智能主要有两种,一是以价值算计为基础的人类智能,二是以数学计算为基础的机器智能。人机混合智能理论侧重于描述人机环境系统相互作用产生的一种新的智能形式,不同于人类智能和人工智能,它是结合物理性和生物性的新一代智能科学系统。人机混合智能是人工智能发展的必经之路,其关键在于新逻辑体系的建立。

关键词:人工智能;人机环境系统;计算计;人机混合智能



智能是人、物(机)、环境系统(为简化起见,后面均以“人机环境系统”代替“人、物(机)、环境系统”)相互作用的产物。正如马克思所言:“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和。”[1] 如狼孩尽管具有人脑的所有结构和组成成分,但因没有与人类社会环境系统的交流或交互,所以不可能有人的智能和智慧。事实上,真实的智能同样也蕴含着人物环境这三种成分。随着科技的快速发展,其中的“物”逐渐被人造物——“机”所取代,本文简称为人机环境系统。平心而论,人工智能要超越人类智能,在现有数学体系和软硬件设计模式基础之上,基本上不大可能,但在人机一体化或人机环境系统中却是有可能的。人工智能是逻辑的,智能则不一定是逻辑的。智能拥有一个非常辽阔的空间,它可以随时打开异质的集合,把客观的逻辑与主观的超逻辑结合起来。

研究复杂性问题是困难的,但把它分解成人机环境系统问题就相对简单一些,至少可以从人机环境角度去思考理解。研究智能这个复杂问题也是困难的,但同样也可把它分解成人机环境系统问题分析处理,人所要解决的是“做正确的事(杂)”,机所要解决的是“正确地做事(复)”,环境所要解决的是“提供做事平台(复杂)”。

智能是一个复杂的系统,既包括计算也包括算计,一般而言,人工智能(机器)擅长客观事实(真理性)计算,人类智能优于主观价值(道理性)算计。当计算大于算计时,可以侧重人工智能;当算计大于计算时,应该偏向人类智能;当计算等于算计时,最好使用人机混合智能。

一般而言,数学解决的是等价与相容(包含)问题,然而这个世界的等价与相容(包含)又是非常复杂的,客观事实上的等价与主观价值上的等价常常不是一回事,客观事实上的相容(包含)与主观价值上的相容(包含)往往也不是一回事,于是世界应该是由事实与价值共同组成的,即除了数学部分之外,还有非数之学部分构成,科学技术是建立在数学逻辑(公理逻辑)与实验验证基础上的相对理性部分,人文艺术、哲学宗教则是基于非数之学逻辑与想象揣测之上的相对感性部分,二者的结合使人类在自然界中得以不息地存在着。

机器智能的核心是符号指向的对象,人类智能的核心是意向指向的对象,人机混合智能的核心是意向指向对象与符号指向对象的结合问题,它们都是对存在的关涉。人机混合智能也许就是解决休谟之问的一个秘密通道,即通过人的算计结合机器的计算实现了从“事实”向“价值”的“质的飞跃”。

一、什么是人机混合智能

人工智能的优势在于庞大的信息存储量和高速的处理速度,但是无法处理如休谟之问,即从“是”(being)能否推出“应该”(should),也即“事实”命题能否推出“价值”命题;也无法处理情感的表征问题。人工智能尝试通过大数据与逐步升级的算法实现人的情感与意识,但依旧没有办法实现跨越。

人工智能是一种返回修改模式,一组代码解决一个问题,问题没处理好,代码自动返回,修改数据,代码再执行。反复修改,也就是反复学习,这就是人工智能。当然,好的人工智能技术,在一定范围内可以自己修改不足的模型,进而可以在一定程度上模拟人的具体能力,如人类的部分计算、逻辑推理能力,但它对人类“非家族相似性”的类比、决策能力还无能为力。所以人工智能中的“智能”并不是真的人的智能。

人工智能有限的理性逻辑和困难的跨域能力是其致命的缺陷。其无法理解相等关系,尤其是不同事实中的价值相等关系。人工智能也无法理解包含关系,尤其是不同事实中的价值包含关系(小可以大于大,有可以生出无)。人可以用不正规、不正确的方法和手段实现正规、正确的目的,还可以用正规、正确的方法和手段实现不正规、正确的意图。人可以用普通的方法处理复杂的问题,还可以(故意)用复杂的方法解答简单的问题。

从人工智能的特点及缺点中,我们不难看出:人的思维很难在人工智能现有的理论框架中得到解释。那该如何做才有可能寻找到一条通往智能科学研究光明前程之路呢?下面将针对这个问题展开最底层的思考和讨论。

“人工智能之父”图灵的朋友和老师维特根斯坦在他著名的《逻辑哲学论》第一句就写道:“世界是事实的总和而非事物的总和。”[2] 其中的事实指的是事物之间的关涉联系——关系,而事物是指包含的各种属性,从目前人工智能技术的发展态势而言,绝大多数都是在做识别事物属性方面的工作,如语音、图像、位置、速度等,而涉及事物间各种关系层面的工作还很少,但是已经开始做了,如大数据挖掘等。在这些眼花缭乱的人工智能技术中,人们常常思考着这样一个问题:什么是智能?智能的定义究竟是什么呢?

关于智能的定义,有人说是非存在的有,有人说是得意忘形,有人说是随机应变,有人说是鲁棒适应,一百个专家,就有一百种说法。实际上现在要形成一个大家都能接受的定义是不太可能的。但是,这并不影响大家对智能研究中的一些难点、热点达成一致看法或共识,如信息表征、逻辑推理和自主决策等方面。

有了数据和信息之后,智能的信息处理架构就格外重要,到目前为止,有不少人提出了一些经典的理论或模型,如在视觉领域,视觉计算的创始人戴维·玛尔(David Marr)的三层结构至今仍为许多智能科技工作者所追捧。玛尔认为,神经系统执行类似于机器的信息处理。视觉是一项复杂的信息处理任务,旨在掌握和表达对我们有用的外部世界的各种情况。必须从三个不同的层面理解这项任务,见表1。

当前,在解释人类认知过程工作机理的理论中,由卡耐基梅隆大学教授约翰·罗伯特·安德森(John Robert Anderson)提出的ACT-R(Adaptive Control of Thought–Rational ,缩写ACT-R)模型被认为是一个非常有前途的理论。该理论模型认为人类的认知过程需要四个不同的模块参与,即目标模块、视觉模块、动作模块和描述性知识模块。每个模块独立工作,并由中央生产系统协调。描述性知识模块和中央生产系统是ACT-R的核心。描述性知识模块存储个人随时间积累的不变知识,包括基本事实(如“西雅图是美国的城市”)、专业知识(如“设计高铁交通信号控制系统的方法”)等。由于个人程序性知识存储的中央系统,这些条件—动作(产生式)以规则的形式呈现,当满足一定条件时,执行相应的触发规则动作对应的模块,永久保证认知过程模拟的各个个体模块之间的接口。ACT-R是一种模拟和理解人类认知理论的认知架构。ACT-R旨在了解人类如何组织知识并产生智能行为。ACT-R的目的是使系统能够执行各种人类认知任务,如捕捉人类的感知、思想和行为。

无论是玛尔的三层结构计算视觉理论,还是安德森提出的ACT-R理论模型,以及许多解释和模拟人类认知过程的模型,都存在一个共同的缺点和不足,即不能把人的主观参数和机器/环境中的客观参数有机地统一起来,模型的弹性不足,很难主动地产生鲁棒性的适应性,更不要说产生情感、意识等更高层次的表征和演化。当前的人工智能与人相比除了在输入表征和混合处理方面的局限外,在更基本的哲学层面存在先天不足,即回答不了休谟问题。

从认识论的角度看,“should”是指在描述一个事物的状态和特性的参数(或变量)的众多数值中取其最大值或极大值,“being”是指从描述事物状态和特性的参数(或变量)的众多数值中取其任意值。从价值论的角度来看,“should”是指在描述一个事物的价值状态和价值特征的众多参数(或变量)中取其最大值,“being”是指在描述一个事物的价值状态和价值特征的众多参数(或变量)中取其任意值。“being”描述事物状态和价值特征的许多参数(或变量)。

由于受偏好、习惯、风俗等因素的影响,即使是人类的认识论和价值论也经常出现非因果归纳和演绎,如严格意义上而言,从“天行健”这个事实(being)命题是不能推出“君子必自强不息”这个价值观(should)命题的,但是随着时间的延续,这个类比习惯渐渐变成了有些因果的意味。人工智能如果有一定的智能,恐怕更多的应是数字逻辑语言智能,在特定场景既定规则和统计又既定输出的任务下可以极大提升工作效率,但在有情感、有意向性的复杂情境下仍难以无中生有、随机应变。未来智能科学的发展趋势必将会是人机智能的不断混合促进。

人机混合智能理论侧重于描述人机环境系统相互作用产生的一种新的智能形式。它不同于人类智能和人工智能,它是结合物理性和生物性的新一代智能科学系统。人机交互技术主要关注人脖子以下的人体工程学生理和心理工效学问题,而人机混合智能主要关注与人脖子以上的大脑相关的智能问题,以及大脑的算计与机器的计算相结合的智能问题。人机混合智能不同于人工智能:首先,在智能输入端,人机混合智能传感器不仅仅依靠硬件来收集客观数据或对主观特征的感知,而是将两个接触点有效结合,先验知识是一种新的输入模式;其次,在对智能产生也很重要的信息处理阶段,将人类的认知模式与计算机的优势计算能力相结合,构建了一种新的理解方式;最后,在智能的输出端,将人类在决策制定中的价值效应添加到计算机的渐进迭代算法中,形成协调组织和概率的优化判断。在人机混合的不断适应中,人类会自觉地反思惯性常识行为,机器会从人类在不同条件下做出的决策中发现价值权重的差异。人与机器的理解将从单向转变为双向,人的主动性与机器的被动性交织在一起。人在处理自己擅长的“应该”等价值导向的主观信息的同时,机器不仅可以处理自己擅长的“是”(being)等具有规律、概率的客观数据,而且还会优化自己的算法。

人机混合智能使用分层架构。人类通过后天获得的完善认知能力来分析对外界环境的感知,其认知过程可分为记忆层、意向层、决策层、感知与行为、意向性思维的形成;机器使用传感数据对外部环境进行感知分析,其认知过程分为知识库目标层、任务计划层、感知层和执行层,形成形式化思维。相同的架构表明人类和机器可以在相同的级别之间混合,并且可以在不同的级别之间创建因果关系。图1为人机混合智能示意图。

图1  人机混合智能示意图

人机混合智能,简单地说就是充分利用人和机器的长处形成一种新的智能形式。人机混合智能中非常重要的一点是,人能够理解机器如何看待世界,理解机器做出的决策,并且在机器的限制内有效决策。相反,机器需要与合作的人更加“熟悉”。就像一些体育运动中的双人队友一样,如果没有默契,很难创造出适当的组合效果和精确的协同作用。这也意味着,人会开始有意识地思考他通常无意识地执行的任务,机器会开始处理合作者的个性化习惯和喜好,两者必须随环境随时随地进化……计算机和心灵相互感应,充分利用两者的优势,如人类可以打破逻辑,用直觉思维做出决定,而机器拥有检测人类感官无法检测到的信号的能力等。任何分工都会受规模和范围限制,人机混合智能中的功能分配是分工的一部分,另外一部分是能力分配。功能分配是被动的,外部需求所致;能力分配是主动的,内部驱动所生。在复杂、异质、非结构、非线性数据/信息/知识中,人的或者是类人的方向性预处理很重要,当问题域被初步缩小范围后,机器的有界、快速、准确优势便可以发挥出来了。当获得大量数据/信息/知识后,机器也可以先把他们初步映射到几个领域,然后人再进一步处理分析。这两个过程的同化顺应、交叉平衡大致就是人机智能混合的过程。未来的关键就在于人机智能混合的那个“恰好”,就是阴阳鱼中间的那条S形分隔线。

二、计算计

1.计算

理解知识是理解智能的源头。古代中外哲学家注意到术语、名词、概念的内容是因人而异的。如老子曾说,“道可道,非常道;名可名,非常名”。柏拉图也曾认识到,语言和概念的模糊性和易变性难以描述永恒不变的实体。但是哲学家们在知识的不确定中也在尝试解释宇宙万物的统一性,认为存在一种永恒的、普适的、客观的自然规律,道家把它称为“道”或“太一”。而柏拉图发明了“理念”“形式”,并且正式提出同一性问题。这也标志着哲学的诞生。柏拉图在此基础上提出的诸多问题主宰着两千年的哲学潮流,诞生了诸多学说,但是意见的意见仍然是意见。导致这种意见众多却无法解释的现象,原因在于没有解决问题的工具。

建造测量理性和思维的工具,从亚里士多德的三段论系统开始。通过给定的初始前提,三段论系统可以推导出结论。但由于亚里士多德提出的该逻辑较为粗糙,无法表述有价值的逻辑推理。随后,数学家们在逻辑、计算、概率论、博弈论中的研究工作,不仅提高了人类的生产水平与认知水平,而且为现阶段的人工智能提供了工具。19世纪,布尔提出了布尔逻辑,即命题逻辑,随后,弗雷格扩展了布尔逻辑,创建了一级谓词逻辑。通过引入关系谓词符号、变量以及量词,就能表述演绎规则。当人类将焦点聚集在弗雷格逻辑时,发现了若干漏洞,其中一个漏洞是没有把逻辑概念与集合论概念分解开。为此,希尔伯特在20世纪20年代去掉了罗素逻辑(罗素曾完善弗雷格逻辑的“说谎者”漏洞)中所有专门针对集合概念的部分,专门构建了“谓词逻辑”并沿用至今。

因此,如希尔伯特所说,数学无须再用数字、几何图形等传统研究符号来描述,甚至可以用啤酒、凳子等毫无关联的符号来研究数学。通过抽象符号,用逻辑证明来定义数学,由此数学变成一种普适逻辑。1908年,策梅洛专门针对集合论提出公理。1930年,哥德尔证明任何理论均可以转化为集合论,使得集合论本身具有了本体论中立性。

随后,希尔伯特提出了算法的判定性问题:有没有一种算法,能够判定在谓词逻辑下的命题是否可以证明成立?1936年,丘奇、图灵、克莱尼分别独立证明,这样的算法是不存在的。由此推理出停机问题无法用算法解决。对于希尔伯特判定性问题而言,不存在判定一个谓词逻辑命题是否可证明的算法。这一定量被称作“丘奇定理”。换而言之,其说明了计算和推理是两码事:某些数学问题无法用计算解决,只能通过推理解决。丘奇、图灵定义的“λ演算”和“图灵机”就是通用计算,这一观点也被称为“丘奇—图灵论题”。1978年,英国数学家、逻辑学家甘迪提供了丘奇—图灵论题的物理形式证明。他假设:a. 信息的密度是有限的;b. 信息的传输速度是有限的。在经典的三维空间中,“丘奇—图灵论题”的物理形式是成立的。甘迪的论证说明大自然之所以被数学化,仅仅因为信息的密度和传播速度是有限的。联想到相对论关于光速有限的假设以及最小作用量原理,这样的结论在令人惊奇之余又不违反物理原则。因此,我们可以用算法来进行各种学科和知识的探索,并以人工智能的方式出现在今天的科研、制造、生产、商业、服务和消费行为中。

现有的人工智能技术均依赖于现有的计算体系,达到模仿人类心智的人工智能体系还未建立。在现有的计算体系下,人工智能能够表征一部分人类理性思维特质,而非理性甚至非逻辑性的思维特性如何表征,将是人工智能发展的一大突破口。

2.算计

算计本质上是人类没有数学模型的计算。计算的局限性无法通过图灵机突破,所以对人的非理性、非逻辑思维解构与在机器上的重建就有非凡的意义。从对人的认知模式的理解,尝试解释人的认知能力和构建出能学习、推理的认知模型,已经在一些应用领域取得不错的效果。再后来对意识的理解构建出的意识图灵机[3]在处理问题时能做到其思维过程的意识觉知。即便如此,我们对人类的思维过程的模仿依然显得很拙劣,对人类的直觉、灵感、顿悟等能力的模拟还是没有好的方案,更别说人类特有的对责任、价值的理解。

第一,认知模型。

认知模型是对人类认知能力的理解并在此基础上构建的模拟人的认知过程的计算模型。这里认知模型中的认知能力通常包括感知、表示、记忆与学习、语言、问题求解和推理等方面。[4] 为了能够构建出更加智能的机器,我们便希望从人的身上寻找灵感,同时也是更好地探索和研究人的思维机制,特别是人对周围信息的感知处理机制,进而为打造出真正的人工智能系统提供新的体系结构和技术方法。[5] 杜奇(Duch)根据记忆和学习的不同将现有的认知模型分为三类:符号化(Symbolic)认知模型、浮现式(Emergent)认知模型和混合型(Hybrid)认知模型。[6] 粗略地讲,符号化认知模型侧重于利用高阶符号和陈述性知识,采用传统人工智能的自上而下的分析方法来处理信息,如SOAR、EPIC、NARS等;浮现式认知模型利用低水平的激活信号流经由无数处理单元组成的网络,采用一种自下而上的处理,这种处理依赖于浮现式自组织属性和连接属性,如IBCA、NOMAD等;混合型认知模型则将这两种方式结合起来,具备符号化认知模型和浮现式认知模型的某些特点,如ACT-R、LIDA、4CAPS等。

第二,意识图灵机。

意识图灵机 (Conscious Turing Machine, 缩写CTM)的灵感来源于图灵简单而强大的图灵机。与前文提到的对大脑或者思维认知的构建提出的认知模型不同,意识图灵机是针对意识构建的简单数学模型。认知神经科学家巴尔斯提出的全局工作空间理论[7]概述了对意识的理解,再有一些脑中神经相关物的研究,基于此布鲁姆提出了意识图灵机。意识图灵机能够在处理信息过程中对意识内容产生意识觉知,能够体验感觉而不仅仅是模拟感觉,提出这些感觉产生的可能方式,如痛苦和快乐。意识图灵机适合对其所做的高级决策做出解释,这就为人工智能的不可解释性问题的解决提供了思路。另外,在意识图灵机中,有意识和自由意志的感觉,以及幻觉和梦境的体验。

第三,算计的内涵。

人机混合智能系统不仅需要机器的强计算能力,更重要的是人的智慧,是一种理性与非理性、机的计算与人的算计深度混合的智能系统。机的客观数据采集输入、逻辑推理和决策输出已经在应用中大展拳脚,而对于人的认知决策过程还需要进一步理解建模,才能实现算计能力。

算计也即盘算、筹划谋算;对事情的经过或结果进行仔细而从容的反复思考;考虑。近义词为:权衡、谋略、谋划、愿景、计划、筹划、策划、意图、预案。算计也即人们对于做什么之慎思斟酌,对应于英语中的deliberations,weigh up,weighings,plans,strategies。

认知是人获取和应用知识的过程,知识图谱是人对客观世界的各要素之间的理解进而尝试表示的一种形式,在目前的人工智能应用中已有良好的表现。在简单问答数据集上的问答能力已经可以和人类相媲美,但是对于复杂的问题依然无能为力。这是因为复杂问题需要多跳的表征和推理。在算计中,与计算上仅仅依靠硬件传感器采集到的数据进行输入、表示过程不同,算计需要基于目标驱动和价值驱动对数据进行动态表征。如今的深度学习系统中并没有恒定的知识表征,对不同的学习数据就会有不同的表征形式,并没有基于其自身的原点对数据进行不同事实甚至责任、价值的划分。而人类的大脑中存在“参考系”的恒定表征(参考系位于大脑皮层的上层),人类是基于自身的观念如欲望、义务对于不同的事实数据进行表征理解。在计算、算计的不同表征中,连续特征空间为人(算计)的认知内容,离散语义符号空间代表机(计算)的感知系统,二者之间还应存在一种连续的准语义空间。我们可以通过上升(Raising)操作将连续空间中的特征表征迁移到准语义空间中,进而通过抽象操作将准语义空间中的表征迁移到离散语义符号空间中。反过来,我们可以通过嵌入、投影,将离散语义符号空间中的表征迁移到连续特征空间中。这样一来,我们就构建了一种感知、认知相结合的通道。

数学的表征常常涉及具体事实抽象化,其推理内容则严格按照逻辑来进行,这当然不可或缺,但总是有非理性、非逻辑的存在。简单问题,通过一定知识图谱表示和问题求解程序在现今的人工智能系统下就能实现求解,但复杂问题往往需要多跳的推理。这种多跳的推理不仅是计算中的映射,更重要的是一些非逻辑的漫射(如发散思维)、影射(如联想、想象)等。人类的推理常常具有试探性,要经过多次试错、根据结果反馈、在校准之后进行下一步,而现有的人工智能的逻辑推理缺乏这种主动的试错性,这就在最后的决策过程中使得效果欠佳。有人提出了基于图的可解释认知推理框架,即以图结构为基础,将逻辑表达用作对复杂问题的分析过程,从而表示成显示的推理路径。可是图的结构化必然会过滤掉一些非结构化的隐信息,虽可以一定程度上解释迁移性,但更像是一种“硬解释”,似乎整个结构就是为了推理过程服务。算计的弹性推理不仅需要知识驱动和数据驱动的联合,更有价值和责任的引领,这样在推理过程中才会有非理性的洞见、直觉等表达。计算的决策输出是根据逻辑推理的结果或者大数据、概率的优化产生,而算计却可做出一些不合逻辑的意向性表达。计算的处理是从事实到新的事实,而算计可以从事实通过动态表征和弹性推理实现价值体现。

3.计算计模型

本文根据现有的计算及认知领域成果,提出计算计模型,如图2所示。这里有个前提,由人机环境构成的智能系统不仅包含数学、计算机科学、心理学、哲学等领域,还涉及其他诸多学科混合的复杂系统。既具有“确定性”,也具有“随机性”。在此,本文不对人机环境系统进行更加细致的客观描述,只是对其进行可行性的模型预测。

图2  计算计模型

其一,态势感知层内包含环境信息。环境包括自然时空与社会时空内的环境,一切问题的源头来自自然与社会,也可以说人类知识的来源也是如此,此环境包含了确定以及不确定的成分。除此之外,态势感知层还负责态势信息的收集与感知处理。数学领域的微积分类似于这一过程,通过将已知数据进行处理,从而接近问题的答案。指挥与控制领域的情报收集与分析领域同样是对信息的感知处理,相对于数字与微积分符号,情报的量化更加复杂,更多的是交由经验丰富的指挥员处理。传统的自动化方法及机器学习算法可能会导致“回路外”错误,因为人类对任务的态势感知度较低,因为人类对任务以及环境的感知有很大程度基于经验,容易产生自满情绪或缺乏警惕性。环境的不确定反馈也会对回路外的问题产生影响,这凸显了在紧密结合与松散结合的人机环境交互间实现平衡的重要性。当前,算法处理后的数据可解释性下降,使得人类困于“回路外”,同时也产生人类对智能体(Agent)的信任度下降问题。

其二,认知决策层类似于对态势感知信息的深加工,其不仅取决于人的传统意义上的认知,同时也需要机器推理的能力。人类的推理基于直觉、逻辑、关联等认知能力,算计的思想包含于其中。20世纪80年代专家系统盛行,机器可以进行简单的问答,但是问答内容局限性较强。其主要原因除了计算能力外,还有机器被授予的推理能力基于一对一、一对多、多对一的知识映射关系。如何实现在动态表征下的弹性推理,在具备足够硬件算力条件下是值得被考虑的问题。并且,将动态表征下的知识进行散射、漫射、影射,实现多跳推理,是实现该问题的关键。模糊逻辑提供了一个或多个连续状态变量映射至相应类别进行推理和决策的框架;神经网络利用程序,在大型典型案例数据库的训练过程中学习到用可变互联权重来进行的知识表达的算术框架;遗传与进化算法在进化遗传学的启发下,采用重复仿真的方法,缩小潜在的选项范围,选择最优解决方案。人类通过人机交互界面与机器交互,机器给予人类辅助决策。实现机件人化是人机混合中迈出的一大步。

其三,目标行为层主要体现在人机混合决策中。当出现更高水平的智能体时,人类永远处于决策的最高层,这是在许多领域达成的共识(在目标追求低人力成本条件下例外)。意义建构对真实世界中的生存至关重要,很多研究表明,人类努力建构这个世界中的对象、事件和态势具有重要意义。人类较为擅长迹象解读,对人类而言,建构是一种心理活动。为了使机器与人类有效合作,机器与人类的反应与决策应当将相同对象、事件或态势解读为相同的迹象,或者获得相同的意义。机器的辅助决策在必要时同样需要提供更完整的意义建构,达到人机混合决策的目标。

4.逻辑压缩与坍塌

逻辑的线性可以叠加处理,但逻辑的非线性却变化多端,具体可表现为:发散收敛(弥聚)、跳跃协同(跳协)、显性隐性(显隐)。公理不是真理,而是某种协议,是一种非存在的有,如东方的孙悟空和西方的圣诞老人一般,虽不存在,但人们心中都“有”其形象。数学是由多个公理(非存在的有)建筑起来的逻辑体系,如点、线、面的概念、无穷等。智能中的逻辑压缩也许是多种事实性逻辑被压缩成价值性逻辑的过程。这在一定程度上也超越了当前数学计算验证体系的边界,而这恰恰也是人类算计的特长:能够自主调和、融洽各种事实性逻辑矛盾于某种价值性逻辑之中。

哲学上讲,客观世界完全独立于主观世界的存在,但这是个伪命题,并不是真正存在的。真正能观察到的,是客观和主观之间的结合。由于观察者和被观察的世界相互作用,我们不可能无穷精准地把客观世界了解清楚。或许当硬件能力达到一定程度,大家就会关注软件能力的提高,当软件能力达到一定程度,人们就会关注硬件能力的提高。

衡量一个人的智能水平可以尝试从他“跨”“协”不同领域能力的速度和准确性来初步判断,同理可得,衡量一台机器的智能水平也可以尝试从它“跨”“协”不同领域能力的速度和准确性来初步判断,衡量一群人机的混合智能水平也可以尝试从它们“跨”“协”不同领域能力的速度和准确性来初步判断。简单地说,计算机处理问题的方式是产生式的(if-then),计算计则是启发式的(不求最优但求满意),而启发式往往可以处理非线性问题。或许,启发式的计算计恰恰就是逻辑压缩成功与否的关键之所在。当人机在异常复杂的环境里无能为力时,也许就是逻辑坍塌之际……当然,可以人为制造复杂度造成逻辑坍塌。

三、人机混合智能的未来发展方向

人机混合智能有两大难点:理解与反思。人是弱态强势,机是强态弱势,人是弱感强知,机是强感弱知。人机之间目前还未达到相声界一逗一捧的程度,因为还没有单向理解机制出现,能够幽默的机器依旧遥遥无期。乒乓球比赛中运动员的算到做到、心理不影响技术(想赢不怕输)、如何调度自己的心理(气力)生出最佳状态、关键时刻心理的坚强、信念的坚定等,都是机器难以产生出来的生命特征。此外,人机之间配合必须有组合预期策略,尤其是合适的第二、第三预期策略。自信心是匹配训练出来的,人机之间信任链的产生过程常常是:陌生—不信任—弱信任—较信任—信任—较强信任—强信任,没有信任就不会产生期望,没有期望就会人机失调,而单纯的一次期望匹配很难达成混合,所以第二、第三预期的符合程度很可能是人机混合一致性的关键问题。人机信任链产生的前提是人要自信(这种自信心也是匹配训练出来的),其次才能产生他信和信他机制,他信与信他里就涉及多阶预期问题。若being是语法,should就是语义,二者中和相加就是语用,人机混合是语法与语义、离散与连续、明晰与粗略、自组织与他组织、自学习与他学习、自适应与他适应、自主化与智能化相结合的无身认知+具身认知共同体、算+法混合体、形式系统+非形式系统的化合物。反应时与准确率是人机混合智能好坏的重要指标。人机混合是机机混合,器机理 + 脑机制;人机混合也是人人混合,人情意+人理智。

人工智能是硬智,人的智能是软智,人机混合智能则是软硬智。通用的、强的、超级的智能都是软硬智,所以人机混合智能是未来,但是混合机理、机制还远未搞清楚。个体与群体行为的异质性,不仅体现在经济学、心理学领域,而且还是智能领域最为重要的问题之一。现在主流的智能科学在犯一个以前经济学犯过的错误,即把人看成理性人。殊不知,人是活的人,智是活的智,人有欲望、有动机、有信念、有情感、有意识,而数学性的人工智能目前对此还无能为力。如何混合这些元素,使之从冰冷、生硬的状态转化为温暖、柔性的情形,应该是衡量人工智能的主要标准和尺度,同时这也是目前人工智能很难跳出人工的瓶颈和痛点。

经济学融入心理学后即可使理性经济人变为感性经济人,而当前的智能科学仅仅融入心理学是不够的,还需要渗入社会学、哲学、人文学、艺术学等方能做到通情达理,进而实现由当前理性智能人的状态演进成自然智能人的形势。智能中的意向性是由事实和价值共同产生出来的,内隐时为意识,外显时叫关系。从这个意义上说,数学的形式化也许会有损于智能。维特根斯坦认为,形式是结构的可能性。对象是稳定的、持续存在的东西,配置则是变动的、非持久的东西。维特根斯坦还认为,我们不能从当前的事情推导出将来的事情。[8] 也就是说,基本的事态或事实之间不存在因果关系。只有不具有任何结构的东西才可以永远稳定不灭、持续存在;而任何有结构的东西都必然是不稳定的、可以毁灭的。因为,当组成它们的那些成分不再依原有的方式组合在一起的时候,它们就不复存在了。事实上,在每个传统的选择(匹配)背后都隐藏着两个假设:程序不变性和描述不变性。这两者也是造成期望效用描述不够深刻的原因之一。程序不变性表明对前景和行为的偏好并不依赖于推导出这些偏好的方式(如偏好反转),而描述不变性规定了对被选事物的偏好并不依赖于对这些被选事物的描述。

人机混合智能难题,即机器的自主程度越高,人类对态势的感知程度越低,人机之间接管任务顺畅的难度也越大,不妨称为“生理负荷下降、心理认知负荷增加”现象。如何破解呢?有经验的人常常抓任务中的关键薄弱环节,在危险情境中提高警觉性和注意力,以防意外,随时准备接管机器自动化操作;也可以此训练新手,进而形成真实敏锐地把握事故的兆头、苗头,恰当地把握处理时机、准确的随机应变能力,并在实践中不断磨砺训练增强。即便如此,如何在非典型、非意外情境中解决人机交互难题仍需要进一步探讨。

算计需要的是发散思维,计算需要的是缜密思维,这是两种很不一样的思维方式。这两种方式同时发生在某个复杂过程中是小概率的事件,由此带来的直接后果就是,复杂领域的突破也只能是小概率的事件。对待场景中的变化,机器智能可以处理重复性相同的“变”,人类智能能够理解杂乱相似性(甚至不相似)的“变”,更重要的是还能够适时的“进化”,其中“随动”效应是人类算计的一个突出特点,另外,人类算计还有一个更厉害的武器——“主动”。有人说:“自动化的最大悖论在于,使人类免于劳动的愿望总是给人类带来新的任务。”[9] 解决三体以上的科学问题是非常困难的,概念就是一个超三体的问题:变尺度、变时空、变表征、变推理、变反馈、变规则、变概率、变决策、变态势、变感知、变关系……犹如速度与加速度之间的关系映射一般,反映着智能的边界。有效概念的认知是怎样产生的,OODA还是OAOODDDAA?抑或是OA?这是值得思考的问题。多,意味着差异的存在;变,意味着非存在的有;复杂,意味着反直观特性;自组织/自相似/自适应/自学习/自演进/自评估意味着系统的智能……人机环境系统中重要/不重要节点的隐匿与恢复是造成全局态势有无的关键。好的语言学家与好的数学家相似,少计算多算计,知道怎么做时计算,不知道怎么做时算计。算计是从战略到策略的多逻辑组合,人机混合计算计机制犹如树藤相绕的多螺旋结构,始于技术,成于管理。如果说计算是科学的,算计是艺术的,那么计算计就是科学与艺术的。[10]

价值不同于事实之处在于可以站在时间的另一端看待发生的各种条件维度及其变化。仅仅是机器智能永远无法理解现实,因为它们只操纵不包含语义的语法符号。系统论的核心词是突显(整体大于部分),偏向价值性should关系;控制论的核心词是反馈(结果影响原因),侧重事实性being作用。耗散结构论的核心词是开放性自组织(从非平衡到平衡),强调从being到should的过程。控制论中的反馈是极简单的结果影响(下一个)原因的问题,距离人类的反思——这种复杂的“因果”(超时空情境)问题很遥远。算计是关于人机环境系统功能力(功能+能力)价值性结构谋划,而不是单事实逻辑连续的计算,计算计正是关于正在结构中事实—价值—责任—情感多逻辑组合的连续处理过程,人机混合智能难题的实质也就是计算计的平衡。

人机混合智能是人工智能发展的必经之路,其中既需要新的理论方法,也需要对人机环境间的关系进行新的探索。我们已经从认知角度构建认知模型或者从意识的角度构建计算计模型,这都是对人的认知思维的尝试性理解和模拟,期望实现人的算计能力。计算计模型的研究不仅需要考虑机器技术的飞速发展,还要考虑交互主体即人的思维和认知方式。让机器与人各司其职,互相混合促进,这才是人机混合智能的前景和趋势。

未来的机器不但要服务于人,还要改造人,更重要的是与人合作。人机混合智能的关键在于新逻辑体系的建立。人机之间主体、客体划分之外还有人们常常故意忽略的混体、动体或变体(主客体或客主体)。非此即彼的是非还原论是对现实系统观的无能为力。人类常常用相似对事实进行降维,计算计的关键在于处理变体问题,其核心不是二元的“与或非”逻辑体系,而是加入了多颗粒度的“是非中”逻辑系统。计算对网格比较好用,算计对跳格相对较易,人类的智能不时会违反逻辑常识。计算的逻辑是“与或非”,算计的逻辑是“是非中”,其中,“是”偏同化、“非”侧顺应、“中”为平衡,当遇到问题时,先用是、再用非、后用中。大是大非时,大是不动,先试小非,再试中非;若不行,大非不动,先试小是,再试中是。这些试的过程就是“中”的平衡。“中”就是不断尝试、调整、平衡。以上就是计算计结合的逻辑体系,算计逻辑把握价值方向,计算逻辑细化事实过程。

人机混合智能走向未来,没有新逻辑也许就会没有灵魂。新逻辑会产生新数学,新数学也许就会产生新智能。

▲原刊于《上海师范大学学报(哲学社会科学版)》

2023年第1期

(配图源自网络,如有侵权请联系删除)


注释

1 马克思、恩格斯:《马克思恩格斯选集》第1卷,人民出版社1995年版,第56页。

2 维特根斯坦:《逻辑哲学论》,商务印书馆2016年版,第25页。

3 B. Manuel, B. Lenore, “A Theoretical Computer Science Perspective on Consciousness”, Journal of Artificial Intelligence and Consciousness, Vol.8, No.1, 2021.

4 Samuel B. Wintermute, Abstraction, Imagery and Control in Cognitive Architecture, Michigan: University of Michigan, 2010, p106.

5 Pat Langley, John E. Laird, Seth Rogers, “Cognitive Architectures: Research Issues and Challenges”, Cognitive Systems Research, Vol.10, No.2, 2009.

6 D. Wlodzislaw , Richard J. Oentaryo, P. Michael, “Cognitive Architectures: Where Do We Go from Here? ” in: Proceedings of the 2008 Conference on Artificial General Intelligence, Netherlands, 2008, pp.122-136.

7 B. J. Baars, “In the Theater of Consciousness: A Rigorous Scientific Theory of Consciousness”, Journal of Consciousness Studies, No. 4, 1997.

8 维特根斯坦:《逻辑哲学论》,第65页。

9 玛丽·L.格雷、西达尔特·苏里:《销声匿迹:数字化工作的真正未来》,上海人民出版社2020年版,第103页。

10 刘伟:《人机混合:超越人工智能》,清华大学出版社2021年版,第4页。 


编辑:梁钰妍 张微 王雅梅

校对李嘉君

审核:陈吉

往期推荐

都市与语言|从上海方言看海派文化(2022年第5期)

都市与语言 | 论城市语言规划的范式变迁与治理转向(2022年第5期)

都市与语言|永远的外地人还是名义上的上海人(2022年第5期)

城市与社会 | 古地图上的城市——兼谈城市历史地理研究(2023年第1期)

艺术与传媒 | 独异性美学:一种正在产生的审美新形态(2023年第1期)


好文!必须点个在看

继续滑动看下一个
上海师范大学学报哲社版
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存