机器学习宗师Michael I. Jordan 撰文:不要被深度学习一叶障目不见泰山
雷锋网 AI 科技评论按:正如大家讨论人工智能时经常把它和机器学习甚至深度学习近似等价,工业界和学术界的许多研究、开发人员们也往往过于关注深度学习,忽略了实际上范围更广的机器学习和人工智能领域还有许多有价值的问题等待研究。
近日,UC 伯克利大学电子工程与计算机学院和统计学院教授、机器学习领域的宗师、被称为「人工智能界的迈克尔乔丹的」Michael I. Jordan 就发表了一篇文章,提醒大家不仅深度学习不是「人工智能」的全部,甚至我们日常讨论的「人工智能」都不是真正意义上的「人工智能」的全部;这里不仅有许多我们忽略了的问题,而且为了真正造福全人类,还有一个关于如何构建人工智能系统的新学科才刚刚萌芽、 等待建立。雷锋网 AI 科技评论把这篇文章全文编译如下。
人工智能(AI)是这个时代的人们的口头禅,它被技术专家、学者、记者和投资者们一遍遍反复念叨。就像以往许许多多先从技术学术领域出现再传播到普罗大众中的短语一样,人们使用 AI 这个短语时存在严重的误解。以往可能是因为公众没能理解科学家,但这次是科学家们和公众一样迷惑。这个时代出现和我们具有同等智力的硅基智慧的可能性让我们所有人都觉得有趣,它既吸引我们又让我们害怕。但是,它还会让我们分心。
对于这个时代发生的事情,我想讲一个视角独特的故事。这个故事里涉及到人类、计算机、数据和生死抉择,但这里的重点是硅基智能的幻想之外的一些东西。14 年前,当我的妻子怀孕时,我们做了超声波检查。为她检查的遗传学家指出胎儿心脏周围有一些些白色斑点。「这些是唐氏综合症的标志,」她说,「患病风险已经上升到二十分之一了。」她进一步告诉我们,可以通过羊膜穿刺术检查出胎儿是否带有唐氏综合症突变基因。但是羊膜穿刺术存在风险,在手术过程中胎儿的死亡率大约是三百分之一。
作为一名统计学家,我决定找出这些数字的来源。长话短说,我找到了一份来自英国的 10 年前的针对这一疾病的统计分析,其中认为这些白色的斑点反映了钙的积累,是唐氏综合症的预测因子之一。但我也注意到,检查我妻子的成像机器比英国研究中使用的机器每平方英寸多几百个像素。我就回去告诉遗传学家,这些白色的斑点很可能是假阳性——它们实际上是「白噪音」。她说到,「啊,那我知道为什么我们诊断出的唐氏综合症几年前一下子变多了,我们就是那个时候换的新机器。」
我们最终没有做羊膜穿刺术,几个月后,我们的女儿出生了,非常健康。但这件事让我心中五味陈杂,尤其是在粗略计算之后,我确信,在医生告诉我们诊断结果的那一天,全世界上有成千上万的人得到了与我们相同的诊断结果,他们中的许多人选择了羊膜穿刺术,许多婴儿不必要地死去。这种事情每天都会发生,直到某一天人们找出原因。这一事件体现出的医疗问题并不是只有我一个人会遇到,这是整个医疗系统的问题 —— 在某一些时间地点测量变量、得出结果,进行统计分析,然后在其他时间地点使用这些结论。
准确地说,问题不仅在于数据分析本身,还在于数据库研究人员所称的「溯源(provenance)」—— 广义上说,数据出现在哪里,从数据中得出了什么推论,以及这些推论与当前情况关联性有多大?虽然一个受过专业训练的人可能能够针对每一种情况具体分析、具体解决,但真正需要解决的问题是全世界范围使用的医疗系统如何在不需要精细的人类监督情况下就能做到这一点。
我也是一名计算机科学家,我突然意识到建立这种世界性规模的推理和决策系统的学科 —— 将计算机科学与统计学融合,并将人类经验考虑在内 —— 从来就没有任何学校教授过。我也意识到,不仅在医学领域,在商务、运输和教育等领域也类似,这种法则的建立至少与构建 AI 系统(让我们眼花缭乱的游戏 AI 和运动感知系统)同等重要。
无论我们能否在短时间内理解「智能」,我们都面临着一个巨大的挑战,那就是如何将计算机和人类结合,让人类更好地生存。这一难题被一些人看作是「人工智能」的诞生,但我们也可以用平常心、以敬畏之心把它看作工程学科的一个新的分支。
就像几十年前的土木工程和化学工程一样,这个新学科的目标是集合一些关键思想的力量,安全地为人们带来新的资源和能力。就像土木工程和化学工程是建立在物理理论和化学理论的基础之上,这个新学科建立在我们在上个世纪中发现的思想之上,在诸如「信息」、「算法」、「数据」、「不确定性」、「计算」、「推理」和「优化」等概念之上。此外,由于这一学科的大部分重点都是来自于人类、关于人类的数据,它的发展也需要社会科学和人文学科提供帮助。
虽然这个学科的一些基础理论已经逐渐出现,但把它们组合到一起的法则还不见踪影。这些基础理论之间现在就只能单个单个地产生联系、堆在一起。
就像土木工程学科出现之前人们就已经在造房子、造桥一样,人们现在也是在没有建立起新的学科的情况下,就在着手建造把机器、人类、环境都包含在内的全社会尺度的推理和决策系统。同样地,就像早期的建筑和桥梁有时会以完全无法预料的方式倒塌,造成悲剧的后果,我们许多早期的全社会尺度的推理和决策系统也已经暴露出了严重的观念问题。
更难堪的是,我们人类并不是很擅长预测下一次会在哪里出现严重问题。我们现在缺少它对应的工程学科,缺少其中的分析和设计的法则。
当下的公众谈起这些问题的时候总是用「人工智能」这个词宽泛地囊括了所有和智慧相关的概念,这也就让新出现的科学技术的影响范围和后果变得很难讨论。我们先仔细看看「人工智能」这个词近期以及历史上都表示过哪些含义吧。
如今的「人工智能」在大多数情况下所指的,尤其是在公众讨论中,就是过去的几十年中我们称作「机器学习 Machine Learning」的东西。机器学习是一门研究算法的学科,它从统计学、计算机科学和其它一些学科汲取了思想,用来设计能处理数据、做出预测、帮助人类决策的算法。至于对真实世界的影响,机器学习的影响是实实在在的,而且远不止是近期才有影响。实际上,早在 1990 年代初的时候机器学习就已经表现出了明显的迹象可以对工业界产生巨大的影响,到了二十一世纪,亚马逊这样的有前瞻性的公司就已经把机器学习用到了公司业务的上上下下当中,处理着诈骗检测、逻辑链预测这样的后端问题,也构建了推荐系统这样的面向用户的创新服务。随着数据集的大小和计算资源在过去的 20 年里突飞猛进,我们现在可以清楚地看到,不只是亚马逊,几乎任何可以依据大规模数据做出决策的企业都很快会把机器学习作为动力。新的商业模式会涌现。也已经出现了「数据科学」这个短语用来称呼这种现象,其中反应的就是机器学习算法专家和数据库、分布式系统专家携手构建可拓展的、鲁棒的机器学习系统的需求,也反应了这样的系统对更大的社会和环境范围的影响。
在过去的几年里,这种思想和技术潮流的融合也被我们称作了「人工智能」。然而这种称呼是值得我们仔细审视的。
历史上来说,人们在 50 年代末产生了一股用软硬件共同重现出人类水平智慧的热情,同时也创造出了「人工智能」/「AI」这个词。这种志向我们可以称为仿人类人工智能(human-imitative AI),在这种观念里具有人造智慧的实体应当被看作我们的伙伴,即便看上去不像,精神上也应当像。这很大程度上可以看作学术研究领域的一种野心。一些相关的学术领域当时就已经存在,比如运筹学、统计学、模式识别、信息学和控制学这些学科,而且他们也经常从人类的智慧(以及动物的智慧中)获得启发,但一定程度上这些学科都关注的是“低层次”的信号和决策。比如说一只松鼠理解它所居住的森林的三维结构的能力、在树枝间跳跃的能力,都对这些学科有启发作用。而「人工智能」应当关注的是另一些东西,是人类推理、思考中的「高层次」的、「认知性」的能力。一晃六十年过去了,高层次的推理和思考能力我们仍然捉摸不到。如今被称作人工智能的技术进步基本都来自于低层次模式识别、运动控制相关的工程领域,以及在数据中寻找模式,据此做出预测、验证猜想和决策的统计领域。
实际上,David Rumelhart 在八十年代重新发现的、如今被看作是所谓「人工智能革命」的核心的反向传播算法,最早在五六十年代就出现在了控制领域。当时它最早的应用之一就是为阿波罗飞船计算飞向月球时的推力。
六十年代以来,我们的技术有了许多突破性发展,但是很大程度上这些进步并不是来自于对仿人类人工智能的追求的。倒不如说,就像阿波罗飞船的这个例子里一样,这些思想都是隐藏在幕后的,是尝试解决一些非常具体的工程挑战的研究人员们的研究成果。虽然一般大众看不到,但在文档索引、文本分类、腐败监控、推荐系统、个性化搜索、社交网络分析、规划、诊断和 A/B 测试方面的研究和系统构建都非常的成功;谷歌、Netflix、Facebook、Amazon 这些大公司的驱动力也正是这样的技术进步。
现在我们会简单地把上面这些东西全都统称为「人工智能」,看上去也似乎确实是那么回事。对于优化或者统计领域的研究员来说,这种归类方式算是一个不大不小的惊喜,他们一下子就变成了「人工智能研究员」。但除了研究员的归类问题之外,更大的问题是这种单个的、定义得并不准确的缩写词汇会阻止我们清晰地理解当下大规模的智能化和商业化问题。
过去的 20 年里我们有许多重大突破,工业界和学术界也一同创造出了一种新的思维,作为仿人类人工智能的补充;我们常常把它称作「智慧增强」(Intelligence Augmentation)。在这里,我们用计算能力和数据构建一些服务,它们可以增强人类的智力和创造能力。搜索引擎就可以看作是智慧增强的一个例子,它增强了人类的记忆能力、增强了人类对客观事实的认识;自然语言翻译也是这样,它增强了人类的沟通的能力。基于电脑的声音和图像生成也可以成为艺术家创作时的调色板和创新思想的增强。不过,虽然这样的服务最终不可避免地会涉及到高层级的推理和思维能力,目前它们却在这方面是一篇空白:它们所做的只不过是通过各种各样的字符串匹配和数值计算找到一些人类可以加以利用的模式而已。
这里我还需要再提出一个概念,就是广义地认识到「智慧基础设施」(Intelligent Infrastructure)这个学科。它是指一种计算能力、数据和相关的物理实体组成的网络,这个网络可以让人类的生存环境对人类更有帮助性、更有趣、也更安全。这样的基础设施已经在物流运输、医药、商业和金融这样的领域显露头角,影响到了无数的个人和社会活动。有时候人们谈起物联网(IoT)也会提起某种网络的建立,不过物联网领域的网仅仅是把「物」连接到了「网」上而已,对于如何让这些「物」处理数据流、发现关于世界的信息、与人类互动等等超越 0 和 1 组成的数据的高级抽象问题完全没有触及。
比如我可以再讲一个自己的想法,我们可能幻想过生活在一个「全社会尺度的医疗系统」中,它会设置好医生和病人身边的医疗设备间的数据流和数据分析流,从而在疾病诊断和医疗护理中为人类的智慧提供帮助。这个系统可以收集身体细胞中的信息、DNA 中的信息、血液诊断中的信息、环境、群体遗传学以及关于药物和医疗方法的海量文献中的信息,然后把它们集成在一起。它关注的不是单个病人和医生,而是所有人类之间的关系,就像现代的医学实验是在某一部分人身上(或者动物身上)做实验,然后用依据实验结果医治别的人。同样,就像现代银行系统可以在金融和支付领域中注重关联性、可追溯性和可靠性这些问题一样,这个医疗系统也最好可以注重这些理念。并且,虽然我们可以预见到构建这样的系统会遇到各种各样的问题,包括隐私问题、责任问题、安全问题等等,但这些问题都应当被正确看待为等待解决的挑战,而不是阻止构建这样系统的理由。
我们现在就遇到了这样一个关键问题:面对这些更大的挑战,研究仿人类人工智能是应对它们的最好的方法,甚至是唯一的方法吗?机器学习领域最常被提起的成功故事里有不少就是和仿人类人工智能相关的,比如在计算机视觉、语音识别、游戏 AI 和机器人领域。所以似乎看起来我们就只要等着这样的领域里不断出现新的进步就好了。
在这里我想指出两件事。一,虽然报纸上不会这样讲,但仿人类人工智能方向的研究实际上有很大限制,我们距离达到真正的仿人类人工智能的目标还非常远。不幸的是,仿人类人工智能领域的有限的进步也很容易引发人们的激动(以及恐惧),这让这个方向的研究本身过于火热、媒体关注也过多。任何其它的工程领域都看不到这样的现象。二,而且更重要的是,如果是为了解决重要的智慧增强和智慧基础设施问题,那么仿人类人工智能相关领域的成功既不充分也不必要。
对于充分性这一边,可以想想自动驾驶汽车。为了实现这样的技术,等待解决的一系列工程问题和人类胜任驾驶的程度(以及人类不胜任驾驶的程度)几乎没有任何关系。一个总体性的交通运输系统(一个智慧基础设施)会非常接近现代的空中管制系统,而不太像目前的几乎没有分组的、前向的、漫不经心的人类司机的集合体。它将会比目前的空中管制系统复杂得多,尤其在于它可以利用海量数据和自适应性建模能力,做出细粒度决策。我们最先需要考虑的正是这样的问题,而对于这样的问题,仿人类人工智能方面的努力反倒会分散我们的注意力。
对于必要性,有一些人提出仿人类人工智能的愿望其实包含了智慧增强和智慧基础设施在内,因为仿人类人工智能将不仅可以解决各种经典 AI 问题(字面意思上,比如图灵测试),而且它最有可能同时解决智慧增强和智慧基础设施问题。这样的观点其实找不到什么历史先例作为支撑。土木工程的发展难道靠的是设想如何设计人造的粉刷匠和泥瓦匠吗?难道化学工程的学科框架是如何创造出一个人造化学家?甚至更有意思的是,如果我们的目标是建造一个化学工厂,那我们难道应该要先造出一个人造化学家,然后让它来思考如何建造一个化学工厂?
还有一种有关联的观点,是说人类智能是我们唯一知道的一种智能,我们发展人工智能的第一步就应当是尝试模仿这种智能。但是实际上有一些类型的推理人类并不是很擅长,人类有很多失误、偏见和限制。更重要的是,人类进化的目的就不是为了处理现代智慧基础设施那样的大规模决策问题的,也同样不是为了处理智慧基础设施环境下的不确定性问题的。有的人可能会说,一个人工智能系统将不仅可以模仿人类的智慧,而且还可以「纠正」它,当然也就可以拓展到任何大规模问题上去。但这样的想法就跑到了科幻小说的领域去了,这样的纯粹猜想性的观点当然符合科学幻想,但不应当作为我们面对逐渐显现的重要的智能强化和智慧基础设施问题时的主要策略。我们应当分别以它们应有的方式处理智能强化和智慧基础设施问题,而不是仅仅当作仿人类人工智能目标的推论。
其实不难看到,智慧基础设施系统中的算法和基础设施挑战并不是仿人类人工智能研究中的核心主题。智慧基础设施需要的是管理快速变化的、而且很有可能全局不相干的分布式知识存储的能力。这样的系统需要云计算和边缘计算之间的互动,才能做出即时的、分布式的决策;而且还需要能够处理数据中的长尾现象,即关于某一些个体有很多的数据,但大多数个体都只有很少的数据。它们需要能处理在穿越管理性和竞争性的边界分享数据的问题。最后,而且也非常重要的是,智慧基础设施系统需要把动机和定价这样的经济学理念融入到连接了人与人、人与商品的统计和计算基础设施中。这样的智慧基础设施系统就不仅仅是提供了服务,更重要的是它提供了市场。音乐、文学、新闻等一些领域就非常需要这样的市场,其中的数据分析就可以吧创作者和消费者连接到一起。而这一切也都需要在进化出社会性的、符合道德的、合乎法律的前提之下。
当然了,经典的仿人类人工智能问题也仍然是重要的研究课题。但是,目前的人工智能研究都是借助收集数据、借助部署深度学习基础架构,这些系统所展现出的模仿某一些非常专门的人类技术的能力、同时还无法在解释其中的规律上起到什么帮助的现状,实际上分散了我们的注意力,让我们忽视了经典人工智能中的许多开放性问题。这些问题包括:如何给能够处理自然语言的系统增加意义和推理能力,如何推理和表示因果关系,如何开发出可计算的不确定性的表示方法,以及如何开发出能够形式化并追寻长期目标的系统,等等。这些同样都是仿人类人工智能中的经典目标,但在当下的「人工智能革命热潮」中,我们很容易忘记这些问题都还没有解决。
智能增强也依然是足够关键的,在真实世界状况的抽象推理这件事上,在可见的未来内计算机都不可能达到人类的水平。人类和计算机之间需要构建思考足够深入的沟通方式才能解决我们最紧迫的问题。而且我们也希望用计算机把人类的创造力推向新的高度,而不是用计算机取代人类的创造力(各种意义上的)。
John McCarthy(约翰麦卡锡)在达特茅斯学院时提出了「人工智能」这个词,当时明显是为了把他和 Norbert Wiener(诺伯特维纳)两人的不同的研究目标区分开。Wiener 提出词是「神经机械学」(cybernetics),以表示他对智能系统的憧憬是和运筹学、统计、模式识别、信息论和控制理论紧密相关的。McCarthy 则更看重的是智能和逻辑之间的联系。不过后来发生了有趣的反转,目前正是 Wiener 阐述的智力目标统治了这个领域,但打的却是 McCarthy 的旗号。(目前的现状当然是暂时的;AI 领域的风向转换得比其它领域快得多)
但对我们来说,McCarthy 和 Wiener 两人的历史视角我们都需要超越。
我们需要明白,如今普通大众讨论的这种专注于工业和学术中的很小一部分问题的人工智能,有极大的风险会让我们不再注意到人工智能、智能增强和智慧基础设施的全部范围内的挑战和问题。
这个范围并不仅仅是关于某些关于超人类电脑的科幻梦想以及恐惧的,而更关注的是,随着科学技术在人类的生活中越来越显著、越来越有影响力,人类需要能够理解和控制它。并且,在这种理解和控制中,所有人类都应该发出各自的声音,而不是仅仅在了解技术的人之间进行讨论。狭隘地只关注仿人类人工智能会让很多应当被听到的声音无法听到。
虽然业界公司会继续不断地带来更多技术进步,学术界也要扮演好自己的关键角色。不是仅仅提供一些创新的技术思路就结束,而应该把计算学科、统计学科的研究者和值得倾听的其它学科的研究者联系起来,尤其值得一提的是社会科学、认知科学以及人文学科。
另一方面,虽然人文学科和自然科学学科对我们的前进来说都非常重要,我们也应当牢记我们讨论的内容是关于一个前所未见的尺度和范围的工程项目,是这个社会需要构建一些新的人造物。这些人造物应当建造得符合承诺。我们都不希望在一些帮助医疗的、交通的、商务的系统建造完毕之后才发现它们其实不好使,发现它们其实会减少人类的寿命和幸福感。出于这种理念,正如我刚才强调过的,我们需要一种新的工程学科来引导这种数据向的、学习向的领域。虽然这中想法听起来很不错,但目前我们还无法真正地把它看作一门学科。
更进一步地,我们正在见证新的工程领域的出现,我们应该为此感到高兴。「工程」这个词经常被人们理解得很狭隘,不管是在学术界还是更多语境下,好像都隐喻着冷酷无情的机器、或者是失去人类的控制。但其实一门工程学科可以成为任何我们希望它成为的样子。
现在这个时代,我们真的可以设想一种历史上从未出现过的东西:一个新的以人为中心的工程学科。
我现在没法给这个正在萌发的新学科给出一个名字,但如果「人工智能」/「AI」这个词会作为这个学科的命名的词根的话,我们一定要谨记这个词根的极为有限的实际意义。让我们放宽视野、收起狂热,仔细地观察观察我们面前等待着的挑战吧。
Michael I. Jordan
via Michael I. Jordan,雷锋网AI 科技评论编译
(来源:雷锋网)