查看原文
其他

李彦宏:AI 不应该像人,现在很多智能都是假的!

CSDN 2018-10-27


责编 | 胡巍巍

出品 | CSDN(ID:CSDNNews)

北京时间 8 月 23 日,在首届中国国际智能产业博览会的大数据智能化高峰会上,百度董事长兼首席执行官李彦宏发表了题为《智慧城市的 AI 新思维》主旨演讲。

https://v.qq.com/txp/iframe/player.html?vid=z134721kjmj&width=500&height=375&auto=0李彦宏正在发言

在演讲中,他提到了当前人们对于人工智能的三个误区。

第一个误区,李彦宏认为,人工智能不应该长得像人,“我们的精力不应该花在怎么去造出一个长得像人的机器,不应该花在解决让这个机器怎么学会走路、跑步、上下楼梯,这是机械时代的思维。如果要让机器去替代人的体力劳动,那我们在工业化时代已经解决了这个问题,(现在)我们要解决的是让机器能够像人一样思考。”

第二个误区,李彦宏称,通过研究人脑工作,来让机器像人一样思考,是行不通的。李彦宏提到,目前人类根本还没有搞清楚,人脑是怎么工作的,又何谈用机器来模仿人脑的工作原理。所以人工智能,应该用机器的方式,实现人脑能够实现的价值或者作用。

第三个误解是关于“人工智能威胁论”,李彦宏认为,人类根本无需担心人工智能会“威胁”到自身。他说,“这个我觉得也是完全没有必要的担心。因为我们在做每天的技术方面的研究时,会发现比我们想象的要难很多,让机器像人一样思考,就是所谓的 AGI(Artificial general intelligence:通用人工智能)实现,其实还离我们非常远。”

人工智能诞生于上世纪 50 年代,作为一门前沿交叉学科,几经起落,也一直没有统一的定义,而大众对于它的认知也存在着诸多的误解,从李彦宏的演讲中我们可窥其一二。关于 AI 的争议,CSDN 也为大家翻译了一篇译文,下面为正文,稍微有点长,但是干货满满,值得你一看。

首先,我们对 AI 要有深刻的理解;其次,我们还得知道,如何才能让 AI 发展得更好。只有满足这两点,我们才有资格,去评估 AI 的进展。

大多数学科对于的自身的进展评估,都有非常明确的标准。然而人工智能是一个例外。它至少需要从六个其它领域,借用方法和标准,以便评估自身的进展。这六个领域分别是:

1. 科学;

2. 工程;

3. 数学;

4. 哲学;

5. 设计;

6. 演示。

这种做法,通常会产生一些麻烦。评估标准太过多样化,不同领域侧重的研究方向也不一样。使用哪种方法?哪些结果更为重要?进展情况如何?不同领域针对这些问题,难免产生分歧。

为什么 AI 要用多个其他学科的评估标准,来约束自己?难道它不能,自己决定自己的发展方向吗?

事实的确如此,AI 类似于鹿角翼兔,它是多个学科的结合体。单个的学科标准,很难对 AI 进行客观和全面的评估。

鹿角翼兔:是德国巴伐利亚高山森林中的传说生物。它的身体就像松鼠或者野兔,通常会有蝙蝠般的翅膀、鹿的角和尖利的牙齿。

这篇文章提供了一个框架,帮助大家思考,如何才能让 AI 这只鹿角翼兔腾飞。该框架并非虚无缥缈,它是落到实处的:它涵盖了六个不同学科标准的不同视野,以及这六个学科,在人工智能研究中的不同作用。根据研发人员以及具体项目的不同,这六个学科可以组合出最好的结果。人们可以提出有说服力的论据,来增加某些学科的权重。

评估 AI 需要从三个维度去考虑:解决的问题、采取的策略以及应用的方法。我主张通过更多的科学实验,来改进人工智能实践;追踪哲学上的有趣问题;更好地理解设计实践;更加注重创造壮观的演示效果。下文将详细地解释这些要点。

该框架主要面向 AI 从业人员。对于大众来说,他们更为关注的问题可能是:超级智能 AI 需要多长时间,才能帮助我完成工作、让我们不用工作都可以变得富裕。我认为想要得到理性的结论,是非常复杂的,这需要对详细评估框架,进行深入分析。

然而,我本文的观点一出,随之也出现了一些怀疑论。人工智能忽略了科学理论测试,而且它所知道的大部分内容,都可能是错误的。并且,一些 AI 成果的演示通常会产生误导。

接下来,本文将分为六个部分,分别阐述六个学科标准,在 AI 中发挥的作用;然后是结论部分,重述我认为的六个学科权重。


科学


衡量科学进步的指标主要有:

1. 新发现的真相;

2. 更广泛的解释;

3. 一种与众不同的“有趣”感,与普通的好奇心有关,但并不完全相同。

让我们按顺序阐述。

最大的缺陷


从50年代到80年代的主流人工智能研究项目,被称为“老式人工智能”(GOFAI),人们对它的热情已经散去。GOFAI 曾经令人兴奋不已,因为它为知识、推理、感知和行动如何运作,提供了有趣且合理的解释。

几十年来,我们都未能将这些理论付诸实践,而当我们实现这一目标时,又不被认可。我们所知道的一切,几乎都是错的。GOFAI 研究计划,在1990年左右彻底瓦解。

Ayer 年轻时,是一位逻辑实证主义的支持者,当这种理论失败之后,人们问他:“现在回想起来,你认为这场运动最主要的缺点是什么?”他回答说,“我认为最大的缺点就是几乎所有的一切都是假的!”

GOFAI 有很多缺点,但最主要的缺点在于,几乎所有缺陷都是假的。我们应该早点意识到这一点,但我们被迷人的哲学和心理学问题,分散了注意力,认为自己能够做出,一些非常炫酷的事情!

就目前的人工智能而言,最重要的问题是:究竟它的哪些部分是真的?它可能有其他的优点、或者缺点,但是在完成足够的科学研究、以确定哪些部分是真实的之前,这些都是次要的。

科学旨在通过可能的实验、或者其他观察,来了解世界的运作方式。在 AI 中,实验是奢侈的。

更好的是:在完全受控的条件下,我们进行完美、且重复的实验!面对科学调查,几乎没有领域,敢说自己是非常适合的。

然而,人工智能研究,包括假设、或者实验的情况并不常见。论文报告的内容,听起来通常像一个实验,但实际上它相当于:我们将 X 体系结构,应用于 Y 任务,然后获得 Z% 的正确率。

这里没有具体的假设。缺乏假设,实验就是不科学的,你只是记录了,一个事实而已。

解释 AI

如果理论能够被合理的解释,那么它就会直观得多,而不仅仅是生硬的公式。虽然没有强制要求,但解释的确是科学进步的标准。一个好的实验,应该使用控制手段,来消除数据以外所有形式的解释。

你的算法 Z% 正确,为什么?这对于类似问题的表现,意味着什么?AI 论文通常只是推测。答案可能是“我们得到 Z% 正确,因为 X 架构非常强大,它也可能对你有用!”

该论文可能会说“之前的论文,基于 W 架构,目前的版本,比之前的好 Z% ”,这暗示着 X 比 W 更好。但这有足够的说服力吗?

与 GOFAI 相比,目前的机器学习研究,没有优先考虑解释。该领域有时似乎在抵制它们。就科学标准而言,如果没有严格的解释性假设检验,你只会留下有趣的东西。很多时候,趣味性,构成了人工智能公开演示的主要内容。

“今年我们实现了 Z% 的正确率,而去年同期的正确率仅仅为(Z-ε)% ”。这听起来像是进步了,但它有意义吗?

如果你真的想通过解决方案,来改进一个具体问题,那么需要遵循工程流程,我将在下一节中讨论。除非你了解改进的来源,否则就并非科学进步。

通常,如果没有广泛而严格的实验,你就无法做到这一点。你需要针对任务的多种变体,对其进行系统地测试,以便隔离导致成功的因素。你还需要测试其他架构,并完成其他任务。

这项工作很艰巨。许多研究人员,做了一些实验。然而,为了充分检验假设,整个领域需要、但通常不会填补缺失的部分。其量化基准竞争的文化,鼓励理论上的修补,而不是科学。

在许多最近大肆宣传的 AI “突破”中,缺少看似最明显、和最重要的对照实验。(我打算在下文中,讨论其中的几个。)

AI 具备科学趣味吗?

因为 AI 调查人工智能,其核心问题,不一定具有科学意义。它们只有在 AI 系统故意模拟自然智能的程度上,对生物学感兴趣;或者在某种程度上,你可以说,只有一种计算,可以完成任务。所以,生物学和人工智能,必然是一致的。例如,这可能适用于视觉处理的早期阶段。

AI 的核心,并不在于能够进行计算的自然(科学);也不在于今天可以进行计算的东西(工程);也不在于无限资源的原则性计算(数学)。

它真正的核心,在于我们可能在,不太遥远的未来,实际构建的机器可能计算的内容。正如本文所述,我建议 AI 的有趣性标准,更接近于心灵哲学而非科学、工程或者数学。

从可复制性改革运动中学习

费曼在其著名的“货物崇拜”中指出,科学的“第一原则” 应当是:你不能欺骗自己,你自己是最容易被欺骗的人。所以你必须非常小心。只要你不愚弄自己,那么也就不容易欺骗其他科学家。

心理学的“可重复危机”表明,许多科学领域,一直都在大规模地欺骗自己。大多数已发表的研究结果,都是假的。

面临这个问题的领域很多,社会心理学就是其中之一。心理学家正在进行令人印象深刻的回顾性分析,并尝试改革。该领域的科学家发现,在以下情况下,最有可能得出错误的结论:

  • 研究人员追求戏剧性的、令人惊讶的、且对人性和日常生活产生影响的理论;

  • 研究人员与媒体合作,超越发现本身,向公众解释时夸大其词;

  • 研究人员可以在事后,解释他们的结果;

  • 研究人员不报告空结果(“失败”);

  • 研究人员很少重复彼此的工作,来发现问题;

  • 研究人员就不会详细记录他们的工作,没人可以检查他们的工作;

  • 实验规模不充分(仅选用多维度中的其中一个);

  • 缺失或者缺少控制(以多种方式中的任何一种);

  • 为了找到理论的局限性,实验并没有系统地改变。

这些科学实践的失败,在人工智能研究中很普遍,似乎与十年前的社会心理学一样。依照心理学的经验,我们应该期望许多假设的 AI 结果,在科学上是错误的。

心理学和人工智能,并非伪科学。社区有不好的认识规范:那些不能可靠地导致新事实的规范。个别研究人员,盲目追随其他成功者的脚步。没有社会改革运动的话,我们不能指望他们这样做。

激动人心之处在于,心理学家正在认真对待这些问题。他们正在制定新的认识规范,以防止这种科学实践的失败。这些改革,应该使真实的、解释性的、有趣的理论的发现更加普遍。

AI 可以借鉴心理学的经验,提高实践标准吗?我认为它可以,而且应该这样!

也就是说,AI 是一个鹿角翼兔。这不仅仅是科学,而且可能不仅仅是,遵循可复制性运动的主导。


工程


工程学将熟知的技术方法,应用于实际问题,以产生效果良好的实际解决方案。

工程学的进步标准,与科学有很大不同。如果你在工程学过程中,发现新的真理或者解释,只能是偶然的。在科学意义上,工程学不应该是“有趣的”;相反,当它产生实际价值时,它是令人兴奋的。

工程找到明确的限制范围内的解决方案,并优化明确目标。典型的有几种,通常在它们之间进行权衡。例如:成本、安全性、耐用性、可靠性、易用性和易维护性。

AI 研究人员,经常声称自己,在进行工程实践。当你指出他们,没有进行科学实验时,这种说法就是一个很好的挡箭牌:“是的,我只是在做工程,让这个小部件工作得更好。”

当你提出哲学上的考虑因素,是相关因素的时候,他们的回答,听起来也很讽刺:“我正在做真正的工作,那些空想的东西是无关紧要的。作为一名工程师,我是唯物主义者。"

一些 AI 工作,是真正的工程,以下是判断标准:

  • 它是否采用了,特色鲜明的技术方法?有时;但很少有 AI 方法,可以理解。

  • 它是否解决了,明确的实际问题?有时;但在研究中,人工智能最常适用于玩具问题,而非实用问题;在工业中,对于特征不明显的混乱。

  • 它是否产生了,熟知的实用解决方案?有时你可以说,“我们的广告点击率上升了0.73%”,但如果你不知道原因,点击率明天就可能下跌。

“数据科学”,在某种程度上,是 AI(机器学习)方法,应用于混乱的实际问题。有时这很有效。我不太了解,数据科学人员,但我的印象是,人工智能方法的难以理解、和不可靠性,令人沮丧。

他们的观点,更像是工程师的观点。并且,我听说,他们发现有充分表征的统计方法,在实践中比机器学习更好。

与工程相邻的,是新技术方法的开发。这是大多数 AI 人,最喜欢的。当你可以证明,新系统架构比竞争对手好 Z% 时,这是特别令人满意的。

关于基准问题,每个人都在竞争。这是否可靠地转化为,现实世界的实践?大多数人工智能研究人员,不想花时间去发现。相比于工程,AI 的这个方面与设计,有更多的共同之处。

当你能做到这一点时,工程是很棒的。AI 应该更像工程吗?通过大量的努力,人工智能研究中,开发的方法,有时可以很好地表征,以至于工程师,可以经常使用这些方法。

然后每个人,都不称它为“ AI ”。这可能令人沮丧:每当我们做一些,非常好的事情时,它就会被抢走,并且该领域,没有得到应有的信任。

毫无疑问,人工智能研究,已经脱离了许多软件技术最重要的进步。(你知道哈希表(散列表:Hash table),一直被认为,是一种先进的、难以理解的人工智能技术吗?)从经济学的角度来看,人工智能研究,非常值得投资。

但是,一个词的含义,在于它的用途。“AI”,用于表示“可能令人惊讶的复杂或者假设的软件,但我们不明白它为何起作用。”这根本不是工程。


数学


数学与科学一样,旨在发现有趣的解释性真理。“有趣”“解释”以及“真实”的意思,是完全不同的,就像方法证明与实验,它们是完全不同的。

在 AI 的整个历史中,它已经深入数学,其结果有助于 AI 和数学两个领域。这往往具有强大的协同作用。

也就是说,数学的评价标准,有趣、解释和真实的感觉,在 AI 中,可能会产生误导。

算法渐近收敛的证明,是典型的例子。假设证明在技术上是正确的,那么在数学意义上,肯定是正确的。

它可能表现出,数学上解释的结构。例如,如果它显著推广了,早期的结果,那么在数学上,是有趣的。

渐近收敛的大多数证据,对于具有不同标准的 AI而言,不是真实的,或解释性的、或有趣的。AI 是关于物理可实现性的。这不一定意味着“使用当前技术可实现”,但它至少意味着“原则上可实现”。

显示算法得到正确答案“收敛”的结果,告诉我们物理上的可实现性。如果快速算术显示,运行在 10 的 100 次方的 GPU 上的算法,在一万亿年之后,仍然远离答案,则证明不是真实的、解释性的、或者有趣的,就像 AI 一样。

相反,除非你能证明,算法会在现实数量的硬件上,合理地快速收敛,它不是人工智能,但它可能像数学一样有趣。

数学是一个非常宝贵的工具。在人工智能中,很好地使用它,需要使其超越数学本身的外来评估标准。


哲学



分析哲学,犹如科学和数学,旨在寻找有趣的解释性真理。它拥有自己的想法,即“有趣”“解释”和“真实”。

总的来说,哲学家从他们认为是真实的“直觉”开始,然后试图通过论证,来证明它们是真实的。我认为真相标准“令人信服的直觉论证”,对人工智能,产生了不良影响。

它与科学更好的标准“假设的中立检验”相冲突。它一再导致 AI,基于证据不足,而夸大其词。我认为,分析哲学与神经科学的不正常关系,误导了 AI。

另一方面,分析哲学的心理标准,对于什么算作“有趣”,很大程度上与 AI 重合。从创立之初开始,人工智能一直是“应用哲学”、或者“实验哲学”,又或者“哲学制造的材料”。我希望,哲学直觉能够在技术上,得到证明,而不仅仅是争论,这将更具说服力。

大多数心灵分析哲学家,想要证明的两个基本直觉是:

1. 唯物主义(与心灵、身体二元论相对):精神上的东西,实际上只是你大脑中的物质内容。

2. 认知主义(与行为主义相对):你有信仰、考虑假设、制定计划,并从前提到结论,进行推理。

这些显然是矛盾的。“假设” 似乎不是物质的东西。这是很难看到的信念。

这种紧张关系,给 GOFAI 带来了问题,并且通过技术实施,可以证明其解决方案,超出了所有可能的怀疑范围。

GOFAI 论文,主要描述了一个实现:Gizmo 架构(我将在设计部分,谈论它)。他们通常,还描述了一个“实验”,它很少有科学内容:它是“我们在三个小输入上运行程序,它产生了所需的输出。 ”

GOFAI 论文,令人兴奋的部分,是解释性论点。从小发明的结构开始,我们对心灵,做出了哲学主张。

该计划“从经验中学习”或者“从知识推理”。它的算法,解释了这些心理过程是如何起作用的,至少是粗略的,有些情况下,也可能是人类。

这些主张,往往被夸大了,主要是没有科学依据。实际上,该程序构建了一个带标签的图形结构。我们称之为“知识” 。

这些算法,是“学习”还是“推理”?最终,关于这一点,没有任何事实。但是,它至少需要争论,故事的那部分内容,大部分都缺失了。

这么久以来,我们都错怪了 GOFAI?我认为,这是通过继承分析哲学的思维模式:试图用叙事论证,来证明形而上学的直觉。我们知道,我们是对的,只是想证明这一点。我们开始证明它的方式,更多的是通过论证、而不是实验。

最终,GOFAI 议程的障碍,似乎是原则问题,而不仅仅是有限的技术、或者科学知识问题,而且它已经崩溃。

在那一点上,我们中的一些人,回过头来质疑 AI 的基本哲学假设,即认知主义,是行为主义的唯一替代品。我们开始了,一个新的研究领域,追求第三种替代、互动,且受到不同哲学方法的启发。

我相信,人工智能的“有趣性”的最佳标准,是哲学的,因此人工智能研究的正确方向,是研究哲学问题。如果是这样,一种新的哲学方法,是正确的举措!赞成这一点的证据,是几项技术的突破。也许我们能够、而且应该,进一步开展这项工作。

在 GOFAI 崩溃之后,哲学家放弃了人工智能。大多数人,仍致力于认知,因此他们将希望,转移到神经科学。大脑显然是身体、心理和认知,因此它们是唯物主义、和认知主义正确的明确证据。

因此,事实已经确立,不言而喻,思想是有趣的,所以我们所需要的,只是一个解释。哲学家鼓励神经科学家,用认知主义的术语,来解释他们的结果。我认为,这与扭曲 AI 的方式,大致相同,它扭曲了神经科学。

三十年后,我们仍然对大脑的工作方式,一无所知。我们期望了解,我们如何思考、以及是什么让我们成为人类!然而现实是,参与眼球运动的细胞核,就多达30个! 

在没有充分了解的情况下,大脑看似非常神奇。那么,与其科学地,理解它们,为什么不模拟它们,并获得相同的权力呢?也许在模拟大脑上,进行实验比实际大脑更容易,从而获得理解。

从一开始,AI 就一直与 GOFAI 并行采用这种方法。这项研究的大部分,来自 McCullough 和 Pitts 的 1943 年神经元模型,鉴于当时的知识状况,该模型,在生物学上是合理的。

他们指出,通过实施命题逻辑,这仍然是“思想法则” 的候选者。随后的传统研究,为 McCullough 和 Pitts 模型,增加了技术特征,其动机是计算因素,而不是生物学因素。最重要的是误差反向传播算法,它是当代“神经网络”和“深度学习”的核心特征。

同时,神经科学对生物神经元的理解,更为复杂和准确。这两项工作,存在分歧。因此,就目前的科学知识而言,AI “神经网络”,与神经网络完全不同。反向传播本身,似乎在生物学上不合理。

该领域的每个人,都知道这一点,但高级研究人员,仍经常谈论好像“神经网络”的工作方式,就像大脑一样。我会在下文指出原因。

是什么,让你的研究计划,充满希望?我们的目标,是人类智能,我们的神经网络,像人脑一样工作。

你几乎无法解释,为什么这些系统有效。这不是问题吗?我们不知道,大脑是如何工作的,但他们确实如此,神经网络也是如此。

难道你不应该,更加努力地,找出它们的工作方式、时间和原因吗?不,那是不可能的。大脑非常庞大;你不能分析地理解它们。

有人说,他们已经分析了,具体的“神经网络”,并弄清楚它们,是如何工作的。结果,他们做了一些无聊的事情,相当于 kNN,甚至只是回归。

但是,你看,我们已经在数学上,证明了神经网络,可以灵活地执行任何计算。像大脑一样。我的手机也可以。是的,但手机不像大脑。

这可能有些夸张。但是,也是显而易见的,有时默认的“像大脑一样工作”,解释了为什么研究计划,必须在整体上取得成功,并消除对细节的技术疑虑。

这似乎与 GOFAI 中的错误模式相似。我们知道,我们的“知识表征”,不能像人类知识那样,并且选择忽略原因。当代“神经网络”研究人员,知道他们的算法,与神经网络完全不同,并选择忽略其原因。

GOFAI 有时对人类推理,提出夸大的说法;目前的机器学习研究人员,有时会对人类的直觉,做出夸大的宣言。

为什么?因为研究人员,试图通过技术实施,来证明先验的哲学承诺,而不是提出科学问题。该领域用可量化的绩效竞争,来衡量进展,而不是通过获得的科学知识。


设计


我认为, AI 研究人员的直觉,是正确的,实现、说明性的计算机程序,是强大的理解来源。但是这有什么作用呢?将实现,类比化为科学实验,是很诱人的,但通常它们不是。将它们视为工程解决方案很诱人,但它们通常也不是。我认为,“实现”最好被理解为设计解决方案。

人工智能研究的实际做法,更像是建筑设计,而不是电气工程。通过这个角度观察 AI,有助于解释其反复出现的破坏性炒作模式。

设计视图,还可以通过消除技术难度、和浪费精力的主要来源,来改进 AI 实践。

设计的本质

设计与工程一样,旨在生成有用的工件。与工程不同,设计解决了模糊(特征不明)的问题;不局限于明确、合理的方法、开发时髦而不是最优的解决方案。

在工程中,你从一个明确指定的问题陈述开始。首先,分析它以得出指导过程的含义和约束。只有在你完全了解问题后,才开始组装解决方案。

设计专注于合成,而不仅仅是分析。由于问题陈述含糊不清,因此没有提供有用的指导意义;但它也没有强烈限制,最终的解决方案。从过程的早期开始,设计从具体问题情况建议的可信部分,构建试验解决方案。分析不太重要,并且大部分时间,都在过程中,以评估你的解决方案有多好。

由于设计问题,模糊不清,因此没有最佳解决方案。设计成功,并不意味着你解决了特定问题,而是你产生了,既漂亮、又有用的东西。

设计实践

系统的、明确的且合理的方法,在设计中是次要的。大多数都不适用于,模糊解决方案标准的模糊问题。专家设计师说,他们依赖“创造力”和“直觉”。这没有用;它只是意味着,“我们不知道我们是如何做到的。”

事实上,设计能力,在很大程度上是隐性的、且不可理解的。因此,必须通过学徒制,来学习它。而不是在教室、或者通过读书来学习。

然而,对设计实践的实证研究,可以让我们深入了解它的工作原理。

首先,设计师在整个过程中,需要与问题的具体细节打交道。相比之下,工程师主要在正式领域运作,从混乱中抽象出来。

可能的设计方法,被隐喻地提出。根据这些建议,设计人员构建了,一系列快速的原型模型,并试着来了解,它们的工作原理。

建筑师用纸板建造模型;AI研究人员,通过代码构建它们。这些原型,不是工程模型,只是“草图”,需要进行严格的实际测试。

Donald Schön 将这个循环,描述为“与材料的反思性对话”。让模型再次提供具体性,指导下一步。你可以“看到”,它将如何工作、或不工作。

通过尝试各种可能性,然后,通过迭代改进有前途的候选人,你可以建立,对问题空间的理解。获得的理解,是解释性的,但与一般的设计知识一样,它是部分隐性的、不可理解的技术诀窍。

设计过程,反复改变问题本身,整个问题,仍然是流动的。你认为,你想要完成的事情,会反复变化。解决方案,定义了问题,反之亦然。你想在一般区域,创造一些时髦的东西;什么东西“时髦”, 意味着只作为最终产品的具体属性出现。

对于工程师来说,这似乎非常令人不满意。确切地说明问题,弄清楚问题数量,并运用合理的方法,这样会更好。

如果你能做到这一点,这通常是最好的方法。这就是工程有价值的原因。但是许多现实世界的情况,并没有巧妙地解决明确定义的问题。

AI 研究作为设计实践


如上文,关于 AI,作为工程的部分所述,AI 通常将模糊不清的方法,应用于具有模糊解决方案标准的模糊问题。(例如,使用神经网络,将普通话翻译成英语。)至少在这种情况下,它类似于设计实践。

如果你能解决问题,并证明正确性,你就是在做主流计算机科学,而不是人工智能。没有人能说出,翻译的问题是什么,也没有最佳翻译,这样的东西。

但是,你作为人工智能研究员的目标,是做得好,足以给人,留下深刻印象。那绝对是时髦的!

所以,你开始构建一系列,快速而肮脏的原型,并在一些普通话文本上,试用它们,以了解其工作原理。程序产生不同的、好的和坏的翻译模式,可能很难准确地说出,这些模式是什么,但是你逐渐建立了,对什么有用、和为什么有用的洞察力。

随着你的进展,你的翻译,甚至意味着变化的理解。这是你“与具体材料的反思性对话”,包括自然语言文本、和程序结构。

因此,在 AI 中,我们构建具体方案,以获得理解,我们可能无法完全阐明。要发展 AI 的专业知识,你不能只阅读论文;你必须阅读,其他人的代码。不仅仅是阅读,你还得重新实现这些代码。

你的部分理解,只能通过编码本身来实现。在你自己从头开始编写反向传播引擎之前,你真的不知道,神经网络是什么,并且针对一些经典的小数据集运行它,并对其输出,感到困惑。

技能不匹配

人工智能研究人员,主要接受以正式问题,为输入的领域:工程、数学或者理论物理。然而,我们要解决的问题,主要是设计方法。

你无法通过阅读,或者从 Coursera,学习如何处理,课堂上的混乱。据我了解,目前,业内有一些,来自最好的学术 AI 实验室的博士学习的学徒,不能学到任何其他关键内容。

在主要教授解决正式问题的技能之后,AI 人员往往会尽快摆脱模糊。而不是穿过沼泽的现实世界,允许信息模式逐渐出现,逃离分析最近的可用抽象更为舒适。

因此,过早的问题形式化,是 AI 中一种特有的失败模式。一个模糊的现实世界现象(例如学习),被一些数学(例如函数逼近)所取代。真实世界的单词(“学习”),可以互换地应用于两者,因此研究人员,甚至不会注意到差异。

然后,你可以拥有,各种有趣的发明、和改进时髦的小发明,以解决这个精确、但不准确的问题陈述。这可能,会带来宝贵的技术进步。

另一方面,函数逼近,实际上并不是学习。过早形式化,意味着抽象数学问题的解决方案,可能不是具体现实问题的解决方案,反之亦然。

这导致两种特有的麻烦模式。首先,抽象问题,可能比具体问题更难,因为它省略了关键的有用功能。在设计理论术语中,你没有听到,混乱所暗示的建议。

例如,GOFAI 基于计划的实际行动的正式化,使问题变得更加困难,因为它抛弃了,对相关信息的持续感知访问。Phil Agre 和我编写的程序,远远超出了规划方法的能力,通过改变问题的陈述。

或者,抽象问题,可能比具体问题更容易。这可能导致,过度自信和炒作。在评估 AI 时,人们需要对研究人员,声称他们在问题“ X ”上取得快速进展,持怀疑态度。

他们是否真的,在研究现实世界的任务 X ?或者,他们是否正在解决,他们从 X 中,抽象出来的正式问题,并对其应用相同的名称?例如,他们是否正在学习使用神经网络,将普通话翻译成英语(现实问题)?或者他们是否在正式问题上,取得进展,这可能更好地,被描述为“在查找表中存储 n-gram 对”,在连续函数上,使用梯度下降?

当两者之间的差异,表现为现实世界中表现不佳时,这会导致幻灭、和资金流失。

解决方案


我有两个解决方案。首先,与现实世界的问题,保持紧密联系,并且不断进行设计实践。退回抽象解决问题的方法,比较整洁,但通常效果不佳。

其次:AI 是鹿角翼兔!AI 不仅仅是设计,它还是工程、数学、科学和哲学。当你在鱿鱼上,挤柠檬的同时,你会受到启发,为时髦的鱿鱼形柠檬榨汁机,创造一个壮观的新设计。

或者,你希望它很时髦。现在是时候,进行工程设计了:你能否让它变得便宜、安全、耐用、可靠、易于使用且易于清洁?通过类比:你编写了一个时髦的新函数逼近方法。

你希望每个人都使用它。这意味着,你必须解决所有棘手的错误、和性能问题,并在不同的现实场景中,表征收敛和扩展。这可能需要困难的计算、和工程测试。

你已经研究了,与眼球运动相关的30个不同的细胞核,并开发了神经网络模型。你将其与机器人摄像机运动控制器,连接起来。很酷!

现在是科学的时候了:你能预测人类、或动物的眼球运动有多好?还有哪些其他模型,可以解释眼球运动?如何测试哪种型号正确?

你对知识的心理表征,有了新的理论。现在是哲学的时候了:你是什么意思,“代表”和“知识”?这些都是不可避免的哲学问题,需要实质性答案。你不能用工程,来搪塞了。


演示



演示,是任何专业实践的重要组成部分,包括科学、工程、数学、哲学和设计。

人们天生渴望,给他人带来惊喜。你对自己的研究计划,感到兴奋,并希望分享给他人。你的研究,可能也受到特定信念的驱使,并且想要说服他人,是很自然的。

一场精彩的演示,可以在几分钟内,改变信念和整个思维方式,远远超过任何技术论述、或者逻辑论证。

此外,资源总是充满竞争,比如金钱、关注度和聪明人。一场精彩的演示,比任何白皮书、或者资助计划都更有效。

演示的成功标准,包括戏剧、叙事、兴奋和(最重要的)行动激励。娱乐业,是演示的天然家园。在那个行业(包括政治、新闻和职业摔跤等子行业)中,真相不是一个考虑因素。

在关注真理的学科中(应该包括人工智能 ),人们必须设计,具有特殊责任感的示范。因为,演示是如此强大,所以,超越纯粹的诚实,是道德上的迫切需要,以免你欺骗自己和他人。演示必须非常谨慎,不要夸大研究的确定性、理解力或者趣味性。

在人工智能演示中,最大的危险,就是给人的印象,是程序可以比现实中做得更多、或者它的作用比实际更有趣、或者说它如何运作的解释比现实更令人兴奋。

如果,观众了解到,一个真实的事实,即该节目在一个特定的戏剧性案例中实现 X,那么很自然地认为它,可以在大多数看似相似的情况下,实现 X。但这可能,不是真的。

想象一下,在 20 世纪 50 年代,观看“全自动洗碗机”的电视广告之前,你才能知道,它是什么。妈妈在水槽里乱糟糟的一堆脏盘子边做鬼脸,一会过后,妈妈在橱柜边上,对着整齐堆叠的、闪闪发亮的盘子微笑!

你可以合理地假设,“洗碗机”是一个机器人,两个手臂,站在水槽旁,手工洗碗。在 20 世纪 50 年代,技术可以做到如此惊人!为什么?

如果一个机器人,可以洗碗,它肯定也可以吸尘地板、更换宝宝的尿不湿、然后铺床。如果,洗碗机以这种方式工作,那将是一个合理的结论。

但时钟擦拭,隐藏了关于洗碗机,如何工作的重要事实。它只是一个喷射热水的盒子,而不是机器人。它的性能,不会扩展到,明显相似的困难家庭的任务。

洗碗机,也不能完成对机器人来说,最困难的任务:拿起涂在油腻酱汁上的不规则放置的餐具。幸运的是,这对人们来说很容易:相对于洗涤、装载洗碗机对我们来说,却是很快。不过从广告中,也看不出来:洗碗机并不能完全完成所有工作。

壮观的人工智能演示,通常会以类似的方式,产生误导。如果有的话,他们很少能够准确地,理解该计划的运作方式。公平地说,在演示中,几乎不可能这样做,而且它不是演示的功能。

但是,如果他们默默地,传达错误的理解,而不是仅仅提示好奇心,那么观众就会对该计划,能做些什么产生错误的期望。

对于壮观的 AI “成功”而言,几乎总是要少得多。但这种欺骗,即使它通常是无意的,也会吸引研究人员和外人。这种动态,有助于人工智能的长期炒作周期,但是夸大的期望,无法被满足。


1970 年,Terry Winograd 的 SHRDLU “自然语言理解”系统,产生的对话,可能是有史以来,最壮观的AI 演示。

该计划的语言理解复杂性,非同寻常。它胜过当前的系统,例如 Siri、Alexa 和谷歌助手。SHRDLU 提供了,一种温暖的信心,即人工智能,是可以实现的,并且 GOFAI 在接下来的十五年里,正在取得进展。

Winograd 的作品中,没有任何不诚实的东西,没有故意欺骗。然而,到了 1986 年,他开始相信他,已经欺骗了自己和整个领域。

在理解计算机和认知方面,他认为 SHRDLU 的理解,仅仅是显而易见的。Winograd 有充分的理由,相信计算机,根本无法理解自然语言。

类似地,我相信,当前“深度学习”的壮观演示,远远不如人们的目光。这主要不是,关于演示的一般玩世不恭,也不是对一般人工智能演示的怀疑,也不是特别不喜欢深度学习。因为它基于,自我的猜测,具体说明这些系统,如何完成演示中的任务。

洗碗机,没有成为通用家用机器人。我不认为,目前的机器学习研究,也是如此。尽管如此,洗碗机中,使用的技术,仍然促成了一系列节省能源的电器。当前 AI 演示中,使用的技术,可能会导致,持续不断的节省精力的软件。

通过元理性改善 AI

元理性,意味着在特定情况下,弄清楚如何使用技术理性。

人工智能,需要元理性,原因有两个。首先,它解决的问题,本质上是模糊不清的。

其次,AI 是一个鹿角翼兔:不是一个连贯的、统一的技术学科,而是一个独特的混合领域、与不同的观察方式,不同的进步标准,以及多样的理性和非理性方法。特征性地,元理性评估、选择、组合、修改、发现、创建和监视多个框架。

因此,AI 不可避免地,结合了不同的观点、和思维方式。你需要元理性技能,来确定应用哪些框架、以及如何应用这些框架。AI 也不可避免地,涉及多个不可通用的进度标准。

所以,我们应该尝试,沿着多个方向,做得更好。在这篇文章中,我特别提倡,增加对标准和方法的考虑:

  • 来自科学的事实;

  • 来自设计的理解;

  • 来自哲学的趣味。

一个健康的知识领域,对其自身的结构、规范、假设和承诺进行持续、有争议的协作反思。这就是我的,“ 升级你的货物崇拜胜利 ” 的观点。

这也是我的合作者 Philip Agre 的《计算和人类经验》的核心主题,它更深入地,讨论了我在本文中,提出的大部分想法。


后记


在我发布这个帖子一周后,Zachary Lipton 和 Jacob Steinhardt,发布了 《机器学习奖学金的令人烦恼的趋势》,该文提出了,与我非常相似的论点,但是有很多详细的例子,来自最近的工作。我认为,它是该领域,近期最优秀的分析。

原文:https://meaningness.com/metablog/artificial-intelligence-progress

译者:安翔,责编:胡巍巍


征稿啦

CSDN 公众号秉持着「与千万技术人共成长」理念,不仅以「极客头条」、「畅言」栏目在第一时间以技术人的独特视角描述技术人关心的行业焦点事件,更有「技术头条」专栏,深度解读行业内的热门技术与场景应用,让所有的开发者紧跟技术潮流,保持警醒的技术嗅觉,对行业趋势、技术有更为全面的认知。

如果你有优质的文章,或是行业热点事件、技术趋势的真知灼见,或是深度的应用实践、场景方案等的新见解,欢迎联系 CSDN 投稿,联系方式:微信(guorui_1118,请备注投稿+姓名+公司职位),邮箱(guorui@csdn.net)。


————— 推荐阅读 —————

文章已于修改

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存