查看原文
其他

AI 预测的七宗致命罪恶

2017-10-13 Rodney Brooks CSDN

点击上方“CSDN”,选择“置顶公众号”

关键时刻,第一时间送达!


作者丨Rodney Brooks 

译者丨无阻我飞扬


摘要:作者比较理性和冷静地分析了AI预测,阐述了AI预测的七宗致命罪恶,文章其实也是表明人类真的不擅长预测。以下是译文。


错误的推断,有限的想象力,以及其他通常会犯的错误,都会使得我们很难更富有成效地思考未来。


我们都被有关人工智能和机器人的未来的歇斯底里包围了——这种歇斯底里体现在它们会多快变得有多强大上,以及它们会对工作造成什么影响上。


我最近看到MarketWatch网站上一篇文章说:在10到20年内,机器人将取代目前一半的工作。网站甚至还用一张图形来证明这些数字。


这种说法是荒唐可笑的。(我尽量保持专业的语言,但有时…)比方说,这篇文章似乎说:在10到20年内,美国的地面维护工人将会从100万缩减到只用5万人,因为机器人会接管这些工作。在这些工作领域,目前有多少个机器人在运行? 零。机器人在这些领域应用的实际展示案例有多少呢? 零。类似的故事适用于文章展示图形中的所有其他的工作类别,我们将看到目前超过90%的工作在某些特定的地方还是需要人类有形的存在。


错误的预测会导致大家对那些不可能发生的事情感到恐惧,无论是对工作大规模的破坏,奇点,或者说AI的出现,它的价值观与我们背离,可能会毁了我们。我们需要扭转这些错误的观念。但是为什么人们要制造这些错误的观点呢?以下我概括出了7种导致错误预测机器人与人工智能未来的思维方式。



1、高估和低估


Roy Amara是Palo Alto未来研究院的创始人之一,Palo Alto是硅谷的智慧中心,他最著名的是他的格言,他的格言现在被称为Amara定律:


我们往往会高估技术的短期影响,而又低估了它的长期影响。


在这寥寥数词中包含了太多东西。乐观主义者可以这样解读,悲观主义者也可以那样解读。


一个反映Amara定律两面性很好的例子是美国全球定位系统(GPS)。自从1978年以来,一个有24颗卫星组成的星群(现在包括31颗卫星)被放置到了轨道上面。GPS的目标是为了给美军的炸弹提供精准的制导。但是这个计划在上个世纪80年代一次又一次地几乎面临夭折。第一个作战用途是在1991年的沙漠风暴(海湾战争)行动期间,军方由于使用GPS的定位功能取得了更多的胜利。今天的全球定位系统(GPS)是Amara定律所谓的长期的效用,将会如何使用它,在最一开始是无法想象的。我的二代Apple Watch在我外出跑步时,使用GPS,准确地记录我的位置,足以看出我是沿着街道的哪一边在跑。现在GPS接收器的尺寸之小、价格之低,对于早期的GPS工程师来说是不可思议的。该技术在全球范围内同步着物理实验,在同步美国电网并保持其运行方面发挥着直接的作用。它甚至还能使得真正控制股市的高频交易商基本不会陷入灾难性的计时错误中。所有的飞机,无论大小,都是用GPS来导航,它也被用来跟踪假释出狱的犯人。它决定着应该在全球的哪一块地种植哪一个种子变种。它追踪卡车车队,报告司机的表现。


GPS从一个目标开始,但让它达到原先期望的效果却需要一个漫长而艰辛的过程。现在它已经渗透到我们日常生活的方方面面,如果没有它的话,我们不仅会走丢,还会挨冻受饿,甚至可能都活不了。


在过去的30年里,我们在其它技术身上也目睹了类似的模式。一开始是很大的预期,然后慢慢地加大信心,超出了我们原先的预计。计算、人类基因组测序、太阳能、风力发电、甚至日用百货的送货上门都是如此。


在20世纪60年代和80年代,人工智能一再被高估,我相信现在又一次被高估,但长远的前景也可能被低估了。问题是:长期有多长?接下来要讨论的六个错误有助于解释为什么人工智能的未来被严重低估了。 



2、想象的魔力


在我十几岁的时候,Arthur C. Clarke是科幻小说家的“三巨头”之一,还有Robert Heinlein和Isaac Asimov。但Clarke不仅是一位科幻小说家,他还是发明家,科学作家,同时也是未来学家。在1962年到1973年之间,Clarke提出了三条格言,也被称为Clarke三定律(他说牛顿也只有3条定律,所以3条对于他来说也足够了):


如果一个年高德劭的杰出科学家说,某件事情是可能的,那他可能是正确的;但如果他说,某件事情是不可能的,那他也许是非常错误的。


要发现某件事情是否可能的界限,唯一的途径是跨越这个界限,从不可能跑到可能中去。


任何非常先进的技术,初看都与魔法无异。


就我个人而言,我会对他第一条定律的第二句话比较提防,因为对于AI的发展速度,我要比其他人保守得多。不过目前我来先讲Clarke第三定律。


想象一下,我们有一台时光机,可以让牛顿从19世纪末穿越到今天,把他安置在一个他熟悉的地方:剑桥大学的三一学院小教堂。


现在给牛顿看一个苹果(不是砸在他头上的苹果,而是一个苹果手机),从口袋里掏出一部iPhone手机,开机,屏幕亮了起来,然后把屏幕布满图标的手机交给他。牛顿揭示了白光是由不同颜色的光线组成的,用棱镜把阳光光线分开,然后再把它聚在一起,毫无疑问,在黑暗的教堂中,这样一个小小的物体发出如此鲜艳的色彩,一定会令他感到惊奇。现在再用iPhone手机播放一部英国乡村场景的电影,然后再播放一些他熟悉的教堂音乐。再给他看500多页他的巨著《自然哲学的数学原理》的个人注释副本,教他如何利用手势操作来放大文字。


牛顿能不能开始解释这小小的设备究竟是怎么做到这些的呢?虽然他发明了微积分,并且对光学和重力做出了解释,但牛顿永远也无法分辨化学与炼金术。所以我认为他会感到不知所措,对这台设备究竟是什么东西,哪怕连一点思路都没有。对于他来说,这设备与神秘学的化身没有什么不同——神学是他非常感兴趣的事。在他看来,这与魔法是分不开的。记住,牛顿可是非常聪明的家伙。


如果有什么东西是魔法的话,那就很难知道它的局限是什么了。假设我们进一步向牛顿展示这个设备是如何照亮黑暗的,它是如何拍摄照片、电影以及录音的,如何将它用作放大镜和镜子的。然后我们再向他炫一下这个设备如何以惊人的速度进行算术运算,并可以精确到到小数点以后很多位的。让他随身带着手机,我们甚至还可以给他看看他的走路步数是多少,并向他表明,他可以用手机与世界各地的人们立即进行交谈,就在他的教堂里。


牛顿还会猜测面前的这个东西会做哪些事情呢?棱镜可以永远工作下去。他会不会猜想iPhone也能永远像现在一样工作下去,而不会理解这个玩意需要充电?要知道我们是从迈克尔·法拉第出生前的100年时间将他召来,电的概念还没有出现,所以他缺乏对电力的科学认知。如果iPhone可以成为没有火的光源,那么它是否也能将铅转化为黄金呢?


这是我们大家想象未来技术的时候都会出现的一个问题。如果它离我们今天所掌握和理解的技术足够遥远的话,那么我们就不知道它的局限性了。如果它变得与魔法难以区分,任何人说的关于它的说法都不再是可以证明真伪的。


这是我经常遇到的问题,当试图与人辩论关于我们是否应该担心通用人工智能,或者AGI——我们将在这个世界上创造一种可以像人类一样自治的机器人的想法。我说我不了解AGI会如何强大。那不是一个论点。我们甚至都不知道这样的东西是否存在。我希望它存在——这一直是我自己在机器人和人工智能领域工作的动力。但现代的AGI研究做的不够好,无论是在通用性方面还是支持一个持续存在的独立实体方面。它似乎主要停留在同样的问题上,AI在推理和常识方面存在的问题已经至少存在了50年。我所看到的所有证据表明我们还没有真正有效的想法。它的特性是完全未知的,所以说它很快变得神奇,强大到无极限。


宇宙中没有什么是没有限制的。


要小心那些有关具有魔力的未来科技的论点。因为这些论点你永远也无法反驳。因为它以信念为基础,而不是科学依据。 



3、表现与能力


我们都使用人们如何完成某项特定的任务的线索去评估他们完成不同的任务会有多么好。当我们身处在一个陌生的城市,向街上的陌生人问路,她信心十足地回答,似乎有道理的样子,所以当你想乘公交车的时候,你也可以问她是怎么付费的。


现在假定有个人告诉我们,一张特别的照片显示人们在公园里玩飞盘。我们顺理成章地认为这个人可以回答出类似以下几个问题: 飞盘是什么形状的?一个人大体上可以把飞盘扔多远?人能咬住飞盘吗?大概多少人可以同时玩飞盘?一个三个月大的孩子会玩飞盘吗?今天的天气适合玩飞盘吗?


能标记图片象“人们在公园里玩飞盘”的计算机没有机会回答那些问题。除此之外,它们能做的只是可以给更多图像打标签,根本不能回答问题。它们不知道玩飞盘的人是谁,公园通常是不是在室外,人的年龄大小,以及这个图片看起来受天气影响最大等等这些问题都一无所知。


不过这并不意味着这些系统就一无是处;它们对于搜索引擎是很有价值的。但这就是错误的地方。人们得知一些机器人或AI系统已经完成了一些任务。然后,他们从这种表现中归纳出一些能力,即一个人执行同样的任务可能会有的能力。接下来他们将这些归纳应用到机器人或者AI系统。


今天的机器人和AI系统相对于我们能做的事情在能力上是极其狭隘的。人类风格的那种归纳概括并不适用于它们。



4、手提箱单词


Marvin Minsky称那些有很多词义的单词为“手提箱单词”。“学习”是一个强大的手提箱单词;它可以指很多不同类型的经验。学习使用筷子跟学习新歌的调子当然是非常不同的体验。学习编写代码跟学习在特定城市穿行也会有很大的不同。


当大家听说机器学习在一些新领域取得了长足进步,他们会考虑在一些新领域的机器学习,他们往往将人学习该新领域的心智模式套用过去。然而,机器学习是非常脆弱的,每一个新的问题领域需要研究人员或者工程师做大量的准备工作,要有特定目的的编码来处理输入数据,需要特殊用途的训练数据,以及定制的学习结构。今天计算机的机器学习根本就不是像人类的那种海绵式的吸收,可以无需进行手术般篡改或者有目的开发的基础上就能在新的领域取得快速进展。


同样,当人们听说计算机能打败世界象棋冠军(1997)或世界上最好的围棋选手(2016)时,他们往往认为机器就像人一样在“下”棋。当然在现实中这些程序对游戏是什么样以及自己的下法其实是一无所知的。它们的适应性也差得多。人在比赛的时候,规则的一点小改动并不会让他们迷惑。但是对于AlphaGo和深蓝却截然不同。


手提箱单词导致大家在理解机器执行人类能做的事情有多好时会误入歧途。而另一方面,更糟的是AI研究人员所在机构的新闻处则渴望宣称自己所取得的进展,就是手提箱单词之于人类的一个例子。这里重要的是“一个例子”。细节很快就被弄丢了。新闻头条开始吹嘘那个手提箱单词,并且误导对AI的一般理解,以及距离实现更多还有多近。 



5、指数性


很多人都饱受所谓的“指数论”之苦。


每个人对摩尔定律都有自己的想法,至少知道计算机会像发条般精确地变得越来越快。其实摩尔的说法是芯片可容纳的元件数量每年都会翻番。这种情况持续了50年,尽管时间常数逐步从1年延长到2年,而现在它终于走到了尽头。


把芯片的元件数翻番使得计算机速度也加倍。还使得内存芯片每2年容量变成之前的4倍。这还导致了数字照相机分辨率越来越高,LCD屏幕像素呈指数增长。


摩尔定律见效的原因在于它适用于真/假的数字化抽象。在任何给定的电路中,存在电荷或者电压吗?随着芯片组越来越小,答案依然清晰,直到一个物理限制的介入,当非常少的电荷时,量子效应就开始发挥主导作用。而我们的硅晶芯片技术现在就走到这个关键节点上。


当人们受到指数论影响时,他们可能会认为他们用来证明自己论点的指数性还会继续。摩尔定律,以及像摩尔定律这样的指数定律可能会失效,因为它们不是真正的把指数放在第一位。


回到本世纪初时我正在管理着MIT一家很大的实验室(CSAIL),需要给超过90家研究小组筹集研究经费,我试图向赞助商表明iPod的内存增长有多快。以下是关于400美元可以给iPod提供多大存储的数据:


              

然后依据此数据,我再向外推几年询问兜里这些内存都可以用来做什么。


如果外推到现在,预计400美元的iPod应该有160000GB(或者160TB)的内存。但是今天最高配的iPhone(售价超过400美元)也只有256GB的内存,还不到2007年的iPod的2倍。当内存容量大到可以容纳任何理性之人的音乐库、应用程序、照片和视频时,这个特别的指数性就会突然之间崩塌。当达到物理极限时,指数性也会崩塌,或者当没有更多的经济理由让它继续存在时。


同样的,由于深度学习的成功,我们已经目睹了AI系统突然有了很好的表现。很多人似乎认为这意味着AI相当于乘数效应的性能提升会继续常态化进行下去。但其实深度学习的成功是30年不懈努力的结果,没人能够预测到这一点。这只是个孤立事件。


这并不意味着不会有更多的孤立事件,也就是一潭死水似的AI研究,突然会给许多AI应用插上翅膀。但是这种情况的发生频率,并没有“定律”可循。



6、好莱坞场景


很多好莱坞科幻电影的情节都是这样的:世界跟今天的还是一样,除了一个转折。


在《机器管家》这部电影里面,有一幕是Sam Neill扮演的Richard Martin坐下来由Robin Williams扮演的人性机器人服侍吃早餐。他一边吃早餐,一边拿起一份报纸来看。报纸!印刷的报纸。而不是平板电脑,或者类似Amazon Echo这样的设备播放播客,这种设定跟互联网并没有直接的神经连接。


结果证明,很多AI研究人员和AI权威,尤其是那些沉溺于预测AI会失控和杀人的悲观主义者,其想象力也类似地受到挑战。他们忽视了这样一个事实,那就是如果我们最终能够制造出这样的智能设备的话,到那时,世界将会发生巨大的变化。我们不会突然被此类超级智能的出现给吓到。随着时间的推移,它们会在技术上逐渐演进,我们的世界会变得不一样,会充斥着许多其他的智能,而且我们早已经有了很多体验。早在邪恶的超级智能想要除掉我们之前,就会有一些不那么聪明和更好战的机器出现。在此之前,会有很暴躁的机器出现。再往前,则会有相当烦人的机器出现。而在它们之前则是自大讨厌的机器。这一路上我们会改变我们的世界,既要为了新技术调整环境,也要对新技术本身进行调整。我不是说可能不会有挑战,而是说未必会像很多人以为的那样,是突然的、意料之外的。



7、部署速度


新版本的软件部署频率在一些行业已经变得非常高。像Facebook这样的平台的新功能几乎是按小时为周期部署的。对于许多新功能来说,只要通过了集成测试,如果现场出现问题需要回退到旧版本的话,经济的负面影响是非常小的。这属于硅谷和Web软件开发者早已习以为常的节奏。这种节奏有效是因为新部署代码的边际成本非常非常接近于0。


但硬件的边际成本就很高。我们在日常生活中就能感受到。我们今天购买的很多汽车都不是自动驾驶的,大多数也都不是软件使能的,到2040年的时候,可能还会在道路上出现。这就给我们的车可以多快变成自动驾驶增加了天然的限制。如果我们今天要建造个新家,我们的预计是它应该能顶100年左右。我现在住的建筑是在1904年建造的,在我的邻居里面还远算不上最古老的建筑。


资本成本让物理硬件存活很长一段时间,即便有了高科技的出现,它还有存在主义使命要履行。


美国空军仍然在服役的是B-52轰炸机的变种B-52H。该版飞机是在1961年引进的,至今已经56年。最后一个建造于1962年,也是55年前的事情了。现在,这批飞机预计要服役到2040年,可能还要更久——有讨论要把它们的寿命延长到100年。


我在世界各地的工厂里,经常看到几十年的老设备。我甚至见过工厂里运行发布于1990年简版Windows 3.0的PC机器。其思维模式是“如果没坏就不要修”。那些PC和软件已经可靠地运行,同一个软件执行同样的任务超过20年了。


欧美中日韩的工厂,包括全新的工厂,其主要的控制机制都是基于可编程逻辑控制器(PLC)的。这是在1968年引入来取代继电器的。“线圈”仍然是目前使用的主要抽象单元,PLC的编程方式也像是存在一个24V继电器网络一样。尽管如此,一些直连线已经被以太网电缆取代。而以太网电缆并不是开放网络的一部分,相反,一根根独立的电缆都是点对点连接的,体现的是这些崭新的古老控制器的控制流。当你想要改变信息流或者控制流时,全球大多数工厂都需要找来顾问用数周的时间弄清楚上面有什么,设计新的并重新配置,然后一群商人队伍再进行重新布线,对硬件进行重新配置。这种设备的一家主要制造商最近告诉我说,他们的节奏是每20年更新3次软件。


原则上来说,这事儿可以换种做法。但在实践上不可行。就在这个时候我还在看着职位需求列表,就在今天,特斯拉汽车公司在美国加州费利蒙市的工厂还试图招聘全职的PLC技术人员。通过继电器仿真来对当今最先进的AI软件驱动的汽车生产进行自动化。


很多的AI研究人员和权威想象这个世界已经是数字化了,只需要把新的AI系统引进来就能马上给现场、供应链、车间、产品设计带来运营方面的改变。


这跟事实完全是南辕北辙。几乎所有机器人和AI方面的创新都需要很长很长的时间才能广泛部署,所需要的时间之长要超出圈子内外的人的想象。


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存