Facebook的三大愿景:连网、人工智能机器人、虚拟现实(内含扎克伯格清华大学“中文秀”和IEEE访谈)
https://v.qq.com/txp/iframe/player.html?vid=z0017uus77n&width=500&height=375&auto=0
Facebook的新三大愿景:人工智能、无人机、虚拟现实
https://v.qq.com/txp/iframe/player.html?vid=u001920uvgf&width=500&height=375&auto=0
扎克伯格对话马云:探讨人机大战、机器人、虚拟现实
https://v.qq.com/txp/iframe/player.html?vid=g0015htmac1&width=500&height=375&auto=0
Facebook创始人—扎克伯格 清华大学“中文秀”
扎克伯格谈未来科技趋势:人工智能、VR(虚拟现实)
扎克伯格接受《星期日世界报》的采访内容节录如下:
虚拟现实不是炒作
多夫纳:你现在最喜欢谈的话题是虚拟现实。你为什么如此肯定虚拟现实不是炒作?
扎克伯格:关于这个话题,有一个长期问题和一个短期问题。人们常说,预测未来10到20年里会发生的事比预测未来3年里将要发生的事更容易。这里会有一些大的趋势。人工智能将继续发展,未来我们将能够治愈更多的疾病。我们都知道这一点。真正的艺术能够看清我们如何由此及彼。我们相信虚拟现实会成为一项重要的技术。我个人坚信这一点。现在正是投资虚拟现实技术的时候。我们刚刚宣布Gear VR中消费的视频时长达到了100万小时,我们与三星才刚刚开始卖这款设备,这真是令人鼓舞。
坦白说,我并不知道建立这个生态系统要花多长的时间。可能是5年,也可能是10年甚至15年或20年。我猜想,建立这个生态系统至少需要10年的时间。人类从开发最早的智能手机到智能手机进入大众市场用了10年的时间,黑莓在2003年推出,到2013年的时候它的总销量才达到10亿部。因此我想虚拟现实的发展速度不会比它们更快。
多夫纳:你通过Facebook对Oculus Rift投资了20亿美元。你真的对这款硬件感兴趣吗?请谈谈Facebook的虚拟现实战略。
扎克伯格:我们最感兴趣的是软件。但是在任何新平台的早期开发阶段,你需要同时去做硬件和软件方面的事务。只有发展到一定程度之后,专业化才有意义。因此你需要拥有一家在硬件方面做得很好的公司,你还需要一家在软件方面做得很好的公司。一切都是瞬息万变的,你想让更新迭代联系在一起。这就是为什么我们的长期目标是软件,但是同时也会去关注硬件的原因。
多夫纳:你们还利用Oculus Rift开发了一些新技术并提供给了三星,以便发布Gear,是这样吗?
扎克伯格:是的。Gear设备的销量可能会超过Oculus Rift的销量。
多夫纳:虽然你们是竞争对手的关系,你们还是为三星输出了技术,因为你想尽快建立起虚拟现实全球市场,我说的对吗?
扎克伯格:没错。Oculus Rift和Gear VR是两种不同的产品,价格不同,质量也不同。
多夫纳:600美元对100美元?
扎克伯格:是的。虽然Oculus Rift的价格比600美元贵得多,因为它需要一台强大的PC来运行。除非你已经拥有了一台强大的PC,否则你可能还要多花1000美元左右。
多夫纳:因此你问自己,为什么还有人愿意去购买Oculus Rift?
扎克伯格:因为它可以提供更多、更好的体验。
多夫纳:为什么?
扎克伯格:因为虚拟现实是一种非常强烈的视觉体验,只有拥有最强大的PC才能提供这种体验。例如,我们已经测试过带着Rift跑步的情景,你不但可以在虚拟环境中四处张望,而且你还可以用手去操控这个虚拟环境中的各种事物。你可以在虚拟现实环境中打乒乓球或者与其他人互动,这项技术需要足够快,那样在你做出某种行为时,它才能通过互联网触发和对他人做出相应的行为。这需要大量的处理能力才能做好。
多夫纳:虚拟现实市场会达到多大的规模?我看到高盛预测的规模是800亿美元。
扎克伯格:我们预测了两大趋势。第一个趋势是人们想通过更加沉浸式的方式来表达自我。因此当你回顾10年前的互联网,你会发现当时大多数人在互联网上分享和消费的都是文字信息。现在呢?大多数人分享和消费的内容变成了照片。我认为,以后人们在互联网上分享和消费的内容会是视频,而且还会越来越丰富多彩。但那并不是终点。我认为未来你还会想要获得一个更全面更完整的视野。
多夫纳:你是否认为有朝一日人们使用频率最高的会话会是虚拟现实聊天?
扎克伯格:肯定的。
多夫纳:你认为这种情况会在什么时候实现?
扎克伯格:我不确定。我认为问题是它比视频会议要好得多。但是我想你很快就会知道那是一种什么样的情况。因此其中一个趋势是人们分享的内容会朝着更丰富的方向发展。另一个趋势是开发更具沉浸式和强大的计算平台。我们最开始使用的是象楼房一样高大的服务器,有的人需要一定规模的计算能力来运行程序。然后PC就问世了,一开始它的规格也是很大的,人们不喜欢使用它,但它可以做很多事。然后我们有了电话,人们很喜欢使用它,几乎所有人都有了自己的电话。但是它也还有很多不方便的地方,比如从口袋中取出来才能用,显示屏不够大,沉浸感不强等等。因此我认为每过10年或15年就会出现一种新的计算平台,现在虚拟现实就是最有可能成为下一个计算平台的东西。
多夫纳:两天前,媒体上刊登了一张你在柏林的照片。当时你正在一个会场中大步走路,边上的人都没有认出你来,因为他们都戴着Gear VR。你面带笑容,似乎很高兴。反对者们说,这说明了虚拟现实体验会让人变得孤立,因为它不再是一种集体体验。你对此有何反应?
扎克伯格:这种说法与实际情况差了十万八千里。实际情况恰恰相反。当时人们戴的Gear VR头盔中显示的是一群孩子们在远处玩足球的视频。你可以环顾四周,你会看到在你周围踢球的孩子,你可以跟那个地方的每一个人分享体验,如果没有Gear VR,你是做不到这一点的。这就像是一部电影,只是与你的关系更为密切,因为你自己身在其中。我认为,每一种新技术问世的时候,人们都可能会有些担心。反对者担心我们会把时间花在关注新媒体或新技术上面,而忽视了人际间的交流,从而导致人与人彼此孤立。但是人从根本上来说是一种社会动物,因此我认为如果一种技术不能帮助我们更好地了解彼此,它就不会受到重视并取得成功。你可能会因此想到最早的书籍。我想有的人会说‘你可以跟其他人直接谈话的时候,为什么你还要书呢?’看书的重点在于,你可以将自己深深地浸入作者通过书籍上的内容营造的环境之中。是吗?报纸、电话、电视机的情况也是如此。我想,下一步就是虚拟现实了。
多夫纳:两周前,我遇到一位以色列企业家,他也是一位神经科学家。他说他正在研究一种技术,据说这种技术将在两年内不用虚拟现实头盔也能创造出虚拟现实体验。这听起来很吸引人,但也相当令人难以置信。
扎克伯格:我认为人类最终会实现这样的愿景。我不知道这需要多久,或者说现实距离它还有多远。最终,人们戴着普通的眼镜就能获得完全浸入式体验。是的,有些人在很多问题上取得了重要的研发成果,但我依然认为还有一些基础性的问题需要解决。一旦解决了这些问题,剩下的就是如何大规模制造这些体验了。如果一款产品的价格为1万或2万美元,它的用途是有限的。世界上最早的计算机的价格大概就是这么多。只有当每个人都能买起计算机的时候,它才会成为现实。我想,对于虚拟现实来说,这还需要很多年。
未来的三大技术趋势
多夫纳:从Facebook的角度来说,虚拟现实之后的下一个大趋势是什么?
扎克伯格:我从三个时间层考虑过我们的工作。现在已经开发出产品,部分业务已经初具规模了。Facebook、News Feed、Instagram和WhatsApp都是如此。在下一个5年里,还有很多新的问题需要我们解决,视频可能就是其中最大的一个问题。
我想视频是一个巨大的趋势,几乎就跟移动一样大。然后这有一个10年的期限,确实相当遥远。为此我们对三大领域进行了投资。
一个是连网,让世界上的每一个人都能访问互联网。这一点很重要,因为现在只有七分之三的人能够上网。如果你住在一个没有好的学校的地区,那么互联网或许就是你获得教育的最佳途径。
第二个领域是人工智能。我们预计人工智能技术的很多进展将对社会造成巨大的影响:减少无人驾驶汽车的事故率,改善疾病诊断等等。提高疾病诊治能力可以提高社会的安全性和人的健康状况,此外还会产生一些别的影响。
第三个领域就是下一个计算平台。我们相信会是虚拟现实和增强现实。这就是我们未来10年或更长时期内将要专注的领域。
多夫纳:人工智能将如何改变社会?
扎克伯格:以我的经验来说,人们通常有两种学习方式。其中一种学习方式是监督学习,另一种是不监督学习。你可以这样来理解:监督学习就是你读书给孩子听,并且为他们答疑解惑。在是鸟,那是狗,远处还有一条狗。你在讲解的同时还会用手指给孩子看,重复很多次之后孩子就会明白“那是狗”是什么意思。这就是监督学习。这其实是一个认图识字的过程。我们现在已经明白它是如何工作的。另一个是不监督学习。这也是大多数人未来将要学习的一种学习方式。你知道现在世界上发生的一些事,在脑海中建立它们的工作模型,然后根据它们去预测以后将要发生的事。通过它来通知你的行为是什么以及你已经拥有了某种模型:ok,我将采取一些行动,我预计这会在受我的行为影响的世界里发生。人工智能将为我们提供巨大的帮助。
多夫纳:你能理解商界巨头伊隆·马斯克(Elon Musk)话语中想要表达的担忧吗?他非常担心人工智能有朝一日将占用人的很大一部分时间并且取代人脑,机器人将比人更加强壮。你认为这是一种很实在的担忧,或者说你认为它是歇斯底里的?
扎克伯格:我认为它更加歇斯底里一些。
多夫纳:我们能在多大程度上确定计算机和机器人将为人类服务而不会出现别的情况?
扎克伯格:我认为默认设置是我们生产出来的所有设备都将服务人类,因此当我们将一些东西组合在一起时,我认为那就是那样的。
多夫纳:但是在象棋领域,加里·卡斯帕罗夫(Garry Kasparov)最后被计算机BIG Blue打败。因此以后会出现越来越多的类似情况,届时电脑将比人脑更加智能化。
扎克伯格:是的,但是如果某人开发出比人类更能干好用的机器人。历史上有很多设备都在这方面做过努力。我认为这是人们高估人工智能可能带来的影响。由于你可以生产出在某些方面做得比人更好的设备,但这并不意味着它将具备学习新领域里的知识或者将信息的不同部分连接在一起。
多夫纳:因此这只是科幻小说里的东西,不会在现实生活中发生,因此我们不需要担心人工智能的安全性?
扎克伯格:我认为我们还要搞清如何让它变得安全。人们以前说过,我们或许能拥有一架飞机,而这家飞机可能会爆炸。尽管如此,人类还是先开发出飞机,然后才开始关注飞行安全性。如果人们一开始就把重点放在移动上面,那么他们永远也不能造出一架飞机。这种可怕的想法也许就存在于现实进度之中。因为如果你意识到无人驾驶汽车可以避免车祸事故,那么人工智能将极大地降低某个因素造成的死亡率。同样,人工智能系统可以帮助医生正确诊断疾病并很好地进行治疗护理,因此拦截这个进程可能是现在最糟糕的情况之一。
多夫纳:这也正是伊隆·马斯克(Elon Musk)打算通过他的特斯拉公司实现的目标。尽管如此,他担心人工智能的开发会在极少数人和大公司手中变得不受控制。在这个问题上,持担心态度的是美国人。欧洲的立场通常是:你会先看到风险和副作用,然后才会看到机遇。在这方面,美国人和欧洲人的心态上有差别吗?
扎克伯格:我不能确定这个问题能不能一概而论。放眼全世界,肯定有人充满希望,也有人持怀疑态度。
编程是一种私人习惯
多夫纳:你的女儿麦克斯(Max)将有一个机器人保姆。你对这个机器人有什么期望?
扎克伯格:我正在用最基本的AI系统来控制我的家。因此我可以告诉它关闭所有的灯具或者带领某个人进门,或者它看到我回家时可以打开大门。真的是最基本的东西。但是会用到一些现代化的AI系统,比如现代化AI系统可以做到的语音识别、图像识别、模式识别等等。对我个人来说,这里面的很多内容都是一项挑战,因此我热爱编程和建设一些东西。
多夫纳:你现在仍然亲自编程?
扎克伯格:是的。我把这看作是对自我的一种挑战。我并不是帮助公司编程,因为我们公司在这方面有规定,如果你检查编程,那么你就必须支持它。这也就是说,如果你编写的软件中有漏洞,那么你就必须放下正在做的工作,修复这个漏洞。
多夫纳:你当然做不到这一点。
扎克伯格:我不想让自己陷入这种情形之中,给别人留下一些承诺或者粗暴地让别人来给我编写的软件提供支持。因此我停止为Facebook编程已经有一段时间了。
多夫纳:但是你还是将编程作为一种私人习惯,我可以这么说吗?
扎克伯格:确实如此。我喜欢密切关注最新的技术,而亲自编程就是关注最新技术的最好方式。
十年后的Facebook
多夫纳:Facebook十年后会变成什么样子?你已经有想法了吗?
扎克伯格:如果我们在连网和人工智能以及虚拟现实和增强现实这些方面取得很大的进展,我认为我们会生活在一个大多数人都在互联网上的世界里,因此我们的社区会变得更大。我认为人们会用于更丰富的工具来分享和体验生活。以后,能够分享构成我们生活的整个场景会是一件很有价值的事。普莉希拉和我曾经谈论过一个案例,当麦克斯开始学走路的时候,我们打算如何将那段时光保留下来。我想把整个过程拍摄下来,我想要一部360度的相机,这样就算到时候我的父母和家人不在身边,他们在事后看到照片时也能有身临其境的感觉。我认为这很快就会变成可能。
多夫纳:Facebook有什么局限性?你是否看到了它的局限性?
扎克伯格:我们非常专注于我们的最终目标,即让人们能够按照他们所希望的方式来分享体验以及将全世界的人都连接在一起。
多夫纳:Facebook面临的最大风险是什么?你最大的敌人是自己已经取得的成功吗?
扎克伯格:我想一直都是如此。公司肯定会面临各种不同的风险,不管是竞争对手还是不同的市场环境。但我认为人们总是过分关注竞争对手而不够关注自身的行为。我认为如果我们只是做好自己的事情,对我来说那就是影响我们能否成功的最大变数。
多夫纳:Facebook现在是一个传播平台还是出版商?
扎克伯格:肯定是一个传播平台啊。
多夫纳:你为什么不想变成一家出版商呢?
扎克伯格:因为我们是一家技术公司。我认为平台才是我们产品的核心,人们用我们的平台来分享和消费媒体,但是我们自己并不是一家媒体公司。这就是为什么我们要坚持与其他更擅长创造内容的人合作的战略,我们想继续作一家技术公司。
多夫纳:你是如何发现憎恨言论的争议的?
扎克伯格:虽然我们相信自由言论并且给予每一个人发表意见的能力,但在现实生活中,有很多障碍让我们做不到这一点,不管是法律上的限制还是技术上的限制,又或者是因为你无法上网所以你不能把你的想法分享给其他人。此外还有社交限制,有些人可能会对其他人能够自由地表达自己的观点感到不可思议。因此我们推出了North Star计划,就是想让大多数人能够最大可能地发表自己的观点。当然,憎恨言论和种族歧视言论在Facebook上是不允许存在的。我们制定了明确的社区标准,还成立了相关团队来执行这些标准。另外,我们还与政府有关部门和地方组织密切合作,确保我们因地制宜地执行了各项标准以及尽可能地发现和移除憎恨言论或威胁言论。
多夫纳:还有不去干涉10多亿用户阅读什么或不阅读什么。这是编辑的工作,出版商的工作。我认为,如果一家拥有10多亿用户的全球性公司使用一些主观性的标准来决定哪些用户能够阅读哪些内容的话,那会是非常危险的事情。这也是争议被误导的原因。对于一个技术传播平台来说,唯一的限制框架应该是法律框架。
扎克伯格:我赞成你的观点,但是并不是所有人都认同我们的观点。
IEEE深度对话Facebook人工智能负责人:让深度学习摆脱束缚
最近AlphaGo对李世乭的世纪大战让深度学习再次备受关注。文中大量关于深度学习的探讨值得我们翻阅。读完文章,你也许就能明白,为什么Facebook人工智能负责人Yann LeCun不喜欢人们把深度学习描述为“它像大脑一样工作”。
人工智能经历了几次低潮时期,这些灰暗时光被称作“AI寒冬”。这里说的不是那段时期,事实上,人工智能如今变得异常火热,以至于科技巨头谷歌、Facebook、苹果、百度和微软正在争抢该领域的领袖人物。当前人工智能之所以引起大家的兴奋,在很大程度上是源于“卷积神经网络”的研究进展。这项机器学习技术为计算机视觉、语音识别和自然语言处理带来了巨大的、激动人心的进步。你可能已经听过它另一个更加通俗友好的名字——深度学习。
几乎没有人比54岁的Yann LeCun更能与深度学习紧密地联系在一起。早在20世纪80年代末,LeCun就作为贝尔实验室的研究员开发出了卷积网络技术,并展示如何使用它来大幅度提高手写识别能力;目前美国许多手写支票依然是用他的方法在进行处理。上世纪末本世纪初,当神经网络失宠,LeCun是少数几名一直坚持研究的科学家之一。他于2003年成为纽约大学教授,并从此引领了深度学习的发展。
最近,深度学习及其相关领域已然成为最活跃的计算机研究领域之一。这就是LeCun在2013年底加入Facebook负责新成立的人工智能实验室的原因之一,尽管他依然保持着在纽约大学的职务。
LeCun出生在法国,保留了一些本国的“公共知识分子”角色所发挥的重要性。他的写作和演讲主要是集中在他的技术领域,当然,当涉及到其他领域,包括当今时事时,他也不会退让。
IEEE Spectrum的Lee Gomes与LeCun在他纽约的Facebook办公室里进行了一次深度谈话,共有九部分。
一、用8个单词解释深度学习
IEEE Spectrum:这些天我们看到了许多关于深度学习的新闻。在这些对深度学习的众多描述中,你最不喜欢哪一种?
Yann LeCun: 我最不喜欢的描述是“它像大脑一样工作”,我不喜欢人们这样说的原因是,虽然深度学习从生命的生物机理中获得灵感,但它与大脑的实际工作原理差别非常非常巨大 。将它与大脑进行类比给它赋予了一些神奇的光环,这种描述是危险的,这将导致天花乱坠的宣传,大家在要求一些不切实际的事情。人工智能之前经历了几次寒冬就是因为人们要求了一些人工智能无法给与的东西。
Spectrum:因此,如果你是一名关注深度学习的记者,而且像所有新闻记者所做的那样,只用八个单词去描述它,你会说什么?
LeCun:我需要考虑一下。我想将会是“学着描绘世界的机器”(machines that learn to represent the world)。可能另外一种描述是“端对端的机器学习”(end-to-end machine learning)。这种理念是:在一个能够学习的机器中,每一个组件、每一个阶段都能进行训练。
Spectrum:你的编辑可能不大喜欢这样。
LeCun:是的,公众将无法理解我所表达的意思。好吧,有另外一种方法。你可以把深度学习看作是,通过整合大量能够基于相同方式训练的模块和组件来构建拥有学习能力的机器,比如说模式识别系统等。因此,需要一个能够训练每个事物的单一原则。但这又超过了八个字。
Spectrum:有哪些事情是深度学习系统可以做,而机器学习无法做到的?
LeCun:这是个更好的问题。之前的系统,我想我们可以称之为“肤浅的学习系统”,会受系统能计算的函数的复杂度的限制。因此,如果你使用一个类似于“线性分类器”的肤浅学习算法来识别图像,你将需要从图像中提取出足够多的参数特征来提供给它。但手动设计一个特征提取器非常困难,而且很耗时。或者使用一个更加灵活的分类器,比如说“支持向量机”或者两层神经网络,直接将图片的像素提供给它们。而问题是这不会提高物体识别的准确性。
Spectrum:这听起来不像是一个简单易懂的解释,或许这就是为什么那些记者会尝试着把深度学习描述成……
LeCun:像我们的大脑。
二、有5亿个开关的黑盒子
Spectrum:其中有一个问题是,机器学习是一个非专业人士极其难以接近的研究领域。一些经过教育的外行能够理解一些半技术性的计算问题,比如说谷歌使用的PageRank算法,但我敢打赌只有教授才能对线性分类器和向量机了若指掌,这是因为该领域从本质上就很复杂难懂吗?
LeCun:事实上,我认为机器学习的基础原理非常简单易懂。我曾经向高中的老师和学生解释过这一主题,并没有让其中的许多人觉得枯燥乏味。
模式识别系统就像一个黑盒子,背面装有摄像头,顶上有一个红灯和一个绿灯,前面装有一连串开关。比如说一种尝试着调节开关的学习算法,当一条狗出现在摄像头中时控制开关使红灯亮起;当一辆车出现在摄像头中时控制开关使绿灯亮起。为了训练该算法,你将一条狗放在机器面前,如果红灯亮起,什么都不做。如果光线模糊,扭动旋钮使灯变亮。如果绿灯亮起,扭动旋钮使灯光变暗;接下来换成汽车,扭动旋钮使红灯变暗或绿灯变亮。如果你进行多次尝试,并且保持每次都对旋钮进行逐渐微调,最终,机器每次都能得出正确答案。
有趣的是它能正确的区分开它从未见过的汽车和狗。窍门在于要计算出每次扭动旋钮的方向和幅度,而不是乱动一气。这包含对“梯度”的计算,旋钮的每次扭动代表着灯光的相应改变。现在想象一下,有个盒子拥有5亿个旋钮、1000个灯泡,用1000万张图来训练它,这就是一个典型的深度学习系统。
Spectrum:我认为你用“肤浅的学习”这个词好像有些不太严谨;我不认为那些使用线性分类器的人会认为他们的工作很“肤浅”。之所以用“深度学习”这个表述难道就没有媒体宣传的因素在里面?因为这看起来好像它学到的东西很有深度,但实际上,“深度”仅仅是指这个系统的级数?
LeCun:是的,是有点儿滑稽,但这反映了真实情况:肤浅学习系统有一层或两层,而深度学习系统一般有5-20层。肤浅还是深度指的并不是学习行为本身,而是指被训练的结构。
三、追寻漂亮的创意
Spectrum:Yann LeCun的标准简历里提到,在他们都对神经网络失去兴趣时,你依然坚持着探索神经网络的新方法。是什么使你能够无视世俗认知并一直坚持下去?
LeCun:自始至终,我都一直深深沉迷于能够训练出一套完整的“端对端”系统。你将未经加工的数据输入系统,因为系统具有多层结构,每一层都将知道如何对上一层产生的表征进行转化,直到最后一层输出结果。该理念——从头到尾你都应该把学习融合进来,以便机器能够学习到好的数据表征——这就是我在过去三十年终所着迷的东西。
Spectrum:你的工作是符合黑客原则,还是科学原则?你是一直尝试到它们可以运行为止?还是会从洞悉理论开始?
LeCun:直觉洞察、理论模型、实际执行、实证研究与科学分析之间存在很多相互影响。洞察力是一种创造性思维;模型基于数学;实际执行涉及工程学和纯粹的黑客行为;实证研究和分析属于实实在在的科学。其中我最喜欢的是那些能够在实施中成功运行的简洁优美的理论。
有些人倾向使用某种理论的原因仅仅是因为它简单,或者他们不理会那些真正有用的理论的原因是它们太难了,我对这样的研究人员完全没有耐心。在机器学习领域存在一些这样的现象。事实上,从某种程度上来说,上世纪末本世纪初的“神经网络寒冬”就是那种“研究原则”所导致的。看似拥有坚不可摧的理论依据,但实证结果却没有价值,这非常不利于解决接下来的工程问题。
但采用纯粹的实证研究方法也有许多隐患。例如,语音识别领域一直保持实证研究的传统,只有当你的结果由于基准线时,才能得到本行业的关注。这扼杀了创造力,因为如果你想在测试结果上击败其他研究团队,而他们对此已经做了多年研究,那你首先应该潜心研究4-5年,建造自己的基本架构,这非常困难,且极具风险,因此没人这么做。所以对于整个语音识别领域,虽然研究进展连续不断,但都属于渐进式。
Spectrum:你看起来一直在竭尽全力的将你的工作与神经科学和生物学拉开距离。例如,你提到了“卷积网络”,而不是“卷积神经网络”。你在你的算法里提到了“单位/个体”(units),而非“神经元”。
LeCun:的确如此。我们模型中的一些部分从神经科学中获得了灵感,但还有相当多部分与神经科学毫不相干,相反,它们是来源于理论、直觉和经验探索。我们的模型不希望变成大脑的模型,我们也没有宣称神经科学方面的相关性。但同时,如果说卷积网络的灵感来源于一些关于视觉皮质的基础知识,我也可以接受。有些人间接从神经科学获得灵感,但他却不肯承认这一点,我承认,这(神经科学)很有帮助。但我会小心翼翼的不去触碰那些会引发大肆宣传的词语,因为这个领域已经出现了疯狂炒作,这非常危险。
四、大肆宣传的东西看起来像科学,但实际上不是
Spectrum:炒作毫无疑问是有害的,但你为什么说这是“危险的”?
LeCun:因为这给基金会、公众、潜在客户、创业公司和投资者带来了预期,他们会因此相信我们正处在风口浪尖——我们正在建造一些像大脑一样强大的系统,但实际上我们离这个目标还差的很远。这很容易导致另一次的“寒冬周期”。这里会出现一些“草包族科学”(cargo cult science),这是理查·费曼的表达,指描述某些事物貌似科学,但实际上不是(译者注:这出自理查·费曼1974年在加州理工学院的一场毕业典礼演说,描述某些事物貌似科学,却遗漏了“科学的品德,也就是进行科学思考时必须遵守的诚实原则”)。
Spectrum:能举几个例子吗?
LeCun:在“草包族科学”下,你往往是复制了机器的表象,却没有深入理解机器背后的原理。或者,在航空领域,你制造飞机时会完全复制鸟类的样子,它的羽毛、翅膀等等。19世纪的人们很喜欢这么做,但取得的成就非常有限。在人工智能领域也是如此,他们尝试着对我们所知晓的神经元和神经突触的所有细节进行复制,然后在一台超级计算机上启动一套庞大的模拟神经网络,希望从中孕育出人工智能,这就是“草包族科学”的人工智能。有许多拿到大笔基金支持的严肃的研究者基本上快要相信这些了。
Spectrum:你认为IBM的True North项目(译者注:IBM的类人脑芯片,集成了 54 亿个硅晶体管、 4096 个内核、100 万个“神经元”和2.56 亿个“突触”)属于“草包族科学”吗?
LeCun:这听起来会有些刺耳。但我的确认为,IBM团队所声称的东西有点偏差并容易造成误解。从表面上看,他们的公告令人印象深刻,但实际上没有实现任何有价值的东西。在True North之前,那个团队用IBM的超级计算机来“模拟了一个老鼠级别的大脑”,但这只是一个随机的神经网络,除了消耗CPU运算周期以外没有发挥任何作用。True North芯片的悲剧在于它本来可以很有用,如果它当初没有坚持与生物学走的太近以及没有使用"spiking integrate-and-fireneurons"模型的话。因此在我看来——我曾是一个芯片设计者——当你在开发一个芯片之前,你必须确信无疑它能做些有用的事情。如果你打造了一个卷积网络芯片——很清楚如何去做——它能立刻应用到计算设备中。IBM创造了错误的东西,我们无法用它去完成任何有用的事情。
Spectrum:还有其他例子吗?
LeCun:从根本上说,欧盟人脑计划(Human Brain Project)中的很大部分也是基于这样一种理念:我们应该建造一种模拟神经元功能的芯片,越接近越好,然后将芯片用于建造超级计算机,当我们用一些学习规则来开启它时,人工智能就出现了。我认为这纯属胡说八道。诚然,我刚才指的是欧盟人脑计划,并不是讽刺参与这个项目的每个人。许多人参与该项目的原因仅仅是因为它能获得巨额资助,这是他们所无法拒绝的。
五、无监督学习——机器需要的学习方式
Spectrum:对于一般意义上的机器学习,还有多少是有待发掘的?
LeCun:太多了。我们在实际的深度学习系统中使用的学习方式还是存在局限的。在具体实践中发挥作用的其实是“有监督学习”。你将一张图片展现给系统并告诉它这是一辆车,它就会相应调整它的参数并在下一次说出“车”。然后你再展现给它一把椅子、一个人。在几百个例子、耗费几天到几周的计算时间(取决于系统规模)之后,它就弄明白了。但人类和动物不是这种学习方式。当你还是婴儿时,你并没有被告知你所看到的所有物体的名字。然而你却能学会这些物体的概念,你知道世界是三维的,当我把物体放在另一个的后面,你还是知道它的存在。这些概念不是与生俱来的,是你将它们学会了。我们把这种类型的学习称作“无监督”学习。
2000s中期,我们中的许多人参与到了深度学习的复兴运动中,包括Geoff Hinton、Yoshua Bengio和我自己——这就是所谓的“深度学习团体”——还有Andrew Ng,从此使用无监督学习而非有监督学习的理念开始兴起。无监督学习可以帮助特定的深度网络进行“预训练”。我们在这方面取得了不少成果,但最终能够应用于实践的还是过去那些能与卷积网络相结合的出色的有监督学习,我们在20年前(1980s)所做的事情。但从研究的角度来看,我们一直感兴趣的是如何恰当地做好无监督学习。我们现在已经拥有了可以实用的无监督技术,但问题在于,我们仅需要收集更多数据,再配合有监督学习就能击败它。这就是为什么在现阶段的产业中,深度学习的应用基本上都是有监督的。但将来不会再是这种方式。
从本质上来说,在无监督学习方面,大脑远好于我们的模型,这意味着我们的人工智能学习系统缺失了许多生物机理学习的基本原则。
六、Facebook的深度学习
Spectrum:Facebook有兴趣建立一个人工智能实验室的原因有哪些?
LeCun:Facebook的宗旨是连接人与人(connect people)。这更意味着连接人与数字世界。2013年底,Facebook即将迎来十周年诞辰,MarkZuckerberg决定创建Facebook人工智能实验室,就是我领导的那个部门。公司在考虑未来十年间连接人与人意味着什么,然后意识到人工智能将发挥关键作用。
每天Facebook能向每个人展示2000条内容:帖子、图片和视频等。但没人有时间看这么多内容。因此Facebook必须自动筛选100到150项用户想看或需要看的内容。要深谙此道必须先理解人们,包括他们的口味、兴趣、关系、需要,甚至是生活目标等。也需要理解内容,知道帖子或者评论在讲些什么,图片和视频包含什么内容。只有这样,才能把最相关的内容筛选出来并呈现在用户面前。在某种意义上,出色地完成这项工作是一个“彻头彻尾的人工智能”问题:这需要理解人、情绪、文化和艺术。我们在Facebook人工智能实验室的大部分工作都是聚焦于制定新理论、新原则、新方法和新系统,以让机器理解图片、视频和语言,随后对其进行推理。
Spectrum:我们刚刚谈及炒作,我自己也对炒作有些微辞。Facebook最近公布了一个人脸识别算法DeepFace,很多报道称人脸识别技术的准确性已经接近于人。但那些结果难道不是在精心策划的数据库中跑出来的么?如果在互联网上遇到随机的图片,这个系统报告还能取得同样的成功么?
LeCun:相比于人类,系统对图片质量更为敏感,这是肯定的。人们能通过不同的面部胡须等特征识别出众多不同构造的人脸,计算机系统在这方面鲜有优势。但是系统可以在非常大的人类集合中识别出某个人,这个集合会远远超出人类的处理能力。
Spectrum:浏览网上的图片并找出譬如说奥巴马是否出现在图片里,DeepFace能否做的比我强?
LeCun:毫无疑问它将会更快。
Spectrum:它会更准确吗?
LeCun:可能不会,但是它能从数亿人中发现某人,我可做不到。
Spectrum:它能像研究中那样,达到97.25%的准确率么?
LeCun:没有在数据库上进行测试是很难说出一个具体数字的,这完全取决于数据的性质,如果图片库里有数亿张脸,那精确性就远不及97.25%。
Spectrum:这里有个问题似乎是计算机研究者们使用的某些行话和外行们的理解有着不同含义。当研究人员论及“准确率”,他们实际上可能说的是精选的数据集得出的结果。而外行们可能认为,计算机识别图片就像我们日常生活中随意看到的图片一样,但是结果对计算机系统的要求要比它们新闻报道中的表现更为苛刻。
LeCun:是的。我们也进行许多基准测试,像其他人一样利用户外脸部检测数据库等,当然也将我们的方法和别人做比较。当然,我们也有内部数据库。
Spectrum:所以一般而言,面对你们随意从网上找的图片,计算机在人脸识别上的表现有多接近于人?
LeCun:相当接近。
Spectrum:能给个数字么?
LeCun:不,不行,情景不一样(结果也不一样)。
Spectrum:在图片识别之外的领域,深度学习表现如何,尤其是当涉及到诸如自然语言等通用智能相关问题的时候?
LeCun:我们在Facebook的很大一部分工作都是集中于此。我们如何将深度学习的优势,与其通过学习描绘世界的能力、从短暂的信号中积累知识的能力(伴随着语言出现)、推理能力、与当前深度学习系统采取不同方式的知识存储能力结合起来?在当前深度学习系统下,就像学习一项运动技能,我们训练它们的方式类似于我们自学骑自行车。你学到了一项技能,但实际上却不涉及大量事实记忆或知识。
但你学的其他一些事情,就必须要求你记住事实,你必须记住并储存一些东西。在Facebook、Google和其他许多地方,我们做的大量工作是一边建立神经网络,一边建立一个独立的存储器模块,这能被运用于自然语言理解等领域。我们开始看到,经由存储器模块强化的深度学习帮助自然语言处理取得了令人印象深刻的结果。该系统基于这样的理念,即用连续向量描述词语和句子,经由深层架构的多层级完成对这些向量的转化,并将它们存储在一种联合型存储器里。这对问答和语言翻译都非常有效。这种模式的一个范例是存储网络(Memory Network),这个模型是Facebook科学家Jason Weston、Sumit Chopra和 Antoine Bordes最近提出的。Google/Deep Mind的科学家也提出了一个相关概念“神经图灵机”(Neural Turing Machine)。
Spectrum:所以你不认为深度学习将会成为解锁通用人工智能的那把钥匙?
LeCun:它将是解决方案中的一部分。在一定程度上,这一解决方案看上去像一张巨大而复杂的神经网络。但这与人们迄今在文献中看到的有很大不同。我说的这些东西,你已经可以开始看到一些相关论文了。许多人正在研究所谓的“周期神经网络”(recurrent neural nets)。在这些神经网络中,输出被反馈到输入端,这样你就能形成一个推理链。你可以借此来处序列信号,像语音、音频、视频和语言,初步结果相当不错。深度学习的下一个前沿课题是自然语言理解。
Spectrum:如果一切顺利,我们可以期待机器很快能做到哪些它们现在做不到的事情吗?
LeCun:你或许能看到更好的语音识别系统,但在某种程度上它们是隐藏起来的。你的数字伴侣将会变得更完善;将会有更好的问答和对话系统;你可以和你的计算机进行对话;你可以向计算机发问而它会从知识库中为你寻找答案;机器翻译将会更精准;你还能看到自动驾驶汽车和更聪明的机器人,自动驾驶汽车将会使用卷积网络。
七、深度学习能让机器获得常识吗?
Spectrum:在准备这次采访时,我征集了一些计算领域从业者想要问您的问题。艾伦人工智能研究院(Allen Institute for ArtificialIntelligence,简称AI2)主任Oren Etzioni对于改进图灵测试的Winograd Schemas挑战(简称WS挑战)很感兴趣。WS挑战不仅仅涉及自然语言和常识,还包括对于现代社会运行机制的理解。计算机可能会采取何种办法来应对这些挑战?
LeCun:这个问题的关键是如何表达知识。在“传统的”人工智能里,事实知识以图形(是一套符号或实体及相互关系)的方式被手工输入。但我们都知道人工智能系统是可以通过学习自动获取知识的。所以问题就变成了“机器如何才能学会表达有关事实和关系的知识?”深度学习毋庸置疑是解决方案的一部分,但不是全部。符号的问题在于它只是一串毫无意义的比特,在深度学习系统里,代表实体的是大规模的向量,而它们是从数据和反应这些数据的特征中学习而来的。学习推理要归结于学会对使这些向量运算的函数。Facebook的研究人员Jason Weston、RonanCollobert、Antonine Bordes和Tomas Mikolov等人已经率先开始尝试用向量来表达单词和语言。
Spectrum:人工智能的一个经典问题是让机器获得常识。深度学习领域对这个问题有什么见解?
LeCun:我认为通过使用预测式无监督学习可以获得某种常识。例如,我可以让机器观看大量的关于物体被抛掷或下落的视频。我训练它的方法是给它看一个视频,然后问它:“接下来会发生什么?一秒钟之后画面将如何?”以这种方式训练机器去预测一秒钟后、一分钟后、一小时后或一天后世界将会如何,它将获得很好的对世界的描述。这会使得机器了解物理世界的众多限制,如“抛向空中的物体在一段时间后将下落”、或者“一个物体不能同时在两个地方”、或者“物体被挡住后仍然存在”。了解物理世界的限制将使机器能够“填补空白”,以及在被告知包含一系列事件的故事后对世界的状态进行预测。 JasonWeston、Sumit Chopra和Antoine Bordes正在利用我刚才讲到的“记忆网络”建造这样一个系统。
Spectrum:谈及人类的智能和意识时,很多科学家常说我们甚至不知道我们所不知道的东西到底是什么。你认为在建造人工智能时也会遇到这个问题吗?
LeCun:这很难说。我曾说过建造人工智能就像是开车在迷雾中前行,你只是顺着你能看见的路往前开,但是可能会突然出现一堵墙在你眼前。这样的故事在人工智能领域屡见不鲜:50、60年代的感知机(Perceptrons)如此;70年代的句法符号方法(syntactic-symbolicapproach)如此;80年代的专家系统如此;90年代初的神经网络(neural nets)依然如此;还有像图像模型、核机器(kernel machines)及其他诸多研究都是如此。每次都会产生一些新的进展和新的理解,但也会产生一些需要突破的限制。
Spectrum:另外一个问题是来自加州大学伯克利分校的著名教授Stuart Dreyfus和Hubert Dreyfus兄弟:“媒体有报道说计算机现在已经厉害到能够识别并且自由攻击特定目标的程度,你对这件事及背后的道德问题怎么看?”
LeCun:我想道德问题不应该只丢给科学家!关于人工智能的伦理道德问题必须进行讨论。最终我们应当要建立一套关于人工智能可以用来做什么、不可以用来做什么的伦理准则。这并不是新问题。与很多强大技术伴随而来的伦理问题都需要社会来解答一样,比如核武器和化学武器、核能、生物科技、基因操纵与克隆、信息获取。我个人认为机器在无人类决策的情况下不可能发起攻击。但是话又说回来,这一类道德问题需要通过民主与政治程序来集体考察。
Spectrum:你常常发表关于政治话题的尖刻评论,Facebook的掌门人不担心吗?
LeCun:只有一些问题让我坐不住,一种是不基于事实和证据的政治决策,只要某个重要决策的制定不是基于理性的我都会有所反应。聪明人对于解决问题的最佳方案可以有分歧,但是如果人们对坚定的事实都不能取得一致的话,我认为是非常危险的,这就是我所呼吁的。碰巧在这个国家,那些支持非理性决策与基于宗教决策的人们大部分都是右派的。但是我也要提醒左派的人,比如那些认为所有转基因生物(Genetically Modified Organisms)都邪恶的人──只有部分转基因生物是邪恶的,还有那些因非理性原因反对接种疫苗或核能利用的人。
我是一个理性主义者。我也是一个无神论者、人文主义者,我并不害怕承认。我的道德理念的目标是,从长远来看使人类整体幸福最大化及使人类苦难最小化。这些只是我的个人见解,与我的雇主无关。我尽量明确的分隔开我(发表在Facebook个人主页)的个人见解以及我(发表在我的Facebook公共主页上)的专业文章。
八、老生常谈的奇点理论
Spectrum:你之前已经说过,不同意那些与“奇点运动”相关的观点。我很感兴趣的是你如何看待与之相关的社会学方面的问题?对于它在硅谷如此受欢迎你怎么解读?
LeCun:很难讲,对于这个现象我也有点困惑。正如 Neil Gershenfeld(译者注,麻省理工The Center for Bits and Atoms主任)指出,sigmoid函数曲线的初始部分是指数型上升的,这也意味着现在看起来指数般增长的趋势很可能会在将来遇到瓶颈,包括物理、经济,以及社会方面,紧接着经历拐点,然后饱和。我是乐观主义者,但同时也是现实主义者。确实有些人会大肆宣扬奇点理论,比如 Ray Kurzweil。他是个典型的未来主义者,对未来持有实证主义的观点。通过大捧奇点,他卖了很多书。但据我所知,他却对人工智能学科没有丝毫贡献。他卖了很多科技产品,其中一些有一定的创新,但并没有概念性的创新突破。确定无疑的是他没写过任何指导人们如何在人工智能方面有所突破和进展的论文。
Spectrum:你觉得他在Google现有的位子上有什么成就吗?
LeCun:迄今为止,好像寥寥无几。
Spectrum:我也注意到当我和一些研究者讨论奇点理论时,有一个很有趣的现象。私下里他们好像对此(奇点理论)很不以为然,可是一到公众场合,他们的评论又会温和很多。这是因为硅谷的一切大人物都很相信的原因吗?
LeCun:一线的人工智能研究者需要保证一种微妙的平衡:对于目标要保持乐观,但也不能过分吹嘘。需要指出其中不易,但也不能让人觉得希望渺茫。你需要对你的投资者、赞助商以及雇员诚实;需要对你的同事、同行诚实;还需要对外界公众和自己诚实。
当未来的进步有很多不确定时,尤其是当那些不够诚实和自欺欺人的人总是对未来的成功夸下海口时,这(继续保持诚实)很困难。这就是为什么我们不喜欢不切实际地大肆宣扬的原因,这是由那些不诚实或者自欺欺人的人干出来的,但却会让那些严谨诚实的科学家的工作变得更难。
如果你在Larry Page、Sergey Brin、Elon Musk和Mark Zuckerberg那样的位置上,你就得时刻思考长期来看科技到底该走向何处。因为你掌握着大量资源,并且可以利用这些资源让未来朝你认为更好的方向行进。因此不可避免地你得问自己这些问题:10年,20年甚至30年后的科技到底会是什么样子?人工智能的发展,奇点以及伦理问题到底会是怎样?
Spectrum:是的,你说的对。但是你自己对于计算机科技如何发展有着很清晰的判断,我不觉得你会相信我们在未来30年就可以实现下载我们的意识。
LeCun:不会很快。
Spectrum:或许永远不可能。
LeCun:不,你不能说永远不可能。科技在加速前进着,日新月异。有些问题需要我们现在就开始关注,而另外一些则很遥远,或许我们可以在科幻作品中费点笔墨,但现在还没有担心的必要。
九、有时我需要亲手创造些东西
Spectrum:另一个问题来自一位研究人员,C++之父BjarneStroustrup问:“你曾经做过一些非常酷的玩意儿,其中大多数能够飞起来。你现在是不是还有时间摆弄它们,还是这些乐趣已经被你的工作压榨光了?”
LeCun:工作里也有非常多乐趣,但有时我需要亲手创造些东西。这种习惯遗传于我的父亲,他是一位航空工程师,我的父亲和哥哥也热衷于飞机制造。因此当我去法国度假的时候,我们就会在长达三周的时间里沉浸于制造飞机。
Spectrum:你Google+个人首页那张图片上是什么飞机?
LeCun:它是Leduc,它就在邻近巴黎的Musée de l’Air机场。我非常喜爱这架飞机。它是第一架依靠冲压式喷气发动机提供动力的飞机,这种发动机是特有的型号,能够支持非常高的飞行速度。SR-71黑鸟飞机也许是世界上采用冲压式喷气发动机和涡轮喷气发动机混合动力飞得最快的飞机。第一架Leduc原型机制造于二战前的法国,在德国入侵法国之前就被毁坏了,二战以后又先后制造了几架。这就是非常具有创造性的做事方式。它看上去非常棒,具有难以言表的外形,每一样设计都是为了满足速度要求,但是制造这样一架高效便捷的飞机耗资巨大。这架飞机冲压式喷气发动机的噪音也是难以忍受的。
Spectrum:你的网站上有个帖子讲了一个有趣的故事,是你多年前偶遇Murray Gell-Mann(美国物理学家,获得1962年诺贝尔物理学奖),你还让他纠正你姓氏的发音。看起来你是小小的捉弄了一下这位杰出但自大的科学家前辈。现在你也变得相当有名,会不会担心自己也一样变得自大起来?
LeCun:我试着不那么引人注目。当你领导一个实验室时,需要让年轻人动用他们的创造力,这一点非常重要。年长者的创造力来自于他们所了解的东西,而年轻人的创造力则来自于他们所不了解的,这使他们可以进行更加广泛的探索。你可不想磨灭这种激情,与博士研究生以及年轻研究者交流是应对骄傲自满情绪的一种非常有效的方式。我认为我并不自大,而Facebook也是一家非常务实的公司,因此我们相当契合。