查看原文
其他

史上最强AlphaGo横空出世,不靠人类经验完爆旧版,柯洁感叹“人类太多余”

2017-10-19 科研圈

今天,Nature 发表了一篇论文 Mastering the game of Go without human knowledge,一款新版的 AlphaGo 计算机程序能够从空白状态起,在不需要任何人类输入的条件下,迅速自学围棋。这款新程序名叫 AlphaGo Zero,以 89 比 11 的战绩打败了今年 5 月战胜了围棋冠柯洁的 AlphaGo Master。


柯洁在得知 AlphaGo Zero 的消息后,在微博上感叹道:人类太多余了......



人工智能的最大挑战是研发一种能从零开始、以超人类的水平学习复杂概念的算法。为了打败人类围棋世界冠军,科学家在训练上一款 AlphaGo 时,同时用到了监督式学习(基于上百万种人类专业选手的下棋步骤)和基于自我对弈的强化学习。那款 AlphaGo 的训练过程长达几个月,用到多台机器和 48 个TPU(神经网络训练所需的专业芯片)。


AlphaGo Zero 的学习从零开始,且单纯基于与自己的对弈。人类的输入仅限于棋盘和棋子,没有任何人类数据。AlphaGo Zero 仅用到 1 张神经网络,这张网络经过训练,专门预测程序自身的棋步和棋局的赢家,在每次自我对弈中进步。新程序只使用一台机器和 4 个TPU。


通过几天的训练——包括近 500 万局自我对弈—— AlphaGo Zero便能够超越人类并打败所有之前的 AlphaGo 版本


ELO等级分制度(Elo ratings),是当今对弈水平评估的公认的权威方法


解读史上最强 AlphaGo


撰文 开明(Nature上海办公室)


人工智能棋手 AlphaGo 先后战胜了两位顶尖围棋高手李世乭和柯洁。在这场猛烈风暴席卷了世界后,AlphaGo 宣布不再和人下棋。但它的创造者并没有因此停下脚步,AlphaGo 还在成长,今天 Deepmind 又在《自然》期刊上发表了关于 AlphaGo的新论文。

新论文:《不使用人类知识掌握围棋》

这篇论文中的 AlphaGo 是全新的,它不是战胜柯洁的那个最强的 Master,但却是孪生兄弟。它的名字叫 AlphaGo Zero。和以前的 AlphaGo 相比,它:

从零开始学习,不需要任何人类的经验

使用更少的算力得到了更好的结果

发现了新的围棋定式

将策略网络和值网络合并

使用了深度残差网络


白板理论(Tabula rasa)

AlphaGo Zero 最大的突破是实现了白板理论。白板理论是哲学上的一个著名观点,认为婴儿生下来是白板一块,通过不断训练、成长获得知识和智力。


作为 AI 领域的先驱,图灵使用了这个想法。在提出了著名的“图灵测试”的论文中,他从婴儿是一块白板出发,认为只要能用机器制造一个类似小孩的 AI,然后加以训练,就能得到一个近似成人智力,甚至超越人类智力的 AI。


现代科学了解到的事实并不是这样,婴儿生下来就有先天的一些能力,他们偏爱高热量的食物,饿了就会哭闹希望得到注意。这是生物体在亿万年的演化中学来的。


监督学习 Vs 无监督学习

计算机则完全不同,它没有亿万年的演化,因此也没有这些先天的知识,是真正的“白板一块”。监督学习(Supervised Learning)和无监督学习(Unsupervised Learning)是镜子的两面,两者都想解决同一个问题——如何让机器从零开始获得智能?


监督学习认为人要把自己的经验教给机器。拿分辨猫猫和狗狗的AI来说,你需要准备几千张照片,然后手把手教机器——哪张照片是猫,哪张照片是狗。机器会从中学习到分辨猫狗的细节,从毛发到眼睛到耳朵,然后举一反三得去判断一张它从没见过的照片是猫猫还是狗狗。


无监督学习认为机器要去自己摸索,自己发现规律。人的经验或许能帮助机器掌握智能,但或许人的经验是有缺陷的,不如让机器自己发现新的,更好的规律。人的经验就放一边吧。


从无知到无敌

就像这篇新论文中讲述的那样。AlphaGo Zero 是无监督学习的产物,而它的双胞胎兄弟 Master 则用了监督学习的方法。在训练了 72 小时后 AlphaGo Zero 就能打败战胜李世乭的 AlphaGo Lee,相比较 AlphaGo Lee 训练了几个月。而 40 天后,它能以 89:11 的成绩,将战胜了所有人类高手的 AlphaGo Master 甩在后面

AlphaGo Zero 从 0 开始的学习曲线,这个版本的神经网络由 40 个模块组成。图片来自DeepMind


图灵的白板假设虽然无法用在人身上,但是 AlphaGo Zero 证明了,一个白板 AI 能够被训练成超越人类的围棋高手


强化学习

强化学习(Reinforcement Learning)是一种模仿人类学习方式的模型,它的基本方法是:要是机器得到了好的结果就能得到奖励,要是得到差的结果就得到惩罚。AlphaGo Zero 并没有像之前的兄弟姐妹一样被教育了人类的围棋知识。它只是和不同版本的自己下棋,然后用胜者的思路来训练新的版本,如此不断重复。

AlphaGo Zero 就像人类初学者,需要经历一定时间摸索。不同训练阶段进行的三场自我对弈游戏中的头80步,图中显示的下法来自 AlphaGo Zero 的一个版本,这个版本的神经网络由 20 个模块组成。图片来自 DeepMind

通过这一方法,AlphaGo Zero 完全自己摸索出了开局、收官、定式等以前人类已知的围棋知识,也摸索出了新的定势


算法和性能

如何高效合理得利用计算资源?这是算法要解决的一个重要问题。AlphaGo Lee 使用了 48 个TPU,更早版本的 AlphaGo Fan(打败了樊麾的版本)使用了 176 个 GPU,而 Master 和 AlphaGo Zero 仅仅用了 4 个TPU,也就是说一台电脑足够

由于在硬件和算法上的进步,AlphaGo变得越来越有效率。图片来自DeepMind

AlphaGo Zero 在 72 小时内就能超越 AlphaGo Lee 也表明,优秀的算法不仅仅能降低能耗,也能极大提高效率。另外这也说明,围棋问题的复杂度并不需要动用大规模的计算能力,那是只浪费。


AlphaGo Zero的算法有两处核心优化:将策略网络(计算下子的概率)和值网络(计算胜率)这两个神经网络结合,其实在第一篇 AlphaGo的论文中,这两种网络已经使用了类似的架构。另外,引入了深度残差网络(Deep Residual Network),比起之前的多层神经网络效果更好。


Deepmind 的历程

这不是 Deepmind 第一次在《自然》上发论文,他们还在 Nature 上发表过《利用深度神经网络和搜索树成为围棋大师》使用深度强化学习达到人类游戏玩家水平以及《使用神经网络和动态外存的混合计算模型》三篇论文。


我们可以从中一窥 Deepmind 的思路,他们寻找人类还没有理解原理的游戏,游戏比起现实世界的问题要简单很多。然后他们选择了两条路,一条道路是优化算法,另外一条道路是让机器不受人类先入为主经验的影响


这两条路交汇的终点,是那个真正能够超越人的 AI


结语

这是 AlphaGo 的终曲,也是一个全新的开始,相关技术将被用于造福人类,帮助科学家认识蛋白质折叠,制造出治疗疑难杂症的药物,开发新材料,以制造以出更好的产品。


https://v.qq.com/txp/iframe/player.html?vid=p0562hpzky6&width=500&height=375&auto=0

视频由DeepMind提供,中英文字幕由Nature上海办公室制作

本文经授权,转载自公众号“Nature自然科研”(ID:macmillan-nature)

点击阅读原文”阅读论文

Mastering the game of Go without human knowledge


阅读更多


▽ 故事

· 它是世界上最昂贵的物质,1克价值高达250亿美元,威力相当于一枚原子弹

·  一夜连发14篇论文!全球天文台疯狂追踪引力波 | 附你能看懂的专业解读

· 男性大脑也分泌催产素:“社交基因”可能通过它决定你究竟是外向还是内向

· 集MIT理工科三学位于一身的光遗传学开创者,发明了“隔空”刺激深部大脑的新技术

· 不想延期毕业,希望多发点文章?你需要避开这5大“动机杀手”

▽ 论文推荐

· 大脑发育高度依赖神经胶质细胞 | Science 论文推荐

· 健康的菌群是相似的,不健康的却各有各的不同

· 国外的维生素补充剂和草药保健品真的安全吗?

· 正在被AI深刻改变着的科研:从寻找Higgs到治愈疾病

▽ 论文导读

· Nature 一周论文导读 | 2017 年 10 月 05 日

· Science 一周论文导读 | 2017 年 10 月 06 日


内容合作请联系

keyanquan@huanqiukexue.com

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存