查看原文
其他

爱因斯坦vs阿尔法狗——大脑与神经网络

2017-02-20 杨夕歌 萤火虫沙龙

作者寄语:我关注“超级数学建模”很久了,每一篇文章都让我领悟很多,感受到不同方向的科研工作者的多元化思维模式,多谢各位精彩的文章!

情人节过去了,各位叔叔阿姨,哥哥姐姐,弟弟妹妹,昨晚过的好吗


不过不关俺事,反正超模君昨晚一个人在家看奥特曼打小怪兽。


好吧,我们言归正传,今天我们就来聊聊大脑大战神经网络


一剪梅·阿尔法狗

黑白无间棋盘旁,

一刻冥思,两簇灵光。

落子铿锵气似刚,

不期落败,举世惊惶。


乱麻萦错疑窦藏,

人机交垒,前景何方?

机徒伶俐犹自脑,

脑若繁星,辉耀穹苍。


念奴娇·爱因斯坦

月挂柳梢,举金樽,遑论历代圣贤。

一啜见底,酒兴发,歪坐指点江山。

曹操周郎,宗棠国藩,英雄一时骚。

流芳百世,当属爱因斯坦。


还想十九世纪,以太论盛行,众人笃信。

先辈匠心,测光速,冬夏南北无变。

世人皆异,然关我鸟事,鲜有觅探。

破俗逆行,相对论之惊现。


读罢《一剪梅》,相信很多读者对阿尔法狗的来源有了初步的认识——它再厉害,也是由人创造出来的。归根结底,它的学习模式是来源于人脑的。


那么人脑是如何工作的呢?我们不妨先来研究研究人类历史上最聪明的人之一——爱因斯坦的大脑。


第一部分,爱因斯坦的大脑


爱因斯坦是20世纪最伟大的物理学家。但在读上面的《念奴娇》之前,相信爱因斯坦给很多读者的第一印象是这样的:

(因为这也是他老人家对于笔者的第一印象)


事实上据笔者总结,爱因斯坦的主要贡献总结如下,各位看官稍作了解即可:


他的每一项贡献对于现代物理学的发展都具有决定性的影响。这些话题会在笔者以后的文章中有所涉及,不过不是今天。今天的话题是:



爱因斯坦为何“吊炸天”?他的脑袋比普通人强大在哪?读者们可能有以下猜测:


但这些都不是正确(或者正确但不完全)答案。例如下图,鸟类大脑/体重比(E/S)比人类大很多,但还是只能给人类提供各种鸟蛋和烧烤原料。


(以上图片来源于serendip studio的研究)


事实上,根据2013年的一项对爱因斯坦大脑的解剖研究,人们发现,爱因斯坦大脑的胼胝体(下图红色部分)比正常人发达很多(体积至少大15%)。


相信看到“胼胝体”三字,有生理学基础的读者已经开始两眼发光了。那么胼胝体是做什么的?我们先来看看简要的大脑皮层分区结构。


这些不同区域之间被中央沟(central sulcus,粗黑色曲线部分)隔离开。因此两个不同区域之间的交流要靠更深层的大脑结构,而胼胝体正是最主要的交流渠道。


读者不妨思考片刻,爱因斯坦的胼胝体发达意味着什么?意味着不同大脑区域之间更有效、迅速的交流!尤其是前额皮质(位于前叶的最前方,和抽象思维、决策有关)、顶叶(和触觉、温度、疼痛等感觉相关)和视觉皮层(位于枕叶最后端)。所以当爱因斯坦思考问题时,他大脑的各个区域都有很高的活动强度。


但这也只是从器官层面给出了爱因斯坦高智商的解释。如果我们从细胞层面观察,爱因斯坦大脑的神经胶质细胞(neuroglia)也比正常人多很多。这种细胞并不出名,因为所有的美名都被神经元独自占去了。但神经胶质细胞的作用是至关重要的。


神经胶质细胞神经元都属于神经细胞。它们外观上比较类似,表面上都有很多树突,也就是凹凹凸凸的树状结构。不过外观上大致区别如下:



可见神经胶质细胞不含黄色香肠状的轴突,因此不能传递或处理神经信号。那么神经胶质细胞拿来有何用?答案:支撑大脑结构为神经元输送营养清理受伤神经元隔离不同神经元。它们为大脑的正常运行扮演着后勤工作的角色。


我们知道,神经元是高度分化的细胞,它们的工作很专一,不会干其他细胞的工作,也没有转化为其他细胞的能力。和肌肉细胞一样,神经细胞几乎没有分裂能力(不能有丝分裂),因此一旦受损,不容易自我修复;而神经胶质细胞具有分裂能力,正好起到了修复受伤神经元和移除死亡神经元的作用。而且,和神经元不同,神经胶质细胞在大脑完全成形以后仍可以不断生成。


所以从细胞层面看来,也许爱因斯坦的神经元数量和普通人没有太大差别,但大量的神经胶质细胞给予他的大脑更强的可塑性。由于神经胶质细胞可以随时形成,或许爱因斯坦的高智商和后天因素关系更大。


值得注意的是,所有关于爱因斯坦智商的研究都只是推测,而并无定论。究其根源,是因为生物的高度复杂性。成熟的人类大脑至少有100亿个神经元,而且每个神经元都是这样的:


况且这还只是简化结构。正是生物的复杂多变造成了生物学科研究的困难性,也编织了这个学科的独特魅力。


第二部分,神经网络与阿尔法狗


讲完了爱因斯坦,我们来看看阿尔法狗——这一人工智能领域的代表。阿尔法狗的思维和人类区别在什么地方呢?答案:阿尔法狗的学习模式基于人工神经网络模型,并运用了心理学中的学习理论。


一、神经网络的概念


神经网络的概念在上世纪三十年代就有了,它最初被应用于心理咨询领域。所谓神经网络,就是把神经元看作节点,然后用箭头把这些节点连起来,表示两个神经元之间能进行单方向交流(因为神经元之间的信号传递是单方向的)。以下是一个简单例子:

用专业术语,神经网络是一个有向图。但要想模仿人类思考,有向图必须满足某种结构。例如最简单的单层感知网络(single layer perceptron):

可以看出,这个网络最大的特点在于简单粗暴。有了输入的数据(例如看到的图像),就直接转化为输出(对图像的反应,例如看到饼干图像,就拿起饼干开吃)。但显然这种数据处理太过简单,无法解决复杂问题,稍微高级点的神经网络有多层感知网络(multilayer perceptron)竞争网络(competitive networks)、自组织网络(self-organization maps)等等。其中多层感知网络最为出名:


比单层感知中间多了一个“隐藏层”(hiden layer),用以模仿人类“思索”的过程。


二、神经网络的单步算法


现在神经网络的结构已经有了,总得让这个网络正常运行才可以,例如如何把输入一步步转化为输出呢?于是我们需要一个算法


在创造算法的过程中,人们运用了博弈论中的一个概念——行动(activation)。博弈论中的“行动”分为行动函数(activation function)行动规则(activation rules),于是把输入转化为输出的过程就变成了一个数学上的优化问题:在行动规则的约束下选择最优化行动函数(注意:行动函数来自于一个集合,表示对于特定的输入,有多种选择行动函数的方法)。以下是几种著名的行动函数 (例子而已,可直接跳过):


再次强调:每种函数都来自于一个集合。每一次把输入转化为输出的过程其实是选取函数集合中不同参数的过程。


三、学习模式


上一节我们只谈到了每一步的行动选取,这其实只是一个静态的过程。要知道,阿尔法狗可是在不断学习的!那么如何描述学习这一动态过程呢?这需要用到认知心理学中的学习理论。不过读者也可以独立思考片刻:如果让你来建立一个学习模型,你如何来描述你自己的学习过程


首先,你不可能得到一个新信息就立刻学习它,因为这个信息可能本身是错误的,那样的话你就学到了错误的知识。就算你得到的所有信息都是正确的,在学习过程中你也可能犯错。犯错就要挨打,考试得了满分就要奖励。所以学习模型需要有测试的机制。这个机制可以通过定义一个损失函数(Loss function,或者奖励函数)来实现,函数值太高机器就会调整自身的学习参数(通常向损失函数的梯度方向调整),相反就继续以前的学习模式。


其次,学习不止要“知新”,还要“温故”。就是说以前的数据也会成为新知识的一部分,只不过随着时间的流逝,以前的数据逐渐追不上时代了,于是就有一定的“折旧”。“折旧”可以用一系列的权重参数来表示。


以上是机器学习的一些基本思想。进一步,学习模式可以分为非授权学习(unsupervised learning,相当于完全自学,由于没有老师,不知道学的知识对不对)、授权学习(supervised learning,相当于完全由老师教,而且老师告诉你全部的知识,并且告诉你学到的知识对不对)和强化学习(reinforcement learning,相当于自学,但是有老师告诉你你学到的知识对不对)。它们的特点总结如下:



读者可以大概体会到,授权学习和强化学习这两种学习类型是人工智能的核心,也是众多人工智能算法的基础(完全无师自通是很难自我加强的,所以非授权学习应用受限)。授权学习的代表算法为循环神经网络(RNN),强化学习的代表算法为决策树模型(decision tree),数学方面只涉及到线性代数、导数计算和条件概率的定义,笔者在以后的文章中会更深入地讨论,此处不再赘述。


四、阿尔法狗的前世今生


阿尔法狗是DeepMind公司(现已被谷歌合并)旗下的产品。该公司是一个叫Demis Hassabis的英国小伙(当然现在已经40岁了)在2010年创立的。他在16岁中学毕业后就开发游戏去了,模拟类游戏《主题公园》就有他的参与。后来他觉得人的大脑很奇特,想了解它到底是如何运作的,于是在97年退出游戏公司,去伦敦城市大学读了一个神经科学方向的PhD。创办DeepMind后,坚实的计算机基础和神经科学基础使他得以同时把精力分配在两个不同的方向上。6年之后,DeepMind举世闻名。



    欢迎关注萤火虫智能家居沙龙

    读取历史文章,关注我们,发送期号获取

    例如发送“1”,获取第一期电子


    开启您的智能家居生活

    请关注我们公众号!



(DeepMind创始人)


其实阿尔法狗的算法并不是特别复杂,它一方面通过围棋大师间的对弈数据来进行授权学习,这样可以得到快速的学习反馈(可以快速地调整学习参数);另一方面通过蒙特卡洛决策树(MCTS)算法完成自我对弈,在吸取大师们经验的同时不断自我强化


采用的模型尽管还是多层模型,但采取了一系列简化措施,例如卷积网络(convolution network也就是把几个相邻的神经元看作一个大神经元,思路和分子建模中的coarse grain类似,就是把很多相邻的小分子看作一个大分子)。功夫不负有心人,也不负有心狗,经过大量学习后,阿尔法狗战胜了人类最强大的围棋大师。


其实阿尔法狗也只是人工智能领域的一个例子,更准确地说,人工神经网络的一个例子。并不是所有的人工智能都在使用人工神经网络,例如证明了四色定理的计算机,采用的便是遗传算法。遗传算法的基础是计算机代数,而非人工神经网络,尽管两者有诸多相似之处。


第三部分、结语

  




    欢迎关注萤火虫摄影沙龙

    读取历史文章,关注我们,发送期号获取

    例如发送“1”,获取第一期电子


    举起您的相机,留下难忘的瞬间

    =

    有思想的开心摄影

    请关注我们公众号!



                   

爱因斯坦的高智商至今还是一个谜,而阿尔法狗的运作方式完全是可以人为操控的。人脑和电脑的复杂度对比,完全不可同日而语。值得思考的是,尽管阿尔法狗基于的算法在数学上并不难,但这种简单的算法就可以产生令人震撼的效果,这要归功于神经科学和心理学共同提供的思想源泉。


尽管神经科学和神经网络已经逐渐发展成为两个不同的分支,两者间始终存在着相辅相成的共生关系,和数学和物理两个学科间的缠缠绵绵共同发展如出一辙。人工智能上限何在?从神经科学中能获得哪些进一步的启示?这将是这几十年的一大核心课题,相信每个读者多少都有初步的答案。最后以一首《苏幕遮》作为结尾词,意犹未尽的读者可细品之。


苏幕遮·自然之智慧

轻浮游,细竹根,天地茫然,朦胧积雪间。

日吸甘露月茁壮,滴水石穿,山林四野漫。


箭头窄,节点瘦,纸上论兵,竖子莫可行。

忽抟云霄退世石,赧愧弈坛,威名万里传。



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存