清华大学马少平教授:第一篇 神经网络是如何实现的(二)
点击上方“图灵人工智能”,选择“星标”公众号
您想知道的人工智能干货,第一时间送达
第二节:神经元与神经网络
自从听艾博士以数字识别为例讲解了神经网络之后,小明一直想着神经网络如何训练的问题。这天小明又来找艾博士,请教艾博士如何训练一个神经网络。
艾博士见到小明很高兴,就询问小明上次讲的内容是否都了解了。小明说基本了解了,但是还是不清楚神经网络是如何训练的,今天来就是想请艾博士给讲讲这方面的内容。
艾博士说:小明,你先别着急。上次讲的内容,只是为了让你了解神经元和神经网络是怎么回事。因此上次讲的网络结构比较特殊,不具有一般性。比如前面我们讲过的权重都是1或者-1,这是很特殊的情况,实际上权重可以是任何数值,可以是正的,也可以是负的,也可以是带小数的。权重的大小可以体现模式在不同位置的重要程度。比如,在笔画的中心位置,权重可能会比较大,而在边缘可能会比较小。正像上次已经说过的,这些权重也不是依靠手工设置的,而是通过样例学习到的。
那么神经网络是如何学习的呢?在讲这个问题之前,我们先给出神经元和神经网络的一般性描述,这样比较方便我们讲解如何训练神经网络。
首先需要强调的是,这里所说的神经元和神经网络,指的是人工神经元和人工神经网络,为了简化起见,我们常常省略“人工”二字。
图1.7 神经元示意图
那么什么是神经元呢?图1.7所示的就是一个神经元,它有 共n个输入,每个输入对应一个权重 ,一个神经元还有一个偏置b,每个输入乘以对应的权重并求和,再加上偏置b,我们用net表示:
对net再施加一个函数g,就得到了神经元的输出o:
这就是神经元的一般描述。为了更方便地描述神经元,我们引入 ,并令 ,则net也可以表示为:
艾博士指着上式对小明说:小明你看,上式中的求和符号与前面式中的求和符号有什么区别吗?
小明对比了两个表达式后回答说:后一个表达式中起始下标由原来的1变为了0,由于我们用 表示b,并且 =1,所以就可以去掉原来式中的b了。这样看起来就更加简练了。
艾博士说:小明总结的很准确,这些都是为了表达简便。还可以更加简单。
小明不解地问道:还能表达的更简单吗?我可想不出来。
艾博士说,这就要引入向量的概念了。小明你看,我们可以把n个输入 用一个向量 表示: ,同样,权重也可以表示为向量: ,这样net就可以表示为两个向量的点积:
向量的点积,就是两个向量对应元素相乘再求和。而神经元的输出o就可以表达为:
小明你看,这样表达是不是就更简单了?
小明高兴地拍起手来:用向量表示果然更简单了,但是这个g又是表示什么呢?
艾博士对小明说:这里的g叫激活函数,你还记得前面我们讲过的sigmoid函数吗?sigmoid函数就是一个激活函数。除了sigmoid函数外,激活函数还可以有其他的形式,以下是常用的几种:
(1)符号函数:
其图形为:
(2)sigmoid函数
其图形为:
(3)双曲正切函数
其图形为:
(4)线性整流函数
其图形如下:
小明听了艾博士的讲解,对神经元有了更深入的了解,感叹到:原来神经元还有这么多的变化呢。
艾博士接着小明的话说:是的。多个神经元连接在一起,就组成了一个神经网络。图1.8所示的就是一个神经网络示意图。
在这个神经网络中,有一个输入层和一个输出层,中间有三个隐含层,每个连接都有一个权重。
小明看着图问艾博士:这个神经网络和您前面讲的数字识别神经网络,工作原理是否一样呢?
艾博士说:原理是完全一样的。假定这是一个训练好的识别动物的神经网络,并假定第一个输出代表狗、第二个输出代表猫…,当输入一个动物图像时,如果第一个输出接近于1,而其他输出接近于0,则这个动物图像被识别为狗;如果第二个输出接近于1,其他输出接近于0,则这个动物被识别为猫。至于哪个输出代表什么,则是人为事先规定好的。这样的网络可以识别动物,也可以识别花草,也可以识别是哪个人。用什么数据做的训练,就可以做到识别什么,网络结构并没有什么大的变化。
图1.8 神经网络示意图
介绍到这里,艾博士问小明:小明你看看,这个网络在神经元的连接上有什么特点?
小明看着图思考了一下说:艾博士,我看相邻两层的神经元,每两个神经元之间都有连接,这是不是一个特点呢?
艾博士高兴地说:小明说的非常正确,这正是这类神经网络的特点,由于相邻的神经元间都有连接,我们把这种神经网络称为全连接神经网络。同时,在计算时,是从输入层一层一层向输出层计算,所以又称为前馈神经网络。对应全连接神经网络也有非全连接神经网络,对应前馈神经网络也有其他形式的神经网络,这些我们将在以后再介绍。
小明读书笔记
一个神经元有n个输入,每个输入对应一个权重,输入与权重的加权和再经过一个激活函数后,得到神经元的输出。
激活函数有很多种,常用的包括符号函数、sigmoid函数,双曲正切函数、线性整流函数等。
前馈神经网络,又称全连接神经网络,其特点是连接只发生在相邻的两层神经元之间,并且前一层的神经元与下一层的神经元之间,两两均有连接,这也是全连接神经网络名称的来源。由于全连接神经网络均是由输入层开始,一层层向输出层方向连接,所有又称为前馈神经网络。
未完待续
内容来自《艾博士:深入浅出人工智能》,扫描如下二维码购买:
马少平,清华大学计算机系长聘教授,博世知识表示与推理冠名教授,天工智能计算研究院常务副院长,中国人工智能学会副监事长,中国中文信息学会副理事长。主要研究方向为智能信息处理、信息检索、推荐系统等。
本书入围“一生一课,一生一书”计划项目,是最好的人工智能通俗讲义之一。
本书设计了博学的艾博士和好学的小明两个人物,以师徒二人对话的方式,一步步由浅入深地讲解人工智能的基本原理和方法,讲解详细,通俗易懂,给读者以在教室听课的真实感。
本书精心挑选了人工智能发展史上一些主要的方法进行详细讲解,通过本书的学习,使得读者对人工智能有一个比较全面的了解,为进一步深入学习和研究人工智能打下良好的基础。
结合例题,本书对相关概念和算法背后的原理做了详细的讲解,对学习过程中容易犯的错误做了重点说明,适合于对人工智能感兴趣的初学者、从事人工智能开发的工程人员以及讲授相关课程的教师阅读,通过本书的学习,可以对相关概念和算法有更加深入的理解。
本书提供全部的讲课PPT,在微信公众号“跟我学AI”和B站(在B站搜“马少平”)还配有详细的讲课视频,可以通过前言中提供的二维码获取这些资源。
扫描如下二维码加入马少平教授读者群:
版权声明
转自夕小瑶科技说, 版权属于原作者,仅用于学术分享
文章精选: