查看原文
其他

基于Numpy实现神经网络:梯度下降

Andrew Trask 论智 2021-09-10
作者:Andrew Trask编译:weakish

编者按:和DeepMind数据科学家、Udacity深度学习导师Andrew Trask一起,基于Numpy手写神经网络,更深刻地理解梯度下降这一概念。

总结:基于可以尝试和修改的玩具代码,我能取得最好的学习效果。本教程基于一个非常简单的玩具样例(简短的Python代码实现)介绍梯度下降这一概念。

如果你对我的文章感兴趣,欢迎在推特上关注 @iamtrask,也欢迎给我反馈。

直接给我代码


  1. import numpy as np

  2. X = np.array([ [0,0,1],[0,1,1],[1,0,1],[1,1,1] ])

  3. y = np.array([[0,1,1,0]]).T

  4. alpha,hidden_dim = (0.5,4)

  5. synapse_0 = 2*np.random.random((3,hidden_dim)) - 1

  6. synapse_1 = 2*np.random.random((hidden_dim,1)) - 1

  7. for j in xrange(60000):

  8.    layer_1 = 1/(1+np.exp(-(np.dot(X,synapse_0))))

  9.    layer_2 = 1/(1+np.exp(-(np.dot(layer_1,synapse_1))))

  10.    layer_2_delta = (layer_2 - y)*(layer_2*(1-layer_2))

  11.    layer_1_delta = layer_2_delta.dot(synapse_1.T) * (layer_1 * (1-layer_1))

  12.    synapse_1 -= (alpha * layer_1.T.dot(layer_2_delta))

  13.    synapse_0 -= (alpha * X.T.dot(layer_1_delta))


一、优化

上一篇文章中,我通过一个简单的神经网络介绍了反向传播的基础。反向传播让我们可以测量网络中的每项权重对总误差的贡献。基本上这让我们可以使用一个不同的算法来修改权重,梯度下降(Gradient Descent)

关键在于,反向传播不进行优化!反向传播将网络终端的误差信息移动到网络中的所有权重,这样另一个算法可以优化这些权重以拟合我们的数据。实际上,我们有太多不同的非线性优化方法可以搭配反向传播:

一些优化方法

  • Annealing(退火)

  • Stochastic Gradient Descent(随机梯度下降)

  • AW-SGB

  • Momentum (SGD)(动量)

  • Nesterov Momentum (SGD)(Nesterov动量)

  • AdaGrad

  • AdaDelta

  • ADAM

  • BFGS

  • LBFGS

可视化优化方法的差异

  • ConvNet.js

  • RobertsDionne

这些优化算法在不同的场景下表现良好,在某些场景下,我们可以同时使用多个优化算法。本文将讨论梯度下降。这被认为是最简单、应用最广泛的神经网络优化算法。了解梯度下降之后,我们能够通过参数化和调优改进我们的玩具神经网络,最终让它变得更强大

二、梯度下降

想象一个圆筐中的红球试图找到筐底。这就是优化(optimization)。在这个例子中,球优化它的位置以寻找筐的最低点。

(暂停一下……确保你理解了上面一段话……理解了没有?)

我们可以把这看成一个游戏:球有两个选项,向左,或是向右。还有一个目标:使自己的位置尽可能地低。

那么,球是基于什么信息调整自己的位置来找到最低点的呢?它所拥有的唯一信息是当前所在位置的筐的坡度(slope),即下图中的蓝线。注意,当坡度为负时(从左自右往下),球应该向右移动。而当坡度为正时,球应该向左。如你所见,这些信息足以让球在几次迭代之后找到筐底。这是优化的一个子领域,称为梯度优化(gradient optimization)。(梯度只是一个表示坡度或陡峭程度的华丽辞藻)。

过于简化的梯度下降

  • 计算当前位置的坡度

  • 如果坡度为负,向右

  • 如果坡度为正,向左

  • (重复这一过程,直到梯度为零)

不过,有一个问题,每次球需要移动多长的距离?再看看筐子。坡度越陡,球离底部的距离越远。这很有用!让我们利用这一新信息改进我们的算法。同时,我们假设筐在一个(x,y)平面上。因此,球的位置为x,增加x意味着向右移动,减少x意味着向左。

朴素梯度下降

  • 计算当前位置x的斜率(译者注:英文中坡度和斜率是一个词,slope)

  • 从x减去斜率(x = x - 斜率)

  • (重复这一过程,直到斜率为零)

在继续阅读之前,确保你可以在脑海中想象这一过程。对我们的算法而言,这是一个可观的改善。对较大的正斜率,我们向左移动较长的距离。对很小的正斜率,我们向左移动很短的距离。随着球越来越接近底部,球每次移动的距离越来越短,直到斜率为零,球停在这一点上。这个停止的点称为收敛(convergence)。

三、有时不管用

梯度下降并不完美。让我们看下梯度下降会遇到的坑,以及人们是如何绕过这些坑的。

问题一:坡度过大

多大算过大?还记得吧,我们的步幅取决于坡度的陡峭程度。有时坡度过陡,我们的移动过头了很多。

稍微有点移动过头没问题,但有时我们过头到了比开始的时候离底部更远的程度!

让这个坑极具破坏性的一点是过头到了这种程度意味着我们将落在相反反向上更陡峭的斜坡上。这将使我们再次移动过头,并且过头得更厉害。这一移动过头的恶性循环称为发散(divergence)

解决方案一:让斜率小一点

哈哈。这听起来太简单了,不像真的。但每个神经网络都大量使用这一技巧。如果我们的梯度过大,我们让它小一点!我们给梯度(所有梯度)乘上一个0到1之间的系数(比如0.01)。这个小数通常是一个称为alpha的单精度浮点数。如此做了之后,就不会过头了,网络也可以收敛了。

梯度下降改进版

alpha = 0.1 (或0到1之间的某个数)

  • 计算当前位置x的斜率

  • x = x - alpha * 斜率

  • (重复这一过程,直到斜率为零)

问题二:局部极小值

有时筐的形状很有趣,沿着坡度无法让你到达绝对最低点。

这是目前为止梯度下降最大的坑。有无数尝试绕过这个坑的办法。一般而言,它们多多少少都依靠某种随机搜索方法在筐的不同部分尝试。

解决方案二:多个随机开始状态

有无数通过随机性绕过这个坑的方法。这提出了一个问题,如果我们需要通过随机性来查找全局最小值,为什么我们一开始要优化?为什么不直接随机地尝试呢?下图给出了答案。

想象一下,我们在上图中随机放置100个球,然后开始优化。最终所有的球都会落在5个位置上(上图5个颜色不同的球所在的位置)。着色的区域表示每个局部极小值的领域。例如,蓝色领域内随机放置的球会收敛至蓝色极小值。这意味着,我们只需随机搜索5个空间,就可以搜索整个空间!这比纯随机搜索要好太多了,纯随机搜索需要尝试所有空间(取决于粒度,这可能意味着几百万个空间)。

在神经网络中: 神经网络做到这一点的其中一个方式是使用很大的隐藏层。层中的每个隐藏节点从不同的随机状态开始。这让每个隐藏节点收敛到网络的不同模式。参数化这一尺寸让网络使用者可以选择尝试单个神经网络中数千(甚至是数百亿)个不同的局部极小值。

旁注一: 这正是神经网络如此强大的原因! 神经网络具备搜索比实际计算多得多的空间的能力!(理论上)我们可以仅仅使用5个球和不多的迭代搜索上图中的整条黑线。以暴力破解的方式搜索同一空间需要多很多数量级的计算。

旁注二: 仔细观察的人可能会问:“好,为什么我们让这么多节点收敛至同一点?这不是在浪费算力吗?”这是一个很好的问题。当前最先进的避免隐藏节点给出相同答案(通过搜索同一个空间)的方法是Dropout和Drop-Connect,我打算在之后的帖子中介绍。

问题三:坡度过小

神经网络有时会落入坡度过小的坑。答案同样是显然的。考虑下面的图形。

我们的小红球陷入了困境!如果我们的alpha太小,就可能出现这种情况。球落入了附近的局部极小值而忽略了整个图形。它不具备打破日复一日的乏味生活的精力(umph)

增量过小更明显的一个症状也许是收敛需要花很长很长的时间。

解决方案三:增加alpha

如同你可能期望的一样,增加alpha可以对付这两个症状。我们甚至可以给增量乘上一个大于1的权重。这很罕见,但有时我们确实需要这么做。

四、神经网络中的SGD

到了这一步,你可能想知道,这和神经网络还有反向传播有什么关系?这是最难的部分,所以准备好了,跟紧我的思路,慢慢阅读下面的部分。这相当重要。

看到上图中那条恶心的曲线没有?在神经网络中,我们试图最小化对应权重的误差。所以,那条曲线代表对应于单个权重的位置的网络误差。因此,如果我们为单个权重的每个可能值计算网络误差,就得到了上图中的曲线。接着我们将选中具有最小误差(曲线的最低点)的单个权重的值。我说单个权重是因为这是一个二维图形。所以,x维是权重的值,而y维是权重在此位置时神经网络的误差。

停下来,确保你理解了上面一段话。这很关键。

让我们看下一个简单的双层神经网络中上面的过程是怎么样的。

双层神经网络

  1. import numpy as np

  2. # 计算sigmoid非线性

  3. def sigmoid(x):

  4.    output = 1/(1+np.exp(-x))

  5.    return output

  6. # 将sigmoid函数的输出转换为其导数

  7. def sigmoid_output_to_derivative(output):

  8.    return output*(1-output)

  9. # 输入数据集

  10. X = np.array([  [0,1],

  11.                [0,1],

  12.                [1,0],

  13.                [1,0] ])

  14. # 输出数据集          

  15. y = np.array([[0,0,1,1]]).T

  16. # 设置随机数种子使计算结果是确定的

  17. # (实践中这是一个很好的做法)

  18. np.random.seed(1)

  19. # 随机初始化权重(均值0)

  20. synapse_0 = 2*np.random.random((2,1)) - 1

  21. for iter in xrange(10000):

  22.    # 前向传播

  23.    layer_0 = X

  24.    layer_1 = sigmoid(np.dot(layer_0,synapse_0))

  25.    # 差多少?

  26.    layer_1_error = layer_1 - y

  27.    # 误差乘以

  28.    # sigmoid在l1处的斜率

  29.    layer_1_delta = layer_1_error * sigmoid_output_to_derivative(layer_1)

  30.    synapse_0_derivative = np.dot(layer_0.T,layer_1_delta)

  31.    # 更新权重

  32.    synapse_0 -= synapse_0_derivative

  33. print "Output After Training:"

  34. print layer_1

所以,在这个例子中,我们在输出处有一个单一的误差(单个值),我们在第35行计算了这一误差。由于我们有两个权重,因此输出的“误差平面”是一个三维空间。我们可以将这看成一个(x,y,z)平面,其中z轴为误差,x和y是syn0中两个权重的值。

让我们尝试一下绘制上面的网络/数据集的这一误差平面,看看会是什么样的。所以,我们如何计算给定权重集合的误差呢?第31、32、35行代码展示了答案。如果我们绘制对应每个可能的权重集合(x和y在-10到10之间)的总误差(表示网络在整个数据集上的误差的单个标量),它看起来是这样的。

别被这图吓跑了。这其实很简单,不过是计算所有可能的权重集合,然后对应每个集合的网络误差而已。如你所见,我们的输出数据和第一个输入数据正相关。因此,当x(synapse_0的第一个权重)很大时,误差最小化。那么,请思考一下,synapse_0的第二个权重的情况是什么样的?它是何时达到最优的呢?

我们的双层神经网络如何优化

好,既然第31、32、35行计算误差,第39、40、43行自然就优化减少误差了。这是梯度下降发生的地方!还记得我们的伪代码吗?

朴素梯度下降

  • 第39、40行: 计算当前位置x的斜率

  • 第43行:从x减去斜率(x = x - 斜率)

  • 第28行:(重复这一过程,直到斜率为零)

这完全是一回事!唯一改变的是我们有2个权重,所以我们优化2个权重而不是1个。不过,逻辑是完全一样的。

五、改进我们的网络

了解了梯度下降的缺陷和应对方法,我们可以将所学应用到我们的玩具神经网络上。

改进一:增加并调优alpha参数

什么是alpha? 如上所述,alpha参数以最简单的方式降低每次迭代更新的幅度。在更新权重前的最后时刻,我们将权重更新乘以alpha(通常位于0到1之间,从而降低权重更新的幅度)。这一微小的代码改动对训练能力绝对有巨大的影响。

我们将回到上一篇文章中的三层神经网络,然后在合适的地方加上alpha参数。接着,我们将运行一系列试验,用alpha参数在实际代码中的表现印证我们发展的所有关于alpha的直觉。

梯度下降改进版

  • 计算当前位置x的斜率

  • 第56、57行: x = x - alpha * 斜率

  • (重复这一过程,直到斜率为零)

  1. import numpy as np

  2. alphas = [0.001,0.01,0.1,1,10,100,1000]

  3. # 计算sigmoid非线性

  4. def sigmoid(x):

  5.    output = 1/(1+np.exp(-x))

  6.    return output

  7. # 将sigmoid函数的输出转换为其导数

  8. def sigmoid_output_to_derivative(output):

  9.    return output*(1-output)

  10. X = np.array([[0,0,1],

  11.            [0,1,1],

  12.            [1,0,1],

  13.            [1,1,1]])

  14. y = np.array([[0],

  15.            [1],

  16.            [1],

  17.            [0]])

  18. for alpha in alphas:

  19.    print "\nTraining With Alpha:" + str(alpha)

  20.    np.random.seed(1)


  21.    # 随机初始化权重(均值0)

  22.    synapse_0 = 2*np.random.random((3,4)) - 1

  23.    synapse_1 = 2*np.random.random((4,1)) - 1

  24.    for j in xrange(60000):

  25.        # 前向传播层0、层1、层2

  26.        layer_0 = X

  27.        layer_1 = sigmoid(np.dot(layer_0,synapse_0))

  28.        layer_2 = sigmoid(np.dot(layer_1,synapse_1))

  29.        # 差多少?

  30.        layer_2_error = layer_2 - y

  31.        if (j% 10000) == 0:

  32.            print "Error after "+str(j)+" iterations:" + str(np.mean(np.abs(layer_2_error)))

  33.        # 目标值在哪个方向?

  34.        # 我们很确定吗?如果确定,不要改变太多。

  35.        layer_2_delta = layer_2_error*sigmoid_output_to_derivative(layer_2)

  36.        # 根据权重 ,每个l1值对l2误差的贡献有多大?

  37.        layer_1_error = layer_2_delta.dot(synapse_1.T)


  38.        # 目标l1在哪个方向?

  39.        # 我们很确定吗?如果确定,不要改变太多。

  40.        layer_1_delta = layer_1_error * sigmoid_output_to_derivative(layer_1)

  41.        synapse_1 -= alpha * (layer_1.T.dot(layer_2_delta))

  42.        synapse_0 -= alpha * (layer_0.T.dot(layer_1_delta))

  1. Training With Alpha:0.001

  2. Error after 0 iterations:0.496410031903

  3. Error after 10000 iterations:0.495164025493

  4. Error after 20000 iterations:0.493596043188

  5. Error after 30000 iterations:0.491606358559

  6. Error after 40000 iterations:0.489100166544

  7. Error after 50000 iterations:0.485977857846

  8. Training With Alpha:0.01

  9. Error after 0 iterations:0.496410031903

  10. Error after 10000 iterations:0.457431074442

  11. Error after 20000 iterations:0.359097202563

  12. Error after 30000 iterations:0.239358137159

  13. Error after 40000 iterations:0.143070659013

  14. Error after 50000 iterations:0.0985964298089

  15. Training With Alpha:0.1

  16. Error after 0 iterations:0.496410031903

  17. Error after 10000 iterations:0.0428880170001

  18. Error after 20000 iterations:0.0240989942285

  19. Error after 30000 iterations:0.0181106521468

  20. Error after 40000 iterations:0.0149876162722

  21. Error after 50000 iterations:0.0130144905381

  22. Training With Alpha:1

  23. Error after 0 iterations:0.496410031903

  24. Error after 10000 iterations:0.00858452565325

  25. Error after 20000 iterations:0.00578945986251

  26. Error after 30000 iterations:0.00462917677677

  27. Error after 40000 iterations:0.00395876528027

  28. Error after 50000 iterations:0.00351012256786

  29. Training With Alpha:10

  30. Error after 0 iterations:0.496410031903

  31. Error after 10000 iterations:0.00312938876301

  32. Error after 20000 iterations:0.00214459557985

  33. Error after 30000 iterations:0.00172397549956

  34. Error after 40000 iterations:0.00147821451229

  35. Error after 50000 iterations:0.00131274062834

  36. Training With Alpha:100

  37. Error after 0 iterations:0.496410031903

  38. Error after 10000 iterations:0.125476983855

  39. Error after 20000 iterations:0.125330333528

  40. Error after 30000 iterations:0.125267728765

  41. Error after 40000 iterations:0.12523107366

  42. Error after 50000 iterations:0.125206352756

  43. Training With Alpha:1000

  44. Error after 0 iterations:0.496410031903

  45. Error after 10000 iterations:0.5

  46. Error after 20000 iterations:0.5

  47. Error after 30000 iterations:0.5

  48. Error after 40000 iterations:0.5

  49. Error after 50000 iterations:0.5

所以我们从不同大小的alpha中观察到了什么?

Alpha = 0.001

这样一个alpha小得丧心病狂的网络差点不能收敛!这是因为我们所做的权重更新如此之小,以至于我们基本上没有改变什么,即使是在60000次迭代之后!这是一个教科书般的例子:问题三 坡度过小

Alpha = 0.01

这个alpha值达成了一个相当不错的收敛。在60000次迭代的过程中,它收敛的过程很平滑,但最终不如另一些alpha收敛得好。这仍然是一个教科书般的例子:问题三 坡度过小

Alpha = 0.1

这个alpha值非常迅速地取得了一些进展,不过接着进展就要慢一些。仍然是因为问题三。我们需要加大一点alpha。

Alpha = 1

聪明的读者大概已经想到了,这和没有alpha的收敛效果一样!权重更新乘以1,什么都没有改变。

Alpha = 10

也许你会惊讶,一个大于1的alpha值仅仅在10000次迭代后就取得了比其他alpha值的最终结果都要好的分数!这告诉我们,基于较小alpha的权重更新过于保守了。也就是说,基于较小的alpha值时,网络的权重基本上朝着正确的方向走,只不过它们需要加快一点速度。

Alpha = 100

现在我们可以看到,步幅过大会适得其反。网络的步子迈得太大,以至于无法在误差平面上找到一个合理的低点。这是一个教科书般的问题一的例子。alpha过大,因此它只是在误差平面上跳来跳去,永远不会安心地呆在局部极小值处。

Alpha = 1000

一个极端巨大的alpha让我们看到了一个发散的教科书般的例子,误差不降反增……硬化于0.5. 这是一个更极端的问题一的例子,它横冲直撞,结果欲速则不达,最后离任何局部极小值都很远。

让我们仔细看看

  1. import numpy as np

  2. alphas = [0.001,0.01,0.1,1,10,100,1000]

  3. # 计算sigmoid非线性

  4. def sigmoid(x):

  5.    output = 1/(1+np.exp(-x))

  6.    return output

  7. # 将sigmoid函数的输出转换为其导数

  8. def sigmoid_output_to_derivative(output):

  9.    return output*(1-output)

  10. X = np.array([[0,0,1],

  11.            [0,1,1],

  12.            [1,0,1],

  13.            [1,1,1]])

  14. y = np.array([[0],

  15.            [1],

  16.            [1],

  17.            [0]])

  18. for alpha in alphas:

  19.    print "\nTraining With Alpha:" + str(alpha)

  20.    np.random.seed(1)

  21.    # 随机初始化权重(均值0)

  22.    synapse_0 = 2*np.random.random((3,4)) - 1

  23.    synapse_1 = 2*np.random.random((4,1)) - 1

  24.    prev_synapse_0_weight_update = np.zeros_like(synapse_0)

  25.    prev_synapse_1_weight_update = np.zeros_like(synapse_1)

  26.    synapse_0_direction_count = np.zeros_like(synapse_0)

  27.    synapse_1_direction_count = np.zeros_like(synapse_1)

  28.    for j in xrange(60000):


  29.        # 前向传播层0、层1、层2

  30.        layer_0 = X

  31.        layer_1 = sigmoid(np.dot(layer_0,synapse_0))

  32.        layer_2 = sigmoid(np.dot(layer_1,synapse_1))

  33.        # 差多少?

  34.        layer_2_error = y - layer_2

  35.        if (j% 10000) == 0:

  36.            print "Error:" + str(np.mean(np.abs(layer_2_error)))

  37.        # 目标值在哪个方向?

  38.        # 我们很确定吗?如果确定,不要改变太多。

  39.        layer_2_delta = layer_2_error*sigmoid_output_to_derivative(layer_2)

  40.        # 根据权重 ,每个l1值对l2误差的贡献有多大?

  41.        layer_1_error = layer_2_delta.dot(synapse_1.T)

  42.        # 目标l1在哪个方向?

  43.        # 我们很确定吗?如果确定,不要改变太多。

  44.        layer_1_delta = layer_1_error * sigmoid_output_to_derivative(layer_1)

  45.        synapse_1_weight_update = (layer_1.T.dot(layer_2_delta))

  46.        synapse_0_weight_update = (layer_0.T.dot(layer_1_delta))

  47.        if(j > 0):

  48.            synapse_0_direction_count += np.abs(((synapse_0_weight_update > 0)+0) - ((prev_synapse_0_weight_update > 0) + 0))

  49.            synapse_1_direction_count += np.abs(((synapse_1_weight_update > 0)+0) - ((prev_synapse_1_weight_update > 0) + 0))        

  50.        synapse_1 += alpha * synapse_1_weight_update

  51.        synapse_0 += alpha * synapse_0_weight_update

  52.        prev_synapse_0_weight_update = synapse_0_weight_update

  53.        prev_synapse_1_weight_update = synapse_1_weight_update

  54.    print "Synapse 0"

  55.    print synapse_0

  56.    print "Synapse 0 Update Direction Changes"

  57.    print synapse_0_direction_count

  58.    print "Synapse 1"

  59.    print synapse_1

  60.    print "Synapse 1 Update Direction Changes"

  61.    print synapse_1_direction_count

  1. Training With Alpha:0.001

  2. Error:0.496410031903

  3. Error:0.495164025493

  4. Error:0.493596043188

  5. Error:0.491606358559

  6. Error:0.489100166544

  7. Error:0.485977857846

  8. Synapse 0

  9. [[-0.28448441  0.32471214 -1.53496167 -0.47594822]

  10. [-0.7550616  -1.04593014 -1.45446052 -0.32606771]

  11. [-0.2594825  -0.13487028 -0.29722666  0.40028038]]

  12. Synapse 0 Update Direction Changes

  13. [[ 0.  0.  0.  0.]

  14. [ 0.  0.  0.  0.]

  15. [ 1.  0.  1.  1.]]

  16. Synapse 1

  17. [[-0.61957526]

  18. [ 0.76414675]

  19. [-1.49797046]

  20. [ 0.40734574]]

  21. Synapse 1 Update Direction Changes

  22. [[ 1.]

  23. [ 1.]

  24. [ 0.]

  25. [ 1.]]

  26. Training With Alpha:0.01

  27. Error:0.496410031903

  28. Error:0.457431074442

  29. Error:0.359097202563

  30. Error:0.239358137159

  31. Error:0.143070659013

  32. Error:0.0985964298089

  33. Synapse 0

  34. [[ 2.39225985  2.56885428 -5.38289334 -3.29231397]

  35. [-0.35379718 -4.6509363  -5.67005693 -1.74287864]

  36. [-0.15431323 -1.17147894  1.97979367  3.44633281]]

  37. Synapse 0 Update Direction Changes

  38. [[ 1.  1.  0.  0.]

  39. [ 2.  0.  0.  2.]

  40. [ 4.  2.  1.  1.]]

  41. Synapse 1

  42. [[-3.70045078]

  43. [ 4.57578637]

  44. [-7.63362462]

  45. [ 4.73787613]]

  46. Synapse 1 Update Direction Changes

  47. [[ 2.]

  48. [ 1.]

  49. [ 0.]

  50. [ 1.]]

  51. Training With Alpha:0.1

  52. Error:0.496410031903

  53. Error:0.0428880170001

  54. Error:0.0240989942285

  55. Error:0.0181106521468

  56. Error:0.0149876162722

  57. Error:0.0130144905381

  58. Synapse 0

  59. [[ 3.88035459  3.6391263  -5.99509098 -3.8224267 ]

  60. [-1.72462557 -5.41496387 -6.30737281 -3.03987763]

  61. [ 0.45953952 -1.77301389  2.37235987  5.04309824]]

  62. Synapse 0 Update Direction Changes

  63. [[ 1.  1.  0.  0.]

  64. [ 2.  0.  0.  2.]

  65. [ 4.  2.  1.  1.]]

  66. Synapse 1

  67. [[-5.72386389]

  68. [ 6.15041318]

  69. [-9.40272079]

  70. [ 6.61461026]]

  71. Synapse 1 Update Direction Changes

  72. [[ 2.]

  73. [ 1.]

  74. [ 0.]

  75. [ 1.]]

  76. Training With Alpha:1

  77. Error:0.496410031903

  78. Error:0.00858452565325

  79. Error:0.00578945986251

  80. Error:0.00462917677677

  81. Error:0.00395876528027

  82. Error:0.00351012256786

  83. Synapse 0

  84. [[ 4.6013571   4.17197193 -6.30956245 -4.19745118]

  85. [-2.58413484 -5.81447929 -6.60793435 -3.68396123]

  86. [ 0.97538679 -2.02685775  2.52949751  5.84371739]]

  87. Synapse 0 Update Direction Changes

  88. [[ 1.  1.  0.  0.]

  89. [ 2.  0.  0.  2.]

  90. [ 4.  2.  1.  1.]]

  91. Synapse 1

  92. [[ -6.96765763]

  93. [  7.14101949]

  94. [-10.31917382]

  95. [  7.86128405]]

  96. Synapse 1 Update Direction Changes

  97. [[ 2.]

  98. [ 1.]

  99. [ 0.]

  100. [ 1.]]

  101. Training With Alpha:10

  102. Error:0.496410031903

  103. Error:0.00312938876301

  104. Error:0.00214459557985

  105. Error:0.00172397549956

  106. Error:0.00147821451229

  107. Error:0.00131274062834

  108. Synapse 0

  109. [[ 4.52597806  5.77663165 -7.34266481 -5.29379829]

  110. [ 1.66715206 -7.16447274 -7.99779235 -1.81881849]

  111. [-4.27032921 -3.35838279  3.44594007  4.88852208]]

  112. Synapse 0 Update Direction Changes

  113. [[  7.  19.   2.   6.]

  114. [  7.   2.   0.  22.]

  115. [ 19.  26.   9.  17.]]

  116. Synapse 1

  117. [[ -8.58485788]

  118. [ 10.1786297 ]

  119. [-14.87601886]

  120. [  7.57026121]]

  121. Synapse 1 Update Direction Changes

  122. [[ 22.]

  123. [ 15.]

  124. [  4.]

  125. [ 15.]]

  126. Training With Alpha:100

  127. Error:0.496410031903

  128. Error:0.125476983855

  129. Error:0.125330333528

  130. Error:0.125267728765

  131. Error:0.12523107366

  132. Error:0.125206352756

  133. Synapse 0

  134. [[-17.20515374   1.89881432 -16.95533155  -8.23482697]

  135. [  5.70240659 -17.23785161  -9.48052574  -7.92972576]

  136. [ -4.18781704  -0.3388181    2.82024759  -8.40059859]]

  137. Synapse 0 Update Direction Changes

  138. [[  8.   7.   3.   2.]

  139. [ 13.   8.   2.   4.]

  140. [ 16.  13.  12.   8.]]

  141. Synapse 1

  142. [[  9.68285369]

  143. [  9.55731916]

  144. [-16.0390702 ]

  145. [  6.27326973]]

  146. Synapse 1 Update Direction Changes

  147. [[ 13.]

  148. [ 11.]

  149. [ 12.]

  150. [ 10.]]

  151. Training With Alpha:1000

  152. Error:0.496410031903

  153. Error:0.5

  154. Error:0.5

  155. Error:0.5

  156. Error:0.5

  157. Error:0.5

  158. Synapse 0

  159. [[-56.06177241  -4.66409623  -5.65196179 -23.05868769]

  160. [ -4.52271708  -4.78184499 -10.88770202 -15.85879101]

  161. [-89.56678495  10.81119741  37.02351518 -48.33299795]]

  162. Synapse 0 Update Direction Changes

  163. [[ 3.  2.  4.  1.]

  164. [ 1.  2.  2.  1.]

  165. [ 6.  6.  4.  1.]]

  166. Synapse 1

  167. [[  25.16188889]

  168. [  -8.68235535]

  169. [-116.60053379]

  170. [  11.41582458]]

  171. Synapse 1 Update Direction Changes

  172. [[ 7.]

  173. [ 7.]

  174. [ 7.]

  175. [ 3.]]

在以上代码中,我对导数改变方向的次数进行了计数(训练结束后的“Update Direction Changes”)。如果坡度(导数)改变了方向,那意味着它越过了局部极小值,需要回退。如果它从未改变方向,那么很可能它走得不够远。

几点总结

  • alpha很小时,导数几乎从不改变方向。

  • alpha最优时,导数频繁改变方向。

  • alpha很大时,导数改变方向的次数中等。

  • alpha很小时,最终权重也很小。

  • alpha很大时,权重也变得很大。

改进二:参数化隐藏层的尺寸

能够增加隐藏层的话,可以增加每次迭代收敛的搜索空间数量。

  1. import numpy as np

  2. alphas = [0.001,0.01,0.1,1,10,100,1000]

  3. hiddenSize = 32

  4. # 计算sigmoid非线性

  5. def sigmoid(x):

  6.    output = 1/(1+np.exp(-x))

  7.    return output

  8. # 将sigmoid函数的输出转换为其导数

  9. def sigmoid_output_to_derivative(output):

  10.    return output*(1-output)

  11. X = np.array([[0,0,1],

  12.            [0,1,1],

  13.            [1,0,1],

  14.            [1,1,1]])

  15. y = np.array([[0],

  16.            [1],

  17.            [1],

  18.            [0]])

  19. for alpha in alphas:

  20.    print "\nTraining With Alpha:" + str(alpha)

  21.    np.random.seed(1)

  22.    # 随机初始化权重(均值0)

  23.    synapse_0 = 2*np.random.random((3,hiddenSize)) - 1

  24.    synapse_1 = 2*np.random.random((hiddenSize,1)) - 1

  25.    for j in xrange(60000):

  26.        # 前向传播层0、层1、层2

  27.        layer_0 = X

  28.        layer_1 = sigmoid(np.dot(layer_0,synapse_0))

  29.        layer_2 = sigmoid(np.dot(layer_1,synapse_1))

  30.        # 差多少?

  31.        layer_2_error = layer_2 - y

  32.        if (j% 10000) == 0:

  33.            print "Error after "+str(j)+" iterations:" + str(np.mean(np.abs(layer_2_error)))

  34.        # 目标值在哪个方向?

  35.        # 我们很确定吗?如果确定,不要改变太多。

  36.        layer_2_delta = layer_2_error*sigmoid_output_to_derivative(layer_2)

  37.        # 根据权重 ,每个l1值对l2误差的贡献有多大?

  38.        layer_1_error = layer_2_delta.dot(synapse_1.T)

  39.        # 目标l1在哪个方向?

  40.        # 我们很确定吗?如果确定,不要改变太多。

  41.        layer_1_delta = layer_1_error * sigmoid_output_to_derivative(layer_1)

  42.        synapse_1 -= alpha * (layer_1.T.dot(layer_2_delta))

  43.        synapse_0 -= alpha * (layer_0.T.dot(layer_1_delta))

  1. Training With Alpha:0.001

  2. Error after 0 iterations:0.496439922501

  3. Error after 10000 iterations:0.491049468129

  4. Error after 20000 iterations:0.484976307027

  5. Error after 30000 iterations:0.477830678793

  6. Error after 40000 iterations:0.46903846539

  7. Error after 50000 iterations:0.458029258565

  8. Training With Alpha:0.01

  9. Error after 0 iterations:0.496439922501

  10. Error after 10000 iterations:0.356379061648

  11. Error after 20000 iterations:0.146939845465

  12. Error after 30000 iterations:0.0880156127416

  13. Error after 40000 iterations:0.065147819275

  14. Error after 50000 iterations:0.0529658087026

  15. Training With Alpha:0.1

  16. Error after 0 iterations:0.496439922501

  17. Error after 10000 iterations:0.0305404908386

  18. Error after 20000 iterations:0.0190638725334

  19. Error after 30000 iterations:0.0147643907296

  20. Error after 40000 iterations:0.0123892429905

  21. Error after 50000 iterations:0.0108421669738

  22. Training With Alpha:1

  23. Error after 0 iterations:0.496439922501

  24. Error after 10000 iterations:0.00736052234249

  25. Error after 20000 iterations:0.00497251705039

  26. Error after 30000 iterations:0.00396863978159

  27. Error after 40000 iterations:0.00338641021983

  28. Error after 50000 iterations:0.00299625684932

  29. Training With Alpha:10

  30. Error after 0 iterations:0.496439922501

  31. Error after 10000 iterations:0.00224922117381

  32. Error after 20000 iterations:0.00153852153014

  33. Error after 30000 iterations:0.00123717718456

  34. Error after 40000 iterations:0.00106119569132

  35. Error after 50000 iterations:0.000942641990774

  36. Training With Alpha:100

  37. Error after 0 iterations:0.496439922501

  38. Error after 10000 iterations:0.5

  39. Error after 20000 iterations:0.5

  40. Error after 30000 iterations:0.5

  41. Error after 40000 iterations:0.5

  42. Error after 50000 iterations:0.5

  43. Training With Alpha:1000

  44. Error after 0 iterations:0.496439922501

  45. Error after 10000 iterations:0.5

  46. Error after 20000 iterations:0.5

  47. Error after 30000 iterations:0.5

  48. Error after 40000 iterations:0.5

  49. Error after 50000 iterations:0.5

我们注意到32节点的最佳误差为0.0009,而4隐藏节点的最佳误差为0.0013. 这看起来没有相差很多,但这是重要的一课。我们只需要3个节点就足以表示这个数据集。然而,因为我们开始搜索的时候有更多的节点,我们可以在每次迭代中搜索更多空间,最终收敛得更快。尽管在这一玩具问题中,这一效应显得微不足道,当我们建模非常复杂的数据集时,这一效应将起到非常大的作用。

六、结语和以后的工作

我的建议

如果你对神经网络的态度是严肃的,那我有一个建议。尝试基于回忆重建这个网络。我知道这也许听起来有点疯狂,但它切切实实很有帮助。如果你希望能够根据最新的学术论文创建任意的神经网络架构,或者阅读和理解不同架构的代码样例,我认为这是一个杀手级练习。即使你使用Torch、Caffe、Theano之类的框架,我仍然认为这是有用的。我在进行这一练习之前和神经网络打过好多年交道,这个练习是我在这一领域所做的最好的投资(而且它花不了多久)。

以后的工作

这个玩具例子仍然需要一些挂件才能真正接近当前最先进的架构。如果你打算进一步改进你的网络,下面是一些值得了解的概念。(也许我以后的文章会涉及其中部分内容。)

  • Bias Units(偏置单元)

  • Mini-Batches

  • Delta Trimming

  • Parameterized Layer Sizes(参数化的层尺寸)

  • Regularization(正则化)

  • Dropout

  • Momentum(动量)

  • Batch Normalization

  • GPU兼容性

  • 其他酷炫特性

原文地址:https://iamtrask.github.io/2015/07/27/python-network-part2/

: . Video Mini Program Like ,轻点两下取消赞 Wow ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存