查看原文
其他

谷歌大脑深度学习从入门到精通视频课程[2.11]:训练神经网络——模型优化

2017-02-24 AI100

AI100 已经引入 Hugo Larochelle  教授的深度学习课程,会每天在公众号中推送一到两节课,并且对视频中的 PPT 进行讲解。课后,我们会设计一系列的问题来巩固课程中的知识。本节课是 Hugo Larochelle 教授深度学习第二章节的第十一节课。


课程主要内容


  1. 局部最优和全局最优的讨论。(P2)

  2. Andrej Karpathy关于优化的可视化界面。(P3)

  3. 收敛条件讨论,学习率常数下降。(P4)

  4. 将动量方法加到优化中。(P5)

  5. 牛顿方法。(P6 - P7)


https://v.qq.com/txp/iframe/player.html?vid=h0378ra0hi3&width=500&height=375&auto=0
PPT 解释如下:

 

P1. 首页

 


P2. 局部最优和全局最优的讨论。



P3. Andrej Karpathy 关于优化的可视化界面。



P4. 收敛条件讨论,学习率常数下降。



P5. 将动量方法加到优化中。



P6. 牛顿方法。




P7. 牛顿方法。



课程作业

 

牛顿法和梯度下降法有什么区别?

                         

课程讨论群

 

我们组织了课程讨论群,请先扫描下面的二维码关注我们的公众号,在交流群一栏中选择 DL课程讨论群,添加课程负责人。然后将课程作业答案发送给他,通过之后,他会邀请你加入讨论。



讲师简介


Hugo Larochelle 教授师从 Yoshua Bengio 教授,并且在 Geoffrey Hinton 教授那里做了两年的博士后工作。目前 Hugo Larochelle 教授是 Google Brain 的研究科学家。他在 Youtube 上面的神经网络课程视频讲的深入浅出,非常适合从零开始学习。


本文为 AI100 原创,转载需得到本公众号同意。




课件下载:

http://info.usherbrooke.ca/hlarochelle/ift725/2_11_optimization.pdf




点击↙阅读原文↙查看更多资讯

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存