其他
【强基固本】误区! Adam+L2并不能发挥效果!
“强基固本,行稳致远”,科学研究离不开理论基础,人工智能学科更是需要数学、物理、神经科学等基础学科提供有力支撑,为了紧扣时代脉搏,我们推出“强基固本”专栏,讲解AI领域的基础知识,为你的科研学习提供助力,夯实理论基础,提升原始创新能力,敬请关注。
地址:https://zhuanlan.zhihu.com/p/429022216
01
torch.optim.SGD(...,weight_decay=0.001)
torch.optim.Adam(...,weight_decay=0.001)
torch.optim.AdamW(...,weight_decay=0.001)
02
03
关于实现方式的认知误区:AdamW=Adam+Weight Decay
torch.optim.Adam(...,weight_decay=0.001)
# I st: Adam weight decay implementation (L2 regularization)
final_loss = loss + wd * all_weights.pow(2).sum() / 2
# II nd: equivalent to this in SGD
w= w - lr *w.grad - lr *wd * w
参考资料:
https://arxiv.org/pdf/1711.05101.pdf
https://stackoverflow.com/questions/64621585/adamw-and-adam-with-weight-decay
https://www.fast.ai/2018/07/02/adam-weight-decay/
https://zhuanlan.zhihu.com/p/63982470
“强基固本”历史文章
100行用Python实现自动求导(不import任何包的情况下)
从三角函数变换到图神经网络
点云局部特征描述子 SHOT
直观理解万能近似定理(Universal Approximation theorem)
Kmeans 聚类算法
聚类性能评估-V-Measure
完全图解RNN、RNN变体、Seq2Seq、Attention机制
脉冲神经网络(Spiking Neural Network)介绍
流形学习概述
神经网络15分钟入门!——反向传播到底是怎么传播的?
图神经网络的理论基础
深度学习入门与Pytorch|4.2 变分自编码器(VAE)介绍、推导及代码
深度学习入门与Pytorch4.1 深度学习中的几种自编码器的介绍与Pytorch代码实现
白化变换:PCA白化、ZCA白化
更多强基固本专栏文章,
请点击文章底部“阅读原文”查看
分享、点赞、在看,给个三连击呗!