其他
【强基固本】信息量、熵、相对熵(KL散度)、交叉熵
“强基固本,行稳致远”,科学研究离不开理论基础,人工智能学科更是需要数学、物理、神经科学等基础学科提供有力支撑,为了紧扣时代脉搏,我们推出“强基固本”专栏,讲解AI领域的基础知识,为你的科研学习提供助力,夯实理论基础,提升原始创新能力,敬请关注。
地址:https://www.zhihu.com/people/li-mo-zhi-11
01
02
03
04
参考文献:
[1] https://en.wikipedia.org/wiki/Kullback–Leibler_divergence
[2] https://zhuanlan.zhihu.com/p/109169966
[3] https://blog.csdn.net/tsyccnh/article/details/79163834
“强基固本”历史文章
神经网络常用求导
深度学习算法收敛性证明之拓展SGD
看了这篇文章你还不懂SVM你就来打我
卷积神经网络(CNN)反向传播算法
边框回归(Bounding Box Regression)详解
《CV中的多视图几何》——相机模型与标定
AI 框架基础技术之自动求导机制 (Autograd)
主成分分析(PCA)
深度学习算法收敛性证明
深度学习:数学知识基础
从Binary到Swish——激活函数深度详解
“卷积”其实没那么难以理解
DNN加速器性能分析
如何通俗易懂地让女朋友明白什么是语言模型?
深度学习从入门到放飞自我:完全解析triplet loss
更多强基固本专栏文章,
请点击文章底部“阅读原文”查看
分享、点赞、在看,给个三连击呗!