其他
【强基固本】详解现代AI和深度学习发展史
“强基固本,行稳致远”,科学研究离不开理论基础,人工智能学科更是需要数学、物理、神经科学等基础学科提供有力支撑,为了紧扣时代脉搏,我们推出“强基固本”专栏,讲解AI领域的基础知识,为你的科研学习提供助力,夯实理论基础,提升原始创新能力,敬请关注。
一、1676年:反向信用分配的链式法则
生成器(称为控制器)生成概率输出(使用随机单元,如后来的StyleGAN)。 预测器(称为世界模型)看到控制器的输出并预测环境对它们的反应。使用梯度下降法,预测器NN将其误差最小化,而生成器NN试图这个误差最大化——一个网的损失就是另一个网络的收益。
1991年4月:将一个NN蒸馏成另一个NN
1995年:神经概率语言模型
LSTM/Highway Net原理是现代深度学习的核心
“强基固本”历史文章
如何通俗的理解beam search?
浅谈扩散模型的有分类器引导和无分类器引导
Jeff Dean:机器学习在硬件设计中的潜力
Softmax 函数和它的误解
关于神经网络,一个学术界搞错了很多年的问题
学习=拟合?深度学习和经典统计学是一回事吗?
信号与系统——卷积
机器学习回归模型相关重要知识点总结!
纯工程经验:谈谈目标检测中正负样本的问题
数字图像处理基本知识
关于机器学习这门炼丹术,理论基础到底有多可靠?
数据统计分析的16个基础概念
机器学习理论基础炼丹总结
超全725个机器学习术语表
更多强基固本专栏文章,
请点击文章底部“阅读原文”查看
分享、点赞、在看,给个三连击呗!