嵌入式视觉

其他

随机梯度下降法的数学基础

梯度是微积分中的基本概念,也是机器学习解优化问题经常使用的数学工具(梯度下降算法)。因此,有必要从头理解梯度的来源和意义。本文从导数开始讲起,讲述了导数、偏导数、方向导数和梯度的定义、意义和数学公式,有助于初学者后续更深入理解随机梯度下降算法的公式。大部分内容来自维基百科和博客文章内容的总结,并加以个人理解。导数导数(英语:derivative)是微积分学中的一个概念。函数在某一点的导数是指这个函数在这一点附近的变化率。导数的本质是通过极限的概念对函数进行局部的线性逼近。当函数
2023年6月7日
其他

反向传播与梯度下降详解

一,前向传播与反向传播二,梯度下降三,随机梯度下降与小批量随机梯度下降四,总结参考资料一,前向传播与反向传播1.1,神经网络训练过程神经网络训练过程是:先通过随机参数“猜“一个结果(模型前向传播过程),这里称为预测结果
2023年5月16日
其他

深度学习基础-网络层参数初始化详解

b=1)高斯分布和均匀分布都是固定方差参数的初始化方法,它们的关键是:如何设置方差!如果太小,会导致神经元输出过小,经过多层则梯度信号消失了。如果太大,sigmoid
2023年4月13日
其他

深度学习基础-优化算法详解

前言所谓深度神经网络的优化算法,即用来更新神经网络参数,并使损失函数最小化的算法。优化算法对于深度学习非常重要,如果说网络参数初始化(模型迭代的初始点)能够决定模型是否收敛,那优化算法的性能则直接影响模型的训练效率。了解不同优化算法的原理及其超参数的作用将使我们更有效的调整优化器的超参数,从而提高模型的性能。本文的优化算法特指:
2023年4月7日
其他

深度学习炼丹-超参数设定和模型训练

模型的标配组件,其不仅加快了模型收敛速度,而且更重要的是在一定程度缓解了深层网络的一个难题“梯度弥散”,从而使得训练深层网络模型更加容易和稳定。另外,模型训练好后,模型推理时的卷积层和其后的
2022年12月15日
其他

深度学习炼丹-不平衡样本的处理

个或几个类别,然后从每个类别所对应的样本列表中随机选择样本,这样可保证每个类别参与训练的机会比较均衡。上述类别平衡方法过于简单,实际应用中有很多限制,比如在类别数很多的多分类任务中(如
2022年12月14日
其他

轻量级模型设计与部署总结

在给定创建或部署的深度学习网络规模的情况下,可以传递多少推断结果。简单理解就是在一个时间单元(如:一秒)内网络能处理的最大输入样例数。CPU
2022年11月24日
其他

万字长文搞懂MobileNet v1模型

https://blog.csdn.net/v_july_v/article/details/51812459?utm_source=copy[2]CondenseNet:
2022年11月24日
其他

轻量级网络论文-VoVNet详解

越大,那么说明卷积核的权重越不一样,前面层对后面层影响越大(connectivity),即连通性越好(大)。从实用性角度讲,我们肯定希望相互连接的网络层的连通性越大越好(归一化后是
2022年11月24日
其他

轻量级网络论文-CSPNet详解

Layer.设计局部过渡层的目的是使梯度组合的差异最大。局部过渡层是一种层次化的特征融合机制,它利用梯度流的聚合策略来防止不同的层学习重复的梯度信息。在这里,我们设计了两个
2022年11月24日
其他

轻量级网络论文-RepVGG详解

卷积的四倍。单路架构非常快,因为并行度高。同样的计算量,“大而整”的运算效率远超“小而碎”的运算。已有研究表明:并行度高的模型要比并行度低的模型推理速度更快。单路架构省内存。例如,ResNet
2022年11月24日
其他

轻量级网络论文-ShuffleNet v2详解

是一种具有密集连接的卷积神经网络。在该网络中,任何两层之间都有直接的连接,也就是说,网络每一层的输入都是前面所有层输出的并集,而该层所学习的特征图也会被直接传给其后面所有层作为输入。在
2022年11月24日