查看原文
其他

DL笔记:理解多节点神经网络

00 科技无障碍 2022-11-03


阿扣:上回我们在 python 里面实现了单个神经元的梯度下降算法。现在可以挑战一下多个神经元的网络了。

阿特:那会不会很难哦?

阿扣:也不会,原理其实是一样的,只是需要分辨清楚各个参数属于哪一层。

阿特:(不祥预感)

阿扣:比如说,下面这个网络:

  • 有 3 个输入 x1,x2,x3,2 个隐层节点 h1,h2

  • 节点之间的权重用 w 表示,第一个下标为出发节点,第二个下标为目标节点,比如 w11 表示 x1 到 h1 的权重


我们把权重存在一个矩阵中,每一行对应一个输入值的权重,每一列对应一个隐层节点的权重:

所以,隐层的第 j 个节点就表示为:

权重和输入值相乘时,需要用到矩阵乘法中的点乘(dot product):

阿特:啊……矩阵,我好些已经忘得差不多了……

阿扣:没关系,慢慢回忆起来。这里比较关键的是,两个矩阵相乘,左边矩阵的行数,必需跟右边矩阵的列数相等,不然没法相乘。

比如我们要计算的神经网络的矩阵:

左边矩阵有 1 行 3 列,右边矩阵有 3 行 1 列,它们是可以相乘的。

阿特:让我数一数……

阿扣:记得矩阵需要「门当户对」就好 😄 。上面这个矩阵,我们也可以调换左右顺序,并且让两个矩阵都转置(就是行列互换)一下来满足相乘的条件:

阿特:这跟上面那两个矩阵相乘的结果是一样的吗?

阿扣:是的。按照矩阵点乘的公式 () 把它们展开,会发现其实是一个东西。

00 的 DeepLearning 笔记




您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存