其他
神经网络的5种常见求导,附详细的公式过程
一种是直接法(i.e., 用 来表示x属于第3类),则 ,其中 为指示函数;
另一种是one-hot法(i.e., 用 来表示x属于第三类),则 ,其中 为向量 的第 个元素。
p.s., 也可以将one-hot法理解为直接法的实现形式,因为one-hot向量实际上就是 。
在用softmax时,output的维数跟类的数量一致,而用sigmoid时,output的维数比类的数量少;
在用softmax时,各类的概率表达式跟sigmoid中的表达式不相同。
因此,用sigmoid做二分类跟用softmax做二分类是等价的。
02 backpropagation
其中,根据 可知
03 derivative of CNN
在求各个 时,可以把他们看成是相互独立的 ,那这样就跟普通的全连接层一样了,因此也就可以用backpropagation来求。
04 derivative of RNN
由于这里是将RNN按照时序展开成为一个神经网络,所以这种求gradient的方法叫Backpropagation Through Time(BPTT)。