在深度学习的反向传播过程中,我们需要对激活函数进行求偏导,这里写一点如果激活函数是sigmoid函数时的推导过程。
Flow chart(Forward propagation)
input --> -->
-->
--> Error=
Flow chart(Backward propagation)
output <-- <---------------------------
在经历一次前向传播后,我们会得到一个输出yi,同时我们回得到一个MSE作为与我们目标的误差反馈。深度学习中我们会对误差进行w的偏导,然后对w进行更新,这个步骤和梯度下降法的参数更新是一个原理。
其中,
这里,
所以,
又
综上,
最后更新,
,
是学习率。
网友评论