反向传播,只有在训练场景下才会用到。主要用的是反向链式求导的方法,即先从正向的最后一个节点开始,计算此时结果值与真实值的误差,这样会形成一个用学习参数表示的误差方程,然后对方程中每个参数求导,得到梯度修正值,同时反推出上一层的误差,这样就将该层节点的误差按照争相的相反方向传到上一层,并接着计算上一层的修正值,如此反复下去一步步进行反传,直到传到正向的第一个节点。
反向传播,只有在训练场景下才会用到。主要用的是反向链式求导的方法,即先从正向的最后一个节点开始,计算此时结果值与真实值的误差,这样会形成一个用学习参数表示的误差方程,然后对方程中每个参数求导,得到梯度修正值,同时反推出上一层的误差,这样就将该层节点的误差按照争相的相反方向传到上一层,并接着计算上一层的修正值,如此反复下去一步步进行反传,直到传到正向的第一个节点。
本文标题:TensorFlow反向传播
本文链接:https://www.haomeiwen.com/subject/wwdfgftx.html
网友评论