美文网首页
更新权重的方式

更新权重的方式

作者: chakopht | 来源:发表于2019-11-05 00:56 被阅读0次

    1、SGD 梯度下降(收敛最慢稳定)

    梯度下降:\theta new+=\theta old -\eta * d J(\theta )

    批量梯度下降:将数据集切分为多批次, 分别下降取最佳值

    随机梯度下降:每次取一个值进行下降

    2、momentum

    m(new) = b1*m(old) - \eta *dJ(\theta )

    \theta +=m

    设定一个惯性参数m

    3、AdaGrad

    \theta new += -\eta *dJ(\theta )/\sqrt{dJ(\theta )^2 }

    对错误方向添加阻力根号下损失梯度

    4、RMSProp

    RMSProp = AdaGrad+Momentum

    对错误方向添加一个惯性

    v(new) = b1*v(old)+(1-b1)*dJ(\theta )^2

    \theta new+= -\eta *dJ(\theta )/\sqrt{v}

    5、Adam(速度最快但是有可能不收敛错过全局最优)

    Adam是在Ada基础上对分子dJ(\theta )以及分母\sqrt{J(\theta )} 都做一次momentum

    相关文章

      网友评论

          本文标题:更新权重的方式

          本文链接:https://www.haomeiwen.com/subject/ztdjbctx.html