美文网首页
自适应学习率调整算法

自适应学习率调整算法

作者: 遥想yaoxiang | 来源:发表于2017-06-17 18:07 被阅读0次

    AdaGrad

    独立调整模型所有参数的学习率,从训练过程的开始不断的减小learning rate
    较大的梯度---rapid decrease 较小的梯度---relaticely small decrease

    缺点是过度地降低了学习率,凸函数中性能更好

    image

    RMSProp

    通过引入超参数alpha,控制量对历史梯度值的依赖程度
    区别于AdaGrad将所有的梯度值叠加,RMSProp可避免训练过程中学习率过小

    image

    combine momentum with RMSProp

    imag

    Adam

    s for momentum
    r for RMSProp

    The most straightforward way to add momentum to RMSProp is to apply momentum to the rescaled gradients

    imag

    相关文章

      网友评论

          本文标题:自适应学习率调整算法

          本文链接:https://www.haomeiwen.com/subject/dzlbqxtx.html