学习率优化

作者: shudaxu | 来源:发表于2019-05-30 16:34 被阅读0次

学习率优化trick
在机器学习中,学习率的选择,或者说Optimizer的选择,会很大程度上影响学习的效果。当然,现在Moumentoum和Ada-Grad,Adam等方法,已经能够得到非常不错的结果。但是真实训练中,学习率还是作为一个超参影响者其效果或者效率。

一般的算法,会使学习率随着训练不断缩小(Step Decay)来使其更稳定地收敛。但真实的Loss Surface并不是那么平滑。可能会反复地遭遇收敛速度下降的问题。
Cyclical Learning Rates for Training Neural Networks
中阐述了一种周期性调整学习率的原理与其带来的效果提升。
其中,周期性调整,能使得Optimizer更快地通过鞍点。(鞍点的梯度很小,二维空间中为反曲点,三维中为局部方向的最大与局部方向最小的值交汇处)

二维:


二维鞍点

三维:


三维鞍点

学习率调参方法 也可以做为一个不错的补充,更多方法的参考。

相关文章

  • 学习率优化

    学习率优化trick在机器学习中,学习率的选择,或者说Optimizer的选择,会很大程度上影响学习的效果。当然,...

  • Adam优化器的学习率(learning rate)的困惑

    链接:Adam优化器的学习率(learning rate)的困惑?问题:优化器选用tf.train.AdamOpt...

  • gluon.Trainer()

    #定义优化算法 #Trainer实例,学习率=0.03小批量随机梯度下降(sgd)为优化算法 #迭代net实例 #...

  • 机器学习 | 优化——调整学习率

    写在前面: 学习率 是神经网络优化时的重要超参数。在 梯度下降方法 中,学习率的取值非常关键,如果过大就不会收敛,...

  • TF笔记 - 学习率

    √学习率 learning_rate:表示了每次参数更新的幅度大小。学习率过大,会导致待优化的参数在最小值附近波动...

  • tf教程4: RNN预测时序数据(包含Lambda Layer的

    导入所需的包 辅助函数及构造数据 定义和训练模型 选择合适的学习率 使用优化的学习率重新训练,注意迭代次数增加了 ...

  • 神经网络学习率(learning rate)的衰减

    一、学习率衰减的概念和必要性 学习率过大,在算法优化的前期会加速学习,使得模型更容易接近局部或全局最优解。但是在后...

  • A/B测试- 优化产品黑客利器

    一、什么是增长以及如何实现 二、转化率优化(CRO) 三、如何优化转化率 四、优化常见问题及注意事项 五、优化利器...

  • pytorch学习之优化

    调整学习率 调整学习率主要有三种方法。 1.新建优化器 这种方法更简单,由于optimizer十分轻量级,构建开销...

  • 聊一聊学习率预热linear warmup

    什么是warmup warmup是针对学习率learning rate优化的一种策略,主要过程是,在预热期间,学习...

网友评论

    本文标题:学习率优化

    本文链接:https://www.haomeiwen.com/subject/hfjhtctx.html