美文网首页
2019-05-29(自适应学习率)

2019-05-29(自适应学习率)

作者: 雨住多一横 | 来源:发表于2019-05-29 20:33 被阅读0次

参考原文

前言

通常我们所说的学习率变换册率是针对参数更新时梯度前面的系数而言的,而非全局学习率(也可以根据相关算法来调节),我们所要调节的学习率由全局学习率而来,是参数更新的重要系数。

  • AdaGrad
    输入参数:全局学习率\epsilon、初始化参数\theta、小常量\delta(避免分母为0,例如10^{-7})
    算法过程:
    来源

    总结:
    • 优点
      • 随着迭代次数的增大r越来越大,r位于分母上,所以一般来说AdaGrad算法开始时是激励收敛,后期就是惩罚收敛,速度会越来越慢。
      • AdaGrad符合训练初期参数离最优比较远(适合大的学习率),训练后期参数离最优较近(适合小的学习率)的客观规律
      • 针对不同的参数AdaGrad给出不一样的学习速率
    • 缺点
      对于深度学习模型而言,从一开始就累积梯度平方会导致有效学习率过早和过量减小。AdaGrade在凸优化问题中表现不错,但不是全部的优化问题。
  • RMSProp
    需要参数:全局学习率、衰减因子、初始化参数、小常量
    来源

    总结:
    RMSProp是AdaGrad的一次改进(主要是红框内)相比AdaGrad它在非凸情况下效果更好
  • Adam
    需要参数:步长(默认:0.001)、动量指数下降率\rho_1\rho_2,它们的范围是[0, 1)、小常数、初始化参数\theta
    算法步骤:
    来源

    总结:
    Adam本质上为带动量的RMSProp,上图中,红框里面就是momentum项,蓝框里面就是RMSProp项
    • Adam的动量和梯度累积项都经过了梯度校正、这使得每次的迭代学习率都在一个固定的范围,使参数平稳
    • 结合了AdaGrad善于处理稀疏梯度和RMSProp善于处理非平稳目标的优点。
    • 为不同的参数计算不同的自适应学习率
    • 适用于大多数的非凸优化问题、适用于大数据集和高维空间

相关文章

  • 2019-05-29(自适应学习率)

    参考原文 前言 通常我们所说的学习率变换册率是针对参数更新时梯度前面的系数而言的,而非全局学习率(也可以根据相关算...

  • 前端自适应问题

    自适应问题 PC端随屏幕分辨率与窗口大小自适应 参考文献 vue项目PC端随屏幕分辨率与窗口大小自适应[https...

  • 自适应学习率调整算法

    AdaGrad 独立调整模型所有参数的学习率,从训练过程的开始不断的减小learning rate较大的梯度---...

  • Adagrad优化器

    Adagrad和Adam一样,也是一种自适应学习率算法 Pytorch是这么实现的: 其中state['sum']...

  • cockroachDB学习笔记(二)

    title: cockroachDB学习笔记二date: 2019-05-29 21:57:57tags: 基础架...

  • 提升

    引言 自适应学习率调整 一个弱分类器,采样一次的正确率如果是p,那么我们连续采样n次,最后的正确率为可以用二项式定...

  • Unreal Engine 4 UI基础设置

    需要解决的问题: 目录 2.自适应各种分辨率 设置基础分辨率:1136*640设置分辨率 一个Bug:设置基础分辨...

  • 关于软件的UI自适应

    软件UI自适应,对于分辨率不固定的软件(大部分都是),我们需要设置软件的自适应。从两方面考虑: 1.object的...

  • 中文汉化AE扩展脚本 AtomX 3.0.0 不断更新预设包文件

    中文汉化AE扩展脚本 AtomX 3.0.0 不断更新预设包文件 脚本版本:v3.0.0 分辨率兼容:自适应分辨率...

  • UE4:UI的九宫自适应方案

    摘要:为方便UI在各个不同分辨率下的自适应,提出UI的九宫自适应方案(同事提出)。 九宫方案的思路为: UI界面的...

网友评论

      本文标题:2019-05-29(自适应学习率)

      本文链接:https://www.haomeiwen.com/subject/ndlutctx.html