美文网首页
59.网络训练中的超参调整策略—学习率调整1

59.网络训练中的超参调整策略—学习率调整1

作者: 大勇任卷舒 | 来源:发表于2023-05-28 15:49 被阅读0次
    • 学习率可以说是模型训练最为重要的超参数。
      • 通常情况下,一个或者一组优秀的学习率既能加速模型的训练,又能得到一个较优甚至最优的精度。
      • 过大或者过小的学习率会直接影响到模型的收敛。
    • 当模型训练到一定程度的时候,损失将不再减少,这时候模型的一阶梯度接近零,对应Hessian 矩阵通常是两种情况
      • 一、正定,即所有特征值均为正,此时通常可以得到一个局部极小值,若这个局部极小值接近全局最小则模型已经能得到不错的性能了,但若差距很大,则模型性能还有待于提升,通常情况下后者在训练初最常见。
      • 二,特征值有正有负,此时模型很可能陷入了鞍点,若陷入鞍点,模型性能表现就很差。以上两种情况在训练初期以及中期,此时若仍然以固定的学习率,会使模型陷入左右来回的震荡或者鞍点,无法继续优化。
    • 所以,学习率衰减或者增大能帮助模型有效的减少震荡或者逃离鞍点。
    • 通常情况下,大部分学习率调整策略都是衰减学习率,但有时若增大学习率也同样起到奇效。这里结合TensorFlow的内置方法来举例。

    1、exponential_decaynatural_exp_decay

    exponential_decay(learning_rate, global_step, decay_steps, decay_rate,
                       staircase=False, name=None)
    
    natural_exp_decay(learning_rate, global_step, decay_steps, decay_rate,
                       staircase=False, name=None)
    
    • 指数衰减是最常用的衰减方式,这种方式简单直接,在训练初期衰减较大利于收敛,在后期衰减较小利于精调。以上两种均为指数衰减,区别在于后者使用以自然指数下降。


    2、piecewise_constant

    piecewise_constant(x, boundaries, values, name=None)
    

    分段设置学习率法,跟指数型类似,区别在于每个阶段的衰减并不是按指数调整。可在不同阶段设置手动不同的学习率。这种学习率重点在有利于精调。

    3、polynomial_decay

    polynomial_decay(learning_rate, global_step, decay_steps,
                      end_learning_rate=0.0001, power=1.0,
                      cycle=False, name=None)
    

    多项式衰减,计算如下:
    global setp = min(global step, decay steps)

    lr_{decayed} = (lr-lr_{end})*(1-{globalstep\over decaysteps})^{power} +lr_{end}

    有别于上述两种,多项式衰减则是在每一步迭代上都会调整学习率。主要看Power参数,若Power为1,则是下图中的红色直线;若power小于1,则是开1/power次方,为蓝色线;绿色线为指数,power大于1。



    此外,需要注意的是参数cycle,cycle对应的是一种周期循环调整的方式。这种cycle策略主要目的在后期防止在一个局部极小值震荡,若跳出该区域或许能得到更有的结果。这里说明cycle的方式不止可以在多项式中应用,可配合类似的周期函数进行衰减,如下图。


    大数据视频推荐:
    网易云课堂
    CSDN
    人工智能算法竞赛实战
    AIops智能运维机器学习算法实战
    ELK7 stack开发运维实战
    PySpark机器学习从入门到精通
    AIOps智能运维实战
    腾讯课堂
    大数据语音推荐:
    ELK7 stack开发运维
    企业级大数据技术应用
    大数据机器学习案例之推荐系统
    自然语言处理
    大数据基础
    人工智能:深度学习入门到精通

    相关文章

      网友评论

          本文标题:59.网络训练中的超参调整策略—学习率调整1

          本文链接:https://www.haomeiwen.com/subject/dgddedtx.html