美文网首页
60.网络训练中的超参调整策略—学习率调整2

60.网络训练中的超参调整策略—学习率调整2

作者: 大勇任卷舒 | 来源:发表于2023-05-28 15:54 被阅读0次

    4、inverse_time_decay

    inverse_time_decay(learning_rate, global_step, decay_steps, decay_rate,
                       staircase=False, name=None)
    

    逆时衰减,这种方式和指数型类似。如图,


    5、cosine_decay
    cosine_decay(learning_rate, global_step, decay_steps, alpha=0.0,
                     name=None)
    

    余弦衰减,即按余弦函数的方式衰减学习率,如图


    6、cosine_decay_restarts
    cosine_decay_restarts(learning_rate, global_step, first_decay_steps,
                               t_mul=2.0, m_mul=1.0, alpha=0.0, name=None)
    

    余弦衰减,即余弦版本的cycle策略,作用与多项式衰减中的cycle相同。区别在于余弦重启衰减会重新回到初始学习率,拉长周期,而多项式版本则会逐周期衰减。


    7、linear_cosine_decay
    linear_cosine_decay(learning_rate, global_step, decay_steps,
                            num_periods=0.5, alpha=0.0, beta=0.001,
                            name=None)
    

    线性余弦衰减,主要应用于增强学习领域。


    8、noisy_linear_cosine_decay

    噪声线性余弦衰减,即在线性余弦衰减中加入随机噪声,增大寻优的随机性。


    大数据视频推荐:
    网易云课堂
    CSDN
    人工智能算法竞赛实战
    AIops智能运维机器学习算法实战
    ELK7 stack开发运维实战
    PySpark机器学习从入门到精通
    AIOps智能运维实战
    腾讯课堂
    大数据语音推荐:
    ELK7 stack开发运维
    企业级大数据技术应用
    大数据机器学习案例之推荐系统
    自然语言处理
    大数据基础
    人工智能:深度学习入门到精通

    相关文章

      网友评论

          本文标题:60.网络训练中的超参调整策略—学习率调整2

          本文链接:https://www.haomeiwen.com/subject/nfjdedtx.html