美文网首页我爱编程
TF笔记 - 学习率

TF笔记 - 学习率

作者: 闫_锋 | 来源:发表于2018-05-25 22:20 被阅读17次

    √学习率 learning_rate:表示了每次参数更新的幅度大小。学习率过大,会导致待优化的参数在最小值附近波动,不收敛;学习率过小,会导致待优化的参数收敛缓慢。

    在训练过程中,参数的更新向着损失函数梯度下降的方向。
    参数的更新公式为:
    𝒘𝒏+𝟏 = 𝒘𝒏 − 𝒍𝒆𝒂𝒓𝒏𝒊𝒏𝒈_𝒓𝒂𝒕𝒆𝛁

    √指数衰减学习率:学习率随着训练轮数变化而动态更新

    学习率计算公式如下:
    Learning_rate=LEARNING_RATE_BASE * LEARNING_RATE_DECAY * global_step / LEARNING_RATE_BATCH_SIZE

    用 Tensorflow 的函数表示为:
    global_step = tf.Variable(0, trainable=False)
    learning_rate = tf.train.exponential_decay(
    LEARNING_RATE_BASE,
    global_step,
    LEARNING_RATE_STEP, LEARNING_RATE_DECAY,
    staircase=True/False)
    其中, LEARNING_RATE_BASE 为学习率初始值, LEARNING_RATE_DECAY为学习率衰减率,global_step 记录了当前训练轮数,为不可训练型参数。学习率 learning_rate 更新频率为输入数据集总样本数除以每次喂入样本数。若 staircase 设置为 True 时,表示global_step/learning rate step 取整数,学习率阶梯型衰减;若 staircase 设置为 false 时,学习率会是一条平滑下降的曲线。

    相关文章

      网友评论

        本文标题:TF笔记 - 学习率

        本文链接:https://www.haomeiwen.com/subject/cjqpjftx.html