美文网首页
LearningRateScheduler 的用法

LearningRateScheduler 的用法

作者: 苟且偷生小屁屁 | 来源:发表于2017-11-02 19:08 被阅读0次
  • 作为回调函数的一员,LearningRateScheduler 可以按照epoch的次数自动调整学习率,
def step_decay(epoch):
    initial_lrate = 0.01
    drop = 0.5
    epochs_drop = 10.0
    lrate = initial_lrate * math.pow(drop,math.floor((1+epoch)/epochs_drop))
    return lrate
lrate = LearningRateScheduler(step_decay)
sgd = SGD(lr=0.0, momentum=0.9, decay=0.0, nesterov=False)
model.fit(train_set_x, train_set_y, validation_split=0.1, nb_epoch=200, batch_size=256, callbacks=[lrate])

相关文章

网友评论

      本文标题:LearningRateScheduler 的用法

      本文链接:https://www.haomeiwen.com/subject/lyhopxtx.html