美文网首页
pytorch 关于 learning rate

pytorch 关于 learning rate

作者: xiaofeng112 | 来源:发表于2018-07-04 20:17 被阅读0次

    1、查看learning rate

    https://discuss.pytorch.org/t/current-learning-rate-and-cosine-annealing/8952

    是从pytorch官方社区看到的解决方案。

    def get_learning_rate(optimizer):

        lr=[]

        for param_group in optimizer.param_groups:

              lr +=[ param_group['lr'] ]

        return lr

    也可以直接使用optimizer.param_groups[0]['lr']来查看当前的学习率。

    2、设置learning rate

    有两种设置learning rate 的方式:

    '''

    self.scheduler = optim.lr_scheduler.StepLR(self.optimizer, step_size=3, gamma=0.1)

                                                          ##根据epoch设置不同的学习率,每达到step_size,学习率为原来的 gamma

    self.scheduler = optim.lr_scheduler.MultiStepLR(self.optimizer, milestones=[2, 4, 6], gamma=0.5)  

                                                            ##根据区间设置不同的学习率,每达到一个区间,学习率为原来的 gamma

    '''

    相关文章

      网友评论

          本文标题:pytorch 关于 learning rate

          本文链接:https://www.haomeiwen.com/subject/poyyuftx.html