1、查看learning rate
https://discuss.pytorch.org/t/current-learning-rate-and-cosine-annealing/8952
是从pytorch官方社区看到的解决方案。
def get_learning_rate(optimizer):
lr=[]
for param_group in optimizer.param_groups:
lr +=[ param_group['lr'] ]
return lr
也可以直接使用optimizer.param_groups[0]['lr']来查看当前的学习率。
2、设置learning rate
有两种设置learning rate 的方式:
'''
self.scheduler = optim.lr_scheduler.StepLR(self.optimizer, step_size=3, gamma=0.1)
##根据epoch设置不同的学习率,每达到step_size,学习率为原来的 gamma
self.scheduler = optim.lr_scheduler.MultiStepLR(self.optimizer, milestones=[2, 4, 6], gamma=0.5)
##根据区间设置不同的学习率,每达到一个区间,学习率为原来的 gamma
'''
网友评论