1.
2. 损失函数
3. 梯度裁剪
4. 调整学习率
参考资料
[1] pytorch入门教程
[2] pytorch的nn.MSELoss损失函数
[3] pytorch梯度裁剪(Clipping Gradient):torch.nn.utils.clip_grad_norm
[4] pytorch中调整学习率: torch.optim.lr_scheduler
[5] PyTorch学习之六个学习率调整策略
[6] Pytorch中的学习率调整lr_scheduler,ReduceLROnPlateau
官方教程
[1] pytorch中文文档
网友评论