美文网首页
PyTorch的十个优化器

PyTorch的十个优化器

作者: geekboys | 来源:发表于2020-03-06 22:56 被阅读0次

    作者:geekboy
    日期:2020-3-6
    准备好数据,设计好模型并选择好损失函数后,下一步就需要选择合适的优化器来进行优化,使得损失函数的值最小达到最优解。
    优化器的基类-Optimizer类,在Optimizer类中定义了5个实用的基本方法。比如常见的SGD,ASGD,Rprop,RMSprop,Adam等等。

    1 torch.optim.Adam(AMSGrad)

    class torch.optim.Adam(params,lr=0.001,betas=(0.9,0.999),eps=1e-08,weight_decay=0,amsgrad=False)
    

    实现Adam(Adaptive Moment Estimation)优化方法,Adam是一种自适应学习率的优化方法,Adam采用梯度的一阶矩估计和二阶矩估计动态的调整学习率。Adam是结合了MomentumRMSprop,并进行了偏差修正。

    相关文章

      网友评论

          本文标题:PyTorch的十个优化器

          本文链接:https://www.haomeiwen.com/subject/irparhtx.html