美文网首页
Adagrad优化器

Adagrad优化器

作者: 四碗饭儿 | 来源:发表于2020-03-05 23:04 被阅读0次

Adagrad和Adam一样,也是一种自适应学习率算法

from deep learning book

Pytorch是这么实现的:

                    state['sum'].addcmul_(1, grad, grad)
                    std = state['sum'].sqrt().add_(group['eps'])
                    p.data.addcdiv_(-clr, grad, std)

其中state['sum']即算法中的r,累计梯度平方和。

相关文章

网友评论

      本文标题:Adagrad优化器

      本文链接:https://www.haomeiwen.com/subject/ixukrhtx.html