美文网首页
with torch.no_grad()

with torch.no_grad()

作者: winddy_akoky | 来源:发表于2020-01-04 20:05 被阅读0次

在讲述with torch.no_grad()前,先从requires_grad讲起

requires_grad

在pytorch中,tensor有一个requires_grad参数,如果设置为True,则反向传播时,该tensor就会自动求导。tensor的requires_grad的属性默认为False,若一个节点(叶子变量:自己创建的tensor)requires_grad被设置为True,那么所有依赖它的节点requires_grad都为True(即使其他相依赖的tensor的requires_grad = False)

x = torch.randn(10, 5, requires_grad = True)
y = torch.randn(10, 5, requires_grad = False)
z = torch.randn(10, 5, requires_grad = False)
w = x + y + z
w.requires_grad

True

volatile

首先说明,该用法已经被移除,但为了说明torch.no_grad,还是需要讲解下该作用。在之前的版本中,tensor(或者说variable,以前版本tensor会转化成variable,目前该功能也被废弃,直接使用tensor即可)还有一个参数volatile,如果一个tensor的volatile = True,那么所有依赖他的tensor会全部变成True,反向传播时就不会自动求导了,因此大大节约了显存或者说内存。
既然一个tensor既有requires_grad,又有volatile,那么当两个参数设置相矛盾时怎么办?volatile=True的优先级高于requires_grad,即当volatile = True时,无论requires_grad是Ture还是False,反向传播时都不会自动求导。volatile可以实现一定速度的提升,并节省一半的显存,因为其不需要保存梯度。(volatile默认为False,这时反向传播是否自动求导,取决于requires_grad)
with torch.no_grad
上文提到volatile已经被废弃,替代其功能的就是with torch.no_grad。作用与volatile相似,即使一个tensor(命名为x)的requires_grad = True,由x得到的新tensor(命名为w-标量)requires_grad也为False,且grad_fn也为None,即不会对w求导。例子如下所示:

x = torch.randn(10, 5, requires_grad = True)
y = torch.randn(10, 5, requires_grad = True)
z = torch.randn(10, 5, requires_grad = True)
with torch.no_grad():
    w = x + y + z
    print(w.requires_grad)
    print(w.grad_fn)
print(w.requires_grad)


False
None
False

引用:https://blog.csdn.net/weixin_43178406/article/details/89517008

相关文章

  • torch.no_grad

    PyTorch里的requires_grad、volatile及no_grad requires_grad=Tru...

  • with torch.no_grad()

    在讲述with torch.no_grad()前,先从requires_grad讲起 requires_grad ...

  • with torch.no_grad():

    with使用with,能够减少冗长,还能自动处理上下文环境产生的异常。如下面代码: torch.no_grad()...

  • pytorch学习笔记-CUDA: out of memory

    错误信息: 解决方法: 减小batch size 在测试的时候,使用 torch.no_grad() 释放缓存可以...

  • Pytorch避免更新模型梯度

    1. torch.no_grad (1) 用法 (2) 说明上例的“具体操作”中均不更新梯度,这样可以节约计算...

  • torch减少显存使用

    被包裹起来的上下文不走tracking,减少显存的堆积占用 torch.no_grad也可以作为注解的写法 清理显...

网友评论

      本文标题:with torch.no_grad()

      本文链接:https://www.haomeiwen.com/subject/ivefactx.html