美文网首页
torch减少显存使用

torch减少显存使用

作者: 天空之翼 | 来源:发表于2022-06-06 15:09 被阅读0次
    with torch.no_grad():
    

    被包裹起来的上下文不走tracking,减少显存的堆积占用

    • torch.no_grad也可以作为注解的写法
    @torch.no_grad()
    def index():
    

    清理显存

    torch.cuda.empty_cache()
    

    添加词句之后清理显存。

    相关文章

      网友评论

          本文标题:torch减少显存使用

          本文链接:https://www.haomeiwen.com/subject/drejmrtx.html