with torch.no_grad():
被包裹起来的上下文不走tracking,减少显存的堆积占用
- torch.no_grad也可以作为注解的写法
@torch.no_grad()
def index():
清理显存
torch.cuda.empty_cache()
添加词句之后清理显存。
with torch.no_grad():
被包裹起来的上下文不走tracking,减少显存的堆积占用
@torch.no_grad()
def index():
torch.cuda.empty_cache()
添加词句之后清理显存。
本文标题:torch减少显存使用
本文链接:https://www.haomeiwen.com/subject/drejmrtx.html
网友评论