with torch.no_grad():

作者: 午字横 | 来源:发表于2022-11-18 23:44 被阅读0次

with
使用with,能够减少冗长,还能自动处理上下文环境产生的异常。如下面代码:

with open(r'filename.txt') as f:
   data_user=pd.read_csv(f)  #文件的读操作

with open('data.txt', 'w') as f:
   f.write('hello world')  #文件的写操作

"""
相关参数:
r:  以只读方式打开文件。文件的指针将会放在文件的开头。这是**默认模式**。
rb: 以二进制格式打开一个文件用于只读。文件指针将会放在文件的开头。这是默认模式。
r+: 打开一个文件用于读写。文件指针将会放在文件的开头。
rb+:以二进制格式打开一个文件用于读写。文件指针将会放在文件的开头。
w:  打开一个文件只用于写入。如果该文件已存在则将其覆盖。如果该文件不存在,创建新文件。
wb: 以二进制格式打开一个文件只用于写入。如果该文件已存在则将其覆盖。如果该文件不存在,创建新文件。
w+: 打开一个文件用于读写。如果该文件已存在则将其覆盖。如果该文件不存在,创建新文件。
wb+:以二进制格式打开一个文件用于读写。如果该文件已存在则将其覆盖。如果该文件不存在,创建新文件。
a:  打开一个文件用于追加。如果该文件已存在,文件指针将会放在文件的结尾。也就是说,新的内容将会被写入到已有内容之后。如果该文件不存在,创建新文件进行写入。
ab: 以二进制格式打开一个文件用于追加。如果该文件已存在,文件指针将会放在文件的结尾。也就是说,新的内容将会被写入到已有内容之后。如果该文件不存在,创建新文件进行写入。
a+: 打开一个文件用于读写。如果该文件已存在,文件指针将会放在文件的结尾。文件打开时会是追加模式。如果该文件不存在,创建新文件用于读写。
ab+:以二进制格式打开一个文件用于追加。如果该文件已存在,文件指针将会放在文件的结尾。如果该文件不存在,创建新文件用于读写。

file对象的属性::
file.read([size])   将文件数据作为字符串返回,可选参数size控制读取的字节数
file.readlines([size])   返回文件中行内容的列表,size参数可选
file.write(str)   将字符串写入文件
file.writelines(strings)   将字符串序列写入文件
file.close()   关闭文件
file.closed 表示文件已经被关闭,否则为False

file.mode   Access文件打开时使用的访问模式
file.encoding   文件所使用的编码
file.name   文件名
file.newlines   未读取到行分隔符时为None,只有一种行分隔符时为一个字符串,当文件有多种类型的行结束符时,则为一个包含所有当前所遇到的行结束的列表
file.softspace  为0表示在输出一数据后,要加上一个空格符,1表示不加。这个属性一般程序员用不着,由程序内部使用


"""

torch.no_grad()的作用
在该模块下,所有计算得出的tensor的requires_grad都自动设置为False。

with torch.no_grad():


class with_test():
    def __enter__(self):
        print('enter--')

    def __exit__(self, exc_type, exc_val, exc_tb):
        print('exit__')

w=with_test()
with w:
    print('123')

>>>
enter--
123
exit__


image.png

相关文章

  • torch.no_grad

    PyTorch里的requires_grad、volatile及no_grad requires_grad=Tru...

  • with torch.no_grad()

    在讲述with torch.no_grad()前,先从requires_grad讲起 requires_grad ...

  • with torch.no_grad():

    with使用with,能够减少冗长,还能自动处理上下文环境产生的异常。如下面代码: torch.no_grad()...

  • pytorch学习笔记-CUDA: out of memory

    错误信息: 解决方法: 减小batch size 在测试的时候,使用 torch.no_grad() 释放缓存可以...

  • Pytorch避免更新模型梯度

    1. torch.no_grad (1) 用法 (2) 说明上例的“具体操作”中均不更新梯度,这样可以节约计算...

  • torch减少显存使用

    被包裹起来的上下文不走tracking,减少显存的堆积占用 torch.no_grad也可以作为注解的写法 清理显...

网友评论

    本文标题:with torch.no_grad():

    本文链接:https://www.haomeiwen.com/subject/sncexdtx.html