美文网首页
看pytorch official tutorials的新收获(

看pytorch official tutorials的新收获(

作者: 赖子啊 | 来源:发表于2019-12-02 19:24 被阅读0次

上一篇关于PyTorch学习教程的博客:看pytorch official tutorials的新收获(持续更新)

7 torchvision.utils

这里面就只有两个函数:
torchvision.utils.make_grid(tensor, nrow=8, padding=2, normalize=False, range=None, scale_each=False, pad_value=0)和
torchvision.utils.save_image(tensor, fp, nrow=8, padding=2, normalize=False, range=None, scale_each=False, pad_value=0, format=None)。
一个是显示图片制作网格,另一个是保存图片。通常显示图片会和下面这个show函数配合使用,就会自动显示一个batch的图片:

def show(img):
    npimg = img.numpy()
    plt.imshow(np.transpose(npimg, (1, 2, 0)), interpolation='nearest')

可以在这里看一下我的例子

8 torch.nn.MaxPool2d()

以前就知道这个就是一个最大池化的操作,今天看到有人用了ceil_mode的参数,就又看了官网,其实很好理解:
torch.nn.MaxPool2d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)
return_indices设置为True,意思就是也返回最大值的那个索引,在之后的torch.nn.MaxUnpool2d会很有用;
ceil_mode设置为True, 在计算输出形状的时候会使用ceil而不是floor,一般我们像之前卷积的时候都是默认向下取整,现在就是向上取整
计算公式如下(torch.nn.Conv2d()的计算也是这样的):

MaxPool2d输出shape计算公式

9 torch.save()保存模型/torch.load()加载模型

下面这两点都称作Serialization操作。记得之前看pytorch里面有两种模型保存的模式:第一种是只保存模型的参数,之后加载的时候得先把模型的结构搭起来,然后把模型的值赋进去;第二种是不仅保存模型参数的值,也把模型的结构保存下来,这样显然会更占用空间一点。
<b><font size=4 color=green>上面第一种的写法(这是推荐的写法):</font></b>

torch.save(the_model.state_dict(), PATH)
the_model = TheModelClass(*args, **kwargs)
the_model.load_state_dict(torch.load(PATH))

<b><font size=4 color=red>上面第二种的写法(因为这个方法受限于特定的类和目录结构,所以重构时可能会碰到很多问题,所以不建议):</font></b>

torch.save(the_model, PATH)
the_model = torch.load(PATH)

model.state_dict()就是把模型的名字和值以字典的形式给出,而如果除了想保存模型的参数值之外,还想保存一下别的量,比如epoch数,准确度阿,都可以进行打包成字典,然后保存,举个例子:

state = {
'net': net.state_dict(),
'acc': acc,
'epoch': epoch,
}
torch.save(state, save_path)

这一块就是注意保存和加载的时候最好是同样的环境就不太会出错,出错网上都会有相应的解决办法,等自己遇错以后看看能不能再来补充一点。

10 权重初始化:nn.init

当我们进行自己模型搭建的时候,常常会考虑到参数初始化,有时候初始化对于训练确实很重要,这里就介绍一下权重初始化。主要要用到这个包from torch.nn import init,还有很多的子函数,列举几个常见的:
torch.nn.init.constant_(tensor, val)
torch.nn.init.xavier_normal_(tensor, gain=1.0)
torch.nn.init.kaiming_normal_(tensor, a=0, mode='fan_in', nonlinearity='leaky_relu')
其实在我们没有指定初始化方法的时候,pytorch自身也会使用默认的参数初始化方法:
比如可以通过源码看到Conv2d继承_ConvNd,在类 _ConvNd有定义下面的函数

def reset_parameters(self):
        n = self.in_channels
        init.kaiming_uniform_(self.weight, a=math.sqrt(5))
        if self.bias is not None:
            fan_in, _ = init._calculate_fan_in_and_fan_out(self.weight)
            bound = 1 / math.sqrt(fan_in)
            init.uniform_(self.bias, -bound, bound)

类似的nn.Linearnn.BatchNorm2d都有自己的默认初始化函数,这里就不放了。主要是要实现自己的初始化可以这样写,根据不同的层类型,用不同的初始化方法,注意是调用tensor.data形式:

from torch.nn import init

def weigth_init(m):
    if isinstance(m, nn.Conv2d):
        init.xavier_uniform_(m.weight.data)
        init.constant_(m.bias.data,0)
    elif isinstance(m, nn.BatchNorm2d):
        m.weight.data.fill_(1)
        m.bias.data.zero_()
    elif isinstance(m, nn.Linear):
        m.weight.data.normal_(0,0.01)
        m.bias.data.zero_()
        
  #实例化自己搭建的模型,apply()为内建函数
    model = Net()
    model.apply(weigth_init)

相关文章

网友评论

      本文标题:看pytorch official tutorials的新收获(

      本文链接:https://www.haomeiwen.com/subject/bwwfgctx.html