美文网首页
【pytorch】模型的搭建保存加载

【pytorch】模型的搭建保存加载

作者: DeepWeaver | 来源:发表于2017-12-06 09:47 被阅读500次

    搭建ConvNet

    所有的网络都要继承torch.nn.Module,然后在构造函数中使用torch.nn中的提供的接口定义layer的属性,最后,在forward函数中将各个layer连接起来。

    class LeNet(nn.Module):  
        def __init__(self):  
            super(LeNet, self).__init__()  
            self.conv1 = nn.Conv2d(3, 6, 5)  
            self.conv2 = nn.Conv2d(6, 16, 5)  
            self.fc1   = nn.Linear(16*5*5, 120)  
            self.fc2   = nn.Linear(120, 84)  
            self.fc3   = nn.Linear(84, 10)  
      
        def forward(self, x):  
            x = F.relu(self.conv1(x))  
            x = F.max_pool2d(x, 2)  
            x = F.relu(self.conv2(x))  
            x = F.max_pool2d(x, 2)  
            x = x.view(x.size(0), -1)  
            x = F.relu(self.fc1(x))  
            x = F.relu(self.fc2(x))  
            out = self.fc3(x)  
            return out  
    

    这样一来,我们就搭建好了网络模型,是不是很简洁明了呢?此外,还可以使用torch.nn.Sequential,更方便进行模块化的定义,如下:

    class LeNetSeq(nn.Module):  
        def __init__(self):  
            super(LeNetSeq, self).__init__()  
            self.conv = nn.Sequential(  
                nn.Conv2d(3, 6, 5),  
                nn.ReLU(),  
                nn.MaxPool2d(2),  
                nn.Conv2d(6, 16, 5),  
                nn.ReLU(),  
                nn.MaxPool2d(2),  
            )  
      
            self.fc = nn.Sequential(  
                nn.Linear(16*5*5, 120),  
                nn.ReLU(),  
                nn.Linear(120, 84),  
                nn.ReLU(),  
                nn.Linear(84, 10)  
            )  
              
        def forward(self, x):  
            x = self.conv(x)  
            x = out.view(x.size(0), -1)  
            out = self.fc(x)  
            return out  
    

    Module有很多属性,可以查看权重、参数等等;如下:

    net = lenet.LeNet()  
    print(net)  
      
    for param in net.parameters():  
         print(type(param.data), param.size())  
         print(list(param.data))   
      
    print(net.state_dict().keys())  
    #参数的keys  
      
    for key in net.state_dict():#模型参数  
        print key, 'corresponds to', list(net.state_dict()[key])  
    

    那么,如何进行参数初始化呢?使用 torch.nn.init ,如下:

    def initNetParams(net):  
        '''''Init net parameters.'''  
        for m in net.modules():  
            if isinstance(m, nn.Conv2d):  
                init.xavier_uniform(m.weight)  
                if m.bias:  
                    init.constant(m.bias, 0)  
            elif isinstance(m, nn.BatchNorm2d):  
                init.constant(m.weight, 1)  
                init.constant(m.bias, 0)  
            elif isinstance(m, nn.Linear):  
                init.normal(m.weight, std=1e-3)  
                if m.bias:  
                    init.constant(m.bias, 0)  
      
    initNetParams(net)  
    

    保存ConvNet

    使用torch.save()对网络结构和模型参数的保存,有两种保存方式:

    保存整个神经网络的的结构信息和模型参数信息,save的对象是网络net;
    保存神经网络的训练模型参数,save的对象是net.state_dict()。

    torch.save(net1, 'net.pkl')  # 保存整个神经网络的结构和模型参数      
    torch.save(net1.state_dict(), 'net_params.pkl') # 只保存神经网络的模型参数   
    

    加载ConvNet

    对应上面两种保存方式,重载方式也有两种。

    对应第一种完整网络结构信息,重载的时候通过torch.load(‘.pth’)直接初始化新的神经网络对象即可。
    对应第二种只保存模型参数信息,需要首先导入对应的网络,通过net.load_state_dict(torch.load('.pth'))完成模型参数的重载。
    在网络比较大的时候,第一种方法会花费较多的时间,所占的存储空间也比较大。

    # 保存和加载整个模型    
    torch.save(model_object, 'model.pth')    
    model = torch.load('model.pth')    
      
    # 仅保存和加载模型参数    
    torch.save(model_object.state_dict(), 'params.pth')    
    model_object.load_state_dict(torch.load('params.pth'))    
    
    image.png

    相关文章

      网友评论

          本文标题:【pytorch】模型的搭建保存加载

          本文链接:https://www.haomeiwen.com/subject/wphkixtx.html