美文网首页
保存和提取神经网络

保存和提取神经网络

作者: 地平线上的背影 | 来源:发表于2019-02-13 10:46 被阅读0次

神经网络训练中经常会有中断/重复训练/重现的需求,所以本文记录关于神经网络保存和提取的代码

1. 准备数据

import torch
import matplotlib.pyplot as plt

# torch.manual_seed(1)    # reproducible

# fake data
x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1)  # x data (tensor), shape=(100, 1)
y = x.pow(2) + 0.2*torch.rand(x.size())  # noisy y data (tensor), shape=(100, 1)

# The code below is deprecated in Pytorch 0.4. Now, autograd directly supports tensors
# x, y = Variable(x, requires_grad=False), Variable(y, requires_grad=False)

2.保存神经网络模型

构建函数直接保存整个网络模型

def save():
    # save net1
    net1 = torch.nn.Sequential(
        torch.nn.Linear(1, 10),
        torch.nn.ReLU(),
        torch.nn.Linear(10, 1)
    )
    optimizer = torch.optim.SGD(net1.parameters(), lr=0.5)
    loss_func = torch.nn.MSELoss()

    for t in range(100):
        prediction = net1(x)
        loss = loss_func(prediction, y)
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

    # plot result
    plt.figure(1, figsize=(10, 3))
    plt.subplot(131)
    plt.title('Net1')
    plt.scatter(x.data.numpy(), y.data.numpy())
    plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5)

    # 2 ways to save the net
    torch.save(net1, 'net.pkl')  # save entire net
    torch.save(net1.state_dict(), 'net_params.pkl')   # save only the parameters

注:

  1. torch.save(net, 'net.pkl'):通过 torch 自带的 save() 函数将整个网络保存为 pkl 文件
  2. torch.save(net.state_dict(), 'net_params.pkl') :通过 torch 自带的 save() 函数,以 net.state_dict() 方式仅保存网络的参数和结构于 pkl 文件中

3. 提取神经网络模型

3.1 从 pkl 文件提取整个网络
def restore_net():
    # restore entire net1 to net2
    net2 = torch.load('net.pkl')
    prediction = net2(x)

    # plot result
    plt.subplot(132)
    plt.title('Net2')
    plt.scatter(x.data.numpy(), y.data.numpy())
    plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5)

注:使用 torch.load() 函数从pkl 文件中直接提取整个网络

3.2 从pkl文件中提取神经网络参数
def restore_params():
    # restore only the parameters in net1 to net3
    net3 = torch.nn.Sequential(
        torch.nn.Linear(1, 10),
        torch.nn.ReLU(),
        torch.nn.Linear(10, 1)
    )

    # copy net1's parameters into net3
    net3.load_state_dict(torch.load('net_params.pkl'))
    prediction = net3(x)

注:在 pkl 中仅提取参数需要使用 torch.load_state_dict() 函数

4. 画图部分

    # plot result
    plt.subplot(133)
    plt.title('Net3')
    plt.scatter(x.data.numpy(), y.data.numpy())
    plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5)
    plt.show()

5. 保存和提取神经网络

# save net1
save()

# restore entire net (may slow)
restore_net()

# restore only the net parameters
restore_params()

相关文章

  • 保存和提取神经网络

    神经网络训练中经常会有中断/重复训练/重现的需求,所以本文记录关于神经网络保存和提取的代码 1. 准备数据 2.保...

  • PyTorch 神经网络保存和提取

     PyTorch 通过简单的途径来使用神经网络进行事物的分类. 更多可以查看官网 :* PyTorch 官网 快速...

  • 【Pytorch】保存网络-3

    快速地建造数据, 搭建网络 保存网络 提取网络 这种方式将会提取整个神经网络, 网络大的时候可能会比较慢. 只提取...

  • keras_Save & reload 保存提取

    介绍如何保存神经网络,这样以后想要用的时候直接提取就可以保存模型的步骤1.训练模型2.保存模型3.导入模型并应用 ...

  • Pytorch神经网络-区分类型和保存提取

    CrossEntropyLoss针对多分类问题使用的损失函数。计算的是Softmax,就是概率。最后输出的是每一个...

  • TensorFlow:保存和提取模型

    描述 在训练神经网络模型的时候,当模型训练完之后,确切地说当训练的session关闭之后,我们训练出来的模型参数会...

  • pytorch模型保存和加载

    模型保存 torch.save()实现对网络结构和模型参数的保存.有两种保存方式:一是保存整个神经网络的结构信息和...

  • 神经网络为什么深

    为什么神经网络越深效果越好?因为神经网络越深抽象程度越高。比如你输入一张周迅的脸,通过特征提取(即卷积过程),提取...

  • Tensorflow简单神经网络

    神经网络参数与Tensorflow变量 tf.Variable作用是保存和更新神经网络中的参数 其它生成器 函数随...

  • 神经网络实现过程

    神经网络实现过程: 准备数据集,提取特征,作为输入喂给神经网络(Neural Network, NN) 搭建NN结...

网友评论

      本文标题:保存和提取神经网络

      本文链接:https://www.haomeiwen.com/subject/puereqtx.html