美文网首页
快速建立Pytorch的训练Pipline

快速建立Pytorch的训练Pipline

作者: Shelomith | 来源:发表于2021-08-11 15:53 被阅读0次

记录一下Pytorch构建的通用,简单的完整训练过程的代码结构。
假定你已经知道了简单的神经网络原理。
在实际的项目中,需要按找需要在对应模块中增加功能。

目录

1.必要的导入包

2.Dataset准备

3.模型构建

4.Train/test过程

5.调用训练好的模型

1.必要的导入包

import torch
from torch import nn  #构建神经网络的包
from torch.utils.data import DataLoader
from torchvision import datasets
from torchvision.transforms import ToTensor, Lambda, Compose

2.Dataset准备
Pytorch中使用Dataset和Dataloader来处理模型数据。
Dataset是原始的训练数据在python中的对象。
Dataloader是针对于Datset的遍历器,在训练过程中也负责提供每个Batch的数据。

本例中使用Pytorch自带的FashionMNIST数据集,第一次运行程序会自动下载。

#对应的包
from torch.utils.data import DataLoader
from torchvision import datasets   #以pytorch中 CV任务的自带数据集为例

#构建train和test 数据集的例子
training_data = datasets.FashionMNIST(
    root="data",
    train = True,
    download= True,
    transform=ToTensor(),
)

test_data = datasets.FashionMNIST(
    root="data",
    train = False,
    download= True,
    transform=ToTensor(),
)

#构建两个Dataloader用来读取数据
batch_size=64
train_dataloader = DataLoader(training_data,batch_size=batch_size)
test_dataloader = DataLoader(test_data,batch_size=batch_size)

3.模型构建
模型构建一般构建一个Class,定义好模型的各层以及相关参数,构建Forward函数用来做前向传播。

from torch import nn

class NeuralNetwork(nn.Module):
    def __init__(self):
        super(NeuralNetwork,self).__init__()
        self.flatten = nn.Flatten()
        self.linear_relu_stack = nn.Sequential(
            nn.Linear(28*28, 512),
            nn.ReLU(),
            nn.Linear(512, 512),
            nn.ReLU(),
            nn.Linear(512, 10),
            nn.ReLU()
        )

    def forward(self,x):
        x = self.flatten(x)
        logits = self.linear_relu_stack(x)
        return logits

4.Train/test过程
一般也是程序的Main函数。一般要进行:
设备的初始化,各类参数的初始化,训练模型的实例化,以及实际训练和测试过程的进行。

from torch import nn
import torch

#设备的初始化
device = "cuda" if torch.cuda.is_available() else "cpu"
print("Using {} device", format(device))

#模型实例化,lossfunction,优化函数的定义,
model = NeuralNetwork().to(device)
loss_fn = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(model.parameters(), lr=1e-3)

#训练过程的函数定义
def train(dataloader, model, loss_fn, optimizer):
    size = len(dataloader.dataset)
    for batch, (X,y) in enumerate(dataloader):
        X, y = X.to(device), y.to(device)

        #compute prediction error
        pred = model(X)
        loss = loss_fn(pred, y)

        #back propagation
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

        if batch%100 == 0:
            loss, current = loss.item(), batch*len(X)
            print(f"loss:{loss:>7f} [{current:>5d}/{size:>5d}]")

#测试过程的函数的定义
def test(dataloader, model, loss_fn):
    size = len(dataloader.dataset)
    num_batches = len(dataloader)
    model.eval()
    test_loss, correct = 0, 0
    with torch.no_grad():
        for X, y in dataloader:
            X, y = X.to(device), y.to(device)
            pred = model(X)
            test_loss = loss_fn(pred, y)
            correct += (pred.argmax(1) == y).type(torch.float).sum().item()

    test_loss /= num_batches
    correct /= size
    print(f"Test Error: \n Accuracy: {(100*correct):>0.1f}%, avg loss: {test_loss:>8f} \n")

#主函数,定义训练的epoch,调用函数进行训练和测试
epochs = 5
for t in range(epochs):
    train(train_dataloader,model,loss_fn,optimizer)
    test(test_dataloader, model, loss_fn)
    print(f"Epoch {t+1}\n")

#保存模型
torch.save(model.state_dict(), "model.pth")

5.调用训练好的模型

#加载训练好的模型
model = NeuralNetwork()
model.load_state_dict(torch.load("model.pth"))

#预测标签
classes = [
    "T-shirt/top",
    "Trouser",
    "Pullover",
    "Dress",
    "Coat",
    "Sandal",
    "Shirt",
    "Sneaker",
    "Bag",
    "Ankle boot",
]

#测试模式
model.eval()

#测试过程
X,y = test_data[0][0], test_data[0][1]
with torch.no_grad():
    pred = model(X)
    predicted, actual = classes[pred[0].argmax(0)], classes[y]
    print(f'Predicted: "{predicted}", Actual:"{actual}"')

以上部分代码按照功能划分,仅保留了最重要的部分,实际项目中的代码必然更为复杂和详细。
可以按照需要和功能,将不同的代码块放到不同的py文件中,使用时导入调用即可。

相关文章

网友评论

      本文标题:快速建立Pytorch的训练Pipline

      本文链接:https://www.haomeiwen.com/subject/mqdcbltx.html