记录一下Pytorch构建的通用,简单的完整训练过程的代码结构。
假定你已经知道了简单的神经网络原理。
在实际的项目中,需要按找需要在对应模块中增加功能。
目录
1.必要的导入包
2.Dataset准备
3.模型构建
4.Train/test过程
5.调用训练好的模型
1.必要的导入包
import torch
from torch import nn #构建神经网络的包
from torch.utils.data import DataLoader
from torchvision import datasets
from torchvision.transforms import ToTensor, Lambda, Compose
2.Dataset准备
Pytorch中使用Dataset和Dataloader来处理模型数据。
Dataset是原始的训练数据在python中的对象。
Dataloader是针对于Datset的遍历器,在训练过程中也负责提供每个Batch的数据。
本例中使用Pytorch自带的FashionMNIST数据集,第一次运行程序会自动下载。
#对应的包
from torch.utils.data import DataLoader
from torchvision import datasets #以pytorch中 CV任务的自带数据集为例
#构建train和test 数据集的例子
training_data = datasets.FashionMNIST(
root="data",
train = True,
download= True,
transform=ToTensor(),
)
test_data = datasets.FashionMNIST(
root="data",
train = False,
download= True,
transform=ToTensor(),
)
#构建两个Dataloader用来读取数据
batch_size=64
train_dataloader = DataLoader(training_data,batch_size=batch_size)
test_dataloader = DataLoader(test_data,batch_size=batch_size)
3.模型构建
模型构建一般构建一个Class,定义好模型的各层以及相关参数,构建Forward函数用来做前向传播。
from torch import nn
class NeuralNetwork(nn.Module):
def __init__(self):
super(NeuralNetwork,self).__init__()
self.flatten = nn.Flatten()
self.linear_relu_stack = nn.Sequential(
nn.Linear(28*28, 512),
nn.ReLU(),
nn.Linear(512, 512),
nn.ReLU(),
nn.Linear(512, 10),
nn.ReLU()
)
def forward(self,x):
x = self.flatten(x)
logits = self.linear_relu_stack(x)
return logits
4.Train/test过程
一般也是程序的Main函数。一般要进行:
设备的初始化,各类参数的初始化,训练模型的实例化,以及实际训练和测试过程的进行。
from torch import nn
import torch
#设备的初始化
device = "cuda" if torch.cuda.is_available() else "cpu"
print("Using {} device", format(device))
#模型实例化,lossfunction,优化函数的定义,
model = NeuralNetwork().to(device)
loss_fn = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(model.parameters(), lr=1e-3)
#训练过程的函数定义
def train(dataloader, model, loss_fn, optimizer):
size = len(dataloader.dataset)
for batch, (X,y) in enumerate(dataloader):
X, y = X.to(device), y.to(device)
#compute prediction error
pred = model(X)
loss = loss_fn(pred, y)
#back propagation
optimizer.zero_grad()
loss.backward()
optimizer.step()
if batch%100 == 0:
loss, current = loss.item(), batch*len(X)
print(f"loss:{loss:>7f} [{current:>5d}/{size:>5d}]")
#测试过程的函数的定义
def test(dataloader, model, loss_fn):
size = len(dataloader.dataset)
num_batches = len(dataloader)
model.eval()
test_loss, correct = 0, 0
with torch.no_grad():
for X, y in dataloader:
X, y = X.to(device), y.to(device)
pred = model(X)
test_loss = loss_fn(pred, y)
correct += (pred.argmax(1) == y).type(torch.float).sum().item()
test_loss /= num_batches
correct /= size
print(f"Test Error: \n Accuracy: {(100*correct):>0.1f}%, avg loss: {test_loss:>8f} \n")
#主函数,定义训练的epoch,调用函数进行训练和测试
epochs = 5
for t in range(epochs):
train(train_dataloader,model,loss_fn,optimizer)
test(test_dataloader, model, loss_fn)
print(f"Epoch {t+1}\n")
#保存模型
torch.save(model.state_dict(), "model.pth")
5.调用训练好的模型
#加载训练好的模型
model = NeuralNetwork()
model.load_state_dict(torch.load("model.pth"))
#预测标签
classes = [
"T-shirt/top",
"Trouser",
"Pullover",
"Dress",
"Coat",
"Sandal",
"Shirt",
"Sneaker",
"Bag",
"Ankle boot",
]
#测试模式
model.eval()
#测试过程
X,y = test_data[0][0], test_data[0][1]
with torch.no_grad():
pred = model(X)
predicted, actual = classes[pred[0].argmax(0)], classes[y]
print(f'Predicted: "{predicted}", Actual:"{actual}"')
以上部分代码按照功能划分,仅保留了最重要的部分,实际项目中的代码必然更为复杂和详细。
可以按照需要和功能,将不同的代码块放到不同的py文件中,使用时导入调用即可。
网友评论