美文网首页
torch实现经典数字集案例

torch实现经典数字集案例

作者: 过过的算法笔记 | 来源:发表于2023-04-05 11:24 被阅读0次

    机器学习是计算机科学的一个重要领域,它涉及了大量的算法和技术。随着深度学习的兴起,PyTorch已经成为了机器学习领域中最受欢迎的框架之一。在本文中,我们将介绍一个经典的机器学习案例,并使用PyTorch实现。

    经典案例介绍

    手写数字识别是机器学习领域中的一个经典案例。该案例的目标是根据输入的手写数字图像,自动识别出它代表的数字。这个问题通常被称为图像分类问题。

    手写数字识别是一个重要的应用场景,它可以应用于很多实际的场景中。比如说,在邮件分拣中,自动识别邮件上手写的邮政编码;在银行业中,自动识别支票上的金额等等。

    PyTorch实现

    下面我们将介绍如何使用PyTorch实现手写数字识别。

    首先,我们需要导入必要的库。

    import torch
    import torch.nn as nn
    import torch.optim as optim
    import torchvision.datasets as datasets
    import torchvision.transforms as transforms
    
    

    接着,我们需要准备数据集。在这个案例中,我们使用MNIST数据集。这个数据集包含了大量手写数字的图像,每个图像都有对应的标签,标签表示该图像代表的数字。我们可以使用torchvision库来下载和加载MNIST数据集。

    # 定义数据预处理
    transform = transforms.Compose([transforms.ToTensor(),
                                    transforms.Normalize((0.1307,), (0.3081,))])
    
    # 加载MNIST数据集
    train_dataset = datasets.MNIST(root='./data', train=True, download=True, transform=transform)
    test_dataset = datasets.MNIST(root='./data', train=False, download=True, transform=transform)
    
    # 创建数据加载器
    train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=64, shuffle=True)
    test_loader = torch.utils.data.DataLoader(test_dataset, batch_size=64, shuffle=False)
    
    

    接下来,我们需要定义模型。在这个案例中,我们使用一个简单的卷积神经网络。这个网络包含两个卷积层、两个池化层、一个全连接层和一个输出层。最后一层输出10个值,分别表示0-9这10个数字的概率。

    class Net(nn.Module):
        def __init__(self):
            super(Net, self).__init__()
            self.conv1 = nn.Conv2d(1, 32, kernel_size=5)
            self.conv2 = nn.Conv2d(32, 64, kernel_size=5)
            self.pool = nn.MaxPool2d(2)
            self.fc1 = nn.Linear(1024, 128)
            self.fc2 = nn.Linear(128, 10)
    
        def forward(self, x):
            x = self.pool(torch
    
    

    接着上文,我们定义了一个卷积神经网络模型,接下来我们需要训练这个模型。在训练之前,我们需要定义损失函数和优化器。

    model = Net()
    criterion = nn.CrossEntropyLoss()
    optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.5)
    
    

    我们使用交叉熵损失函数作为我们的损失函数,使用随机梯度下降法作为我们的优化器。接下来我们定义一个训练函数,用于在训练数据集上训练我们的模型。

    def train(model, train_loader, criterion, optimizer, epoch):
        model.train()
        for batch_idx, (data, target) in enumerate(train_loader):
            optimizer.zero_grad()
            output = model(data)
            loss = criterion(output, target)
            loss.backward()
            optimizer.step()
            if batch_idx % 100 == 0:
                print('Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format(
                    epoch, batch_idx * len(data), len(train_loader.dataset),
                    100. * batch_idx / len(train_loader), loss.item()))
    
    

    在每个epoch中,我们遍历训练数据集,并计算出模型在每个batch上的损失。然后我们使用反向传播算法来计算梯度,并使用优化器来更新模型参数。我们还打印了每个epoch的平均损失。

    接下来,我们定义一个测试函数,用于在测试数据集上测试我们的模型。

    def test(model, test_loader, criterion):
        model.eval()
        test_loss = 0
        correct = 0
        with torch.no_grad():
            for data, target in test_loader:
                output = model(data)
                test_loss += criterion(output, target).item()
                pred = output.argmax(dim=1, keepdim=True)
                correct += pred.eq(target.view_as(pred)).sum().item()
    
        test_loss /= len(test_loader.dataset)
    
        print('\nTest set: Average loss: {:.4f}, Accuracy: {}/{} ({:.0f}%)\n'.format(
            test_loss, correct, len(test_loader.dataset),
            100. * correct / len(test_loader.dataset)))
    
    

    我们遍历测试数据集,并计算模型在每个样本上的损失和正确的预测数。最后我们打印出模型在测试数据集上的平均损失和准确率。

    现在我们已经定义了训练和测试函数,我们可以使用它们来训练我们的模型了。

    for epoch in range(1, 11):
        train(model, train_loader, criterion, optimizer, epoch)
        test(model, test_loader, criterion)
    
    

    我们将训练10个epoch,每个epoch打印一次训练损失,并在每个epoch结束后测试模型在测试数据集上的性能。最终我们可以得到以下输出结果:

    Train Epoch: 1 [0/60000 (0%)]   Loss: 2.299191
    Train Epoch: 1 [6400/60000 (11%)]   Loss
    
    

    在这个案例中,我们使用PyTorch实现了一个简单的卷积神经网络模型,并使用MNIST数据集对其进行训练和测试。我们在训练过程中使用了交叉熵损失函数和随机梯度下降优化器,同时使用了训练数据集和测试数据集对模型进行了评估。最终,我们得到了一个在MNIST数据集上表现良好的模型,它可以达到接近99%的准确率。

    当然,这只是一个简单的例子。在实际的机器学习项目中,我们可能需要更复杂的模型和更大规模的数据集。但是通过这个案例,我们可以了解到如何使用PyTorch实现一个基本的卷积神经网络,并对其进行训练和测试。

    完整代码

    import torch
    import torch.nn as nn
    import torch.nn.functional as F
    import torch.optim as optim
    from torchvision import datasets, transforms
    
    class Net(nn.Module):
        def __init__(self):
            super(Net, self).__init__()
            self.conv1 = nn.Conv2d(1, 10, kernel_size=5)
            self.conv2 = nn.Conv2d(10, 20, kernel_size=5)
            self.fc1 = nn.Linear(320, 50)
            self.fc2 = nn.Linear(50, 10)
    
        def forward(self, x):
            x = F.relu(F.max_pool2d(self.conv1(x), 2))
            x = F.relu(F.max_pool2d(self.conv2(x), 2))
            x = x.view(-1, 320)
            x = F.relu(self.fc1(x))
            x = self.fc2(x)
            return F.log_softmax(x, dim=1)
    
    def train(model, train_loader, criterion, optimizer, epoch):
        model.train()
        for batch_idx, (data, target) in enumerate(train_loader):
            optimizer.zero_grad()
            output = model(data)
            loss = criterion(output, target)
            loss.backward()
            optimizer.step()
            if batch_idx % 100 == 0:
                print('Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format(
                    epoch, batch_idx * len(data), len(train_loader.dataset),
                    100. * batch_idx / len(train_loader), loss.item()))
    
    def test(model, test_loader, criterion):
        model.eval()
        test_loss = 0
        correct = 0
        with torch.no_grad():
            for data, target in test_loader:
                output = model(data)
                test_loss += criterion(output, target).item()
                pred = output.argmax(dim=1, keepdim=True)
                correct += pred.eq(target.view_as(pred)).sum().item()
    
        test_loss /= len(test_loader.dataset)
    
        print('\nTest set: Average loss: {:.4f}, Accuracy: {}/{} ({:.0f}%)\n'.format(
            test_loss, correct, len(test_loader.dataset),
            100. * correct / len(test_loader.dataset)))
    
    if __name__ == '__main__':
        torch.manual_seed(42)
    
        transform = transforms.Compose([
            transforms.ToTensor(),
            transforms.Normalize((0.1307,), (0.3081,))
        ])
    
        train_dataset = datasets.MNIST('data/', train=True, download=True, transform=transform)
        test_dataset = datasets.MNIST('data/', train=False, download=True, transform=transform)
    
        train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=64, shuffle=True)
        test_loader = torch.utils.data.DataLoader(test_dataset, batch_size=1000)
    
        model = Net()
        criterion = nn.CrossEntropyLoss()
        optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.5)
    
        for epoch in range(1, 11):
            train(model, train_loader, criterion, optimizer, epoch)
            test(model, test_loader, criterion)
    
    

    在上述代码中,我们首先设置了随机数种子,以确保结果的可重复性。然后我们使用transforms模块对MNIST数据集进行了预处理,包括将每个样本转换为张量并进行归一化。接下来我们定义网络模型Net,该模型包含两个卷积层和两个全连接层。在forward函数中,我们首先应用了两个卷积层和最大池化层来提取图像中的特征,然后将其展平并传递给两个全连接层进行分类。

    然后我们定义了train函数和test函数,分别用于训练和评估模型。在train函数中,我们首先将模型设置为训练模式,然后遍历训练集并执行前向传递、计算损失、反向传播和参数更新操作。在每个epoch的第一个batch中,我们打印出当前的训练进度和损失。在test函数中,我们将模型设置为评估模式,遍历测试集并计算平均损失和准确率。最后,在主函数中,我们使用SGD优化器对模型进行训练,并在训练过程中进行测试。

    运行这段代码,我们可以看到模型在MNIST数据集上表现良好,最终的准确率可以达到接近99%。当然,这只是一个简单的例子,实际的机器学习项目中我们可能需要更复杂的模型和更大规模的数据集,但是通过这个案例,我们可以了解到如何使用PyTorch实现一个基本的卷积神经网络,并对其进行训练和测试。

    本文由mdnice多平台发布

    相关文章

      网友评论

          本文标题:torch实现经典数字集案例

          本文链接:https://www.haomeiwen.com/subject/jjmeddtx.html