欢迎访问宙启技术站
智能推送

PyTorch中的CIFAR100数据集:如何进行训练和测试

发布时间:2023-12-29 13:03:39

在PyTorch中,CIFAR100是一个广泛使用的图像分类数据集,包含100个类别的60000个32x32彩色图像,每个类别包含600个图像。其中训练集包含50000个图像,测试集包含10000个图像。本文将为您介绍如何使用PyTorch对CIFAR100数据集进行训练和测试。

首先,您需要导入相关的PyTorch库和模块:

import torch
import torchvision
import torchvision.transforms as transforms
import torch.nn as nn
import torch.optim as optim

接下来,您需要对数据集进行预处理。PyTorch提供了torchvision.transforms模块来处理图像的转换操作,如裁剪、翻转、归一化等。您可以使用以下代码对数据集进行预处理:

transform_train = transforms.Compose([
    transforms.RandomCrop(32, padding=4),
    transforms.RandomHorizontalFlip(),
    transforms.ToTensor(),
    transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))
])

transform_test = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))
])

上述代码中,我们对训练集进行了随机裁剪、水平翻转,并将图像转换为张量,然后对每个通道进行了归一化。

接着,您需要通过以下代码加载CIFAR100数据集:

trainset = torchvision.datasets.CIFAR100(root='./data', train=True, download=True, transform=transform_train)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=128, shuffle=True, num_workers=2)

testset = torchvision.datasets.CIFAR100(root='./data', train=False, download=True, transform=transform_test)
testloader = torch.utils.data.DataLoader(testset, batch_size=128, shuffle=False, num_workers=2)

classes = trainset.classes

上述代码中,我们将训练集和测试集加载到trainset和testset中,并使用DataLoader创建训练和测试的数据加载器。通过设置batch_size参数,您可以指定每个批次加载的图像数量。shuffle=True表示训练集将在每个epoch时随机打乱。

接下来,您需要定义一个卷积神经网络。以下是一个简单的卷积网络示例:

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = nn.Conv2d(3, 64, 5)
        self.pool = nn.MaxPool2d(2, 2)
        self.conv2 = nn.Conv2d(64, 64, 5)
        self.fc1 = nn.Linear(64 * 5 * 5, 256)
        self.fc2 = nn.Linear(256, 100)

    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.pool(F.relu(self.conv2(x)))
        x = x.view(-1, 64 * 5 * 5)
        x = F.relu(self.fc1(x))
        x = self.fc2(x)
        return x

net = Net()

上述代码定义了一个具有两个卷积层、两个全连接层和ReLU激活函数的卷积神经网络。

接着,您可以选择一个损失函数和优化器。这里我们选择交叉熵损失函数和随机梯度下降(SGD)优化器:

criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

现在,您可以使用以下代码对网络进行训练:

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
net.to(device)

for epoch in range(10):
    running_loss = 0.0
    for i, data in enumerate(trainloader, 0):
        inputs, labels = data[0].to(device), data[1].to(device)
        optimizer.zero_grad()

        outputs = net(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()

        running_loss += loss.item()
        if i % 200 == 199:
            print('[%d, %5d] loss: %.3f' %
                  (epoch + 1, i + 1, running_loss / 200))
            running_loss = 0.0

print('Finished Training')

上述代码中,我们首先将网络移动到GPU(如果可用)。然后,我们将训练循环嵌套在一个epoch循环中,在每个epoch中,我们将每个批次的输入和标签加载到GPU上,并执行前向传播、计算损失、反向传播和优化步骤。训练过程中打印每200个批次的平均损失。

最后,您可以使用以下代码对训练后的网络进行测试:

correct = 0
total = 0
with torch.no_grad():
    for data in testloader:
        images, labels = data[0].to(device), data[1].to(device)
        outputs = net(images)
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()

print('Accuracy of the network on the 10000 test images: %.2f %%' % (100 * correct / total))

上述代码中,我们首先将测试数据加载到GPU上,然后使用训练后的网络对测试数据进行预测,并计算准确率。

至此,您已学会如何使用PyTorch对CIFAR100数据集进行训练和测试。您可以根据需要调整网络结构、损失函数和优化器,以获取更好的分类性能。