欢迎访问宙启技术站
智能推送

在Python中通过tensorboard_logger实现神经网络模型训练过程可视化对比

发布时间:2024-01-09 09:30:27

在Python中,我们可以使用tensorboard_logger来实现神经网络模型训练过程的可视化。tensorboard_logger是一个用于将日志信息导入TensorBoard的轻量级库。

下面是一个使用tensorboard_logger可视化神经网络模型训练过程的例子:

首先,我们需要安装tensorboard_logger库。可以使用以下命令在终端中安装:

pip install tensorboard_logger

接下来,我们需要导入必要的库和模块:

import torch
import torch.nn as nn
import torch.optim as optim
import torchvision.datasets as datasets
import torchvision.transforms as transforms
from torch.utils.data import DataLoader

from tensorboard_logger import configure, log_value

然后,我们定义一个简单的神经网络模型:

class SimpleNet(nn.Module):
    def __init__(self):
        super(SimpleNet, self).__init__()
        self.fc = nn.Linear(784, 10)

    def forward(self, x):
        x = x.view(x.size(0), -1)
        x = self.fc(x)
        return x

接下来,我们加载MNIST数据集,并进行必要的数据预处理操作:

train_dataset = datasets.MNIST(root='./data', train=True, transform=transforms.ToTensor(), download=True)
test_dataset = datasets.MNIST(root='./data', train=False, transform=transforms.ToTensor(), download=True)

train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=64, shuffle=True)

然后,我们定义训练过程的函数:

def train(model, train_loader, optimizer, criterion, epoch):
    model.train()

    for batch_index, (data, target) in enumerate(train_loader):
        data = data.cuda()
        target = target.cuda()

        optimizer.zero_grad()
        output = model(data)
        loss = criterion(output, target)
        loss.backward()
        optimizer.step()

        if batch_index % 10 == 0:
            log_value('train_loss', loss.item(), epoch * len(train_loader) + batch_index)

def test(model, test_loader, criterion, epoch):
    model.eval()
    test_loss = 0
    correct = 0

    with torch.no_grad():
        for data, target in test_loader:
            data = data.cuda()
            target = target.cuda()

            output = model(data)
            test_loss += criterion(output, target).item()
            pred = output.argmax(dim=1, keepdim=True)
            correct += pred.eq(target.view_as(pred)).sum().item()

    test_loss /= len(test_loader.dataset)
    accuracy = correct / len(test_loader.dataset)

    log_value('test_loss', test_loss, epoch)
    log_value('accuracy', accuracy, epoch)

最后,我们定义主函数并进行模型训练:

def main():
    model = SimpleNet()
    model.cuda()

    optimizer = optim.SGD(model.parameters(), lr=0.01)
    criterion = nn.CrossEntropyLoss()

    configure('logs')

    for epoch in range(10):
        train(model, train_loader, optimizer, criterion, epoch)
        test(model, test_loader, criterion, epoch)

if __name__ == '__main__':
    main()

在上面的代码中,我们调用了log_value函数来将训练过程中的loss和准确率信息记录下来,并将其导入TensorBoard进行可视化展示。在终端中运行以下命令来启动TensorBoard服务器:

tensorboard --logdir=logs

然后,在浏览器中访问http://localhost:6006可以看到模型训练过程的可视化结果。

通过使用tensorboard_logger,我们可以方便地对神经网络模型的训练过程进行可视化,从而更直观地了解模型的性能和进展情况。