在Python中通过tensorboard_logger实现神经网络模型训练过程可视化对比
发布时间:2024-01-09 09:30:27
在Python中,我们可以使用tensorboard_logger来实现神经网络模型训练过程的可视化。tensorboard_logger是一个用于将日志信息导入TensorBoard的轻量级库。
下面是一个使用tensorboard_logger可视化神经网络模型训练过程的例子:
首先,我们需要安装tensorboard_logger库。可以使用以下命令在终端中安装:
pip install tensorboard_logger
接下来,我们需要导入必要的库和模块:
import torch import torch.nn as nn import torch.optim as optim import torchvision.datasets as datasets import torchvision.transforms as transforms from torch.utils.data import DataLoader from tensorboard_logger import configure, log_value
然后,我们定义一个简单的神经网络模型:
class SimpleNet(nn.Module):
def __init__(self):
super(SimpleNet, self).__init__()
self.fc = nn.Linear(784, 10)
def forward(self, x):
x = x.view(x.size(0), -1)
x = self.fc(x)
return x
接下来,我们加载MNIST数据集,并进行必要的数据预处理操作:
train_dataset = datasets.MNIST(root='./data', train=True, transform=transforms.ToTensor(), download=True) test_dataset = datasets.MNIST(root='./data', train=False, transform=transforms.ToTensor(), download=True) train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True) test_loader = DataLoader(test_dataset, batch_size=64, shuffle=True)
然后,我们定义训练过程的函数:
def train(model, train_loader, optimizer, criterion, epoch):
model.train()
for batch_index, (data, target) in enumerate(train_loader):
data = data.cuda()
target = target.cuda()
optimizer.zero_grad()
output = model(data)
loss = criterion(output, target)
loss.backward()
optimizer.step()
if batch_index % 10 == 0:
log_value('train_loss', loss.item(), epoch * len(train_loader) + batch_index)
def test(model, test_loader, criterion, epoch):
model.eval()
test_loss = 0
correct = 0
with torch.no_grad():
for data, target in test_loader:
data = data.cuda()
target = target.cuda()
output = model(data)
test_loss += criterion(output, target).item()
pred = output.argmax(dim=1, keepdim=True)
correct += pred.eq(target.view_as(pred)).sum().item()
test_loss /= len(test_loader.dataset)
accuracy = correct / len(test_loader.dataset)
log_value('test_loss', test_loss, epoch)
log_value('accuracy', accuracy, epoch)
最后,我们定义主函数并进行模型训练:
def main():
model = SimpleNet()
model.cuda()
optimizer = optim.SGD(model.parameters(), lr=0.01)
criterion = nn.CrossEntropyLoss()
configure('logs')
for epoch in range(10):
train(model, train_loader, optimizer, criterion, epoch)
test(model, test_loader, criterion, epoch)
if __name__ == '__main__':
main()
在上面的代码中,我们调用了log_value函数来将训练过程中的loss和准确率信息记录下来,并将其导入TensorBoard进行可视化展示。在终端中运行以下命令来启动TensorBoard服务器:
tensorboard --logdir=logs
然后,在浏览器中访问http://localhost:6006可以看到模型训练过程的可视化结果。
通过使用tensorboard_logger,我们可以方便地对神经网络模型的训练过程进行可视化,从而更直观地了解模型的性能和进展情况。
