# 在使用1.2.0版本以上的PyTorch的情况下,一般来说,直接使用pip安装即可
pip install tensorboard
这样直接安装之后,有可能打开的tensorboard网页是全白的,如果有这种问题,解决方法是卸载之后安装更低版本的tensorboard。
pip uninstall tensorboard
pip install tensorboard==2.0.2
import torch
from torch.utils.tensorboard import SummaryWriter
# SummaryWriter的作用就是,将数据以特定的格式存储到刚刚提到的那个文件夹中
#实例化
writer = SummaryWriter('./log/tensorboard')
#这里传入的参数就是指向文件夹的路径,之后我们使用这个writer对象“拿出来”的任何数据都保存在这个路径之下。
#这个对象包含多个方法,比如针对数值,我们可以调用
Training Loop:
***
writer.add_scalar('loss/train_loss', avg_train_loss, epoch)
writer.add_scalar('loss/val_loss', val_loss, epoch)
writer.add_scalar('loss/val_accuracy', val_accuracy, epoch)
***
tensorboard --logdir=./log/tensorboard --port 8123
# 另外再开一个jupyter notebook 运行以下代码,有可能上次运行的还没关闭,需要换端口
%reload_ext tensorboard
%tensorboard --logdir ./log/tensorboard --port 8100
命名变量的时候可以使用形如
writer.add_scalar('loss/train_loss', avg_train_loss, epoch)
writer.add_scalar('loss/val_loss', val_loss, epoch)
writer.add_scalar('loss/val_accuracy', val_accuracy, epoch)
的格式,这样3个loss就会被显示在同一个section。
假如使用了两种学习率去训练同一个网络,想要比较它们训练过程中的loss曲线,只需要将两个日志文件夹放到同一目录下,并在命令行运行
tensorboard --logdir=./path/to/the/root --port 8123
注意: tensorboard并不是实时显示(visdom是完全实时的),而是默认30秒刷新一次。第一次安装完注意环境变量配置,或者直接重启以下电脑就好了。