TensorFlow 2.0 常用模块2:TensorBoard
文 / 李锡涵,Google Developers Expert
本文节选自《简单粗暴 TensorFlow 2.0》
TensorBoard:训练过程可视化
有时,你希望查看模型训练过程中各个参数的变化情况(例如损失函数 loss 的值)。虽然可以通过命令行输出来查看,但有时显得不够直观。而 TensorBoard 就是一个能够帮助我们将训练过程可视化的工具。
首先在代码目录下建立一个文件夹(如 ./tensorboard
)存放 TensorBoard 的记录文件,并在代码中实例化一个记录器:
1summary_writer = tf.summary.create_file_writer('./tensorboard') # 参数为记录文件所保存的目录
tf.summary.scalar(name, tensor, step=batch_index)
,即可将训练过程中参数在 step 时候的值记录下来。这里的 step 参数可根据自己的需要自行制定,一般可设置为当前训练过程中的 batch 序号。整体框架如下:1summary_writer = tf.summary.create_file_writer('./tensorboard')
2
3for batch_index in range(num_batches):
4
5 with summary_writer.as_default():
6 tf.summary.scalar("loss", loss, step=batch_index)
7 tf.summary.scalar("MyScalar", my_scalar, step=batch_index)
每运行一次 tf.summary.scalar()
,记录器就会向记录文件中写入一条记录。除了最简单的标量(scalar)以外,TensorBoard 还可以对其他类型的数据(如图像,音频等)进行可视化,详见 TensorBoard 文档 。
当我们要对训练过程可视化时,在代码目录打开终端(如需要的话进入 TensorFlow 的 conda 环境),运行:
1tensorboard --logdir=./tensorboard
然后使用浏览器访问命令行程序所输出的网址(一般是 http:// 计算机名称:6006),即可访问 TensorBoard 的可视界面,如下图所示:
默认情况下,TensorBoard 每 30 秒更新一次数据。不过也可以点击右上角的刷新按钮手动刷新。
TensorBoard 的使用有以下注意事项:
如果需要重新训练,需要删除掉记录文件夹内的信息并重启 TensorBoard(或者建立一个新的记录文件夹并开启 TensorBoard,
--logdir
参数设置为新建立的文件夹);记录文件夹目录保持全英文。
最后提供一个实例,以前章的 多层感知机模型 为例展示 TensorBoard 的使用:
1import tensorflow as tf
2from zh.model.mnist.mlp import MLP
3from zh.model.utils import MNISTLoader
4
5num_batches = 10000
6batch_size = 50
7learning_rate = 0.001
8model = MLP()
9data_loader = MNISTLoader()
10optimizer = tf.keras.optimizers.Adam(learning_rate=learning_rate)
11summary_writer = tf.summary.create_file_writer('./tensorboard') # 实例化记录器
12for batch_index in range(num_batches):
13 X, y = data_loader.get_batch(batch_size)
14 with tf.GradientTape() as tape:
15 y_pred = model(X)
16 loss = tf.keras.losses.sparse_categorical_crossentropy(y_true=y, y_pred=y_pred)
17 loss = tf.reduce_mean(loss)
18 print("batch %d: loss %f" % (batch_index, loss.numpy()))
19 with summary_writer.as_default(): # 指定记录器
20 tf.summary.scalar("loss", loss, step=batch_index) # 将当前损失函数的值写入记录器
21 grads = tape.gradient(loss, model.variables)
22 optimizer.apply_gradients(grads_and_vars=zip(grads, model.variables))
福利 | 问答环节
我们知道在入门一项新的技术时有许多挑战与困难需要克服。如果您有关于 TensorFlow 的相关问题,可在本文后留言,我们的工程师和 GDE 将挑选其中具有代表性的问题在下一期进行回答~
在上一篇文章《TensorFlow 2.0 常用模块1:Checkpoint》中,我们对于部分具有代表性的问题回答如下:
Q1:ModuleNotFoundError: No module named 'zh',您好,这个模块是什么呢?谢谢回复。
A:这部分调用了先前连载文章中已实现的代码模块。获取源代码请访问:
https://github.com/snowkylin/tensorflow-handbook/tree/master/source/_static/code
Q2:最近想要把 tf1 的 ckpt 迁移到 tf2 上,感觉很麻烦,不仅模型要重写,而且无法 tf2 的 restore 不能用 tf1 的,更关键的是加载除了 logit 层前的层很麻烦,什么时候能把 pytorch 里那些加载方式搞来,我想把 2d 的网络 reshape 成 3d 真的很麻烦。
A:可以考虑使用 tf.compat.v1 来使用 TensorFlow 1.X 的 API 读取在 1.X 版本中保存的内容。
Q3:问 TF 有没有 model interpretation 相关的支持和教程?
A:模型的解释是一个比较宽泛的话题,或许 TensorFlow Extended(TFX)中的一些工具(比如TensorFlow Model Analysis)可以帮助你。参考:
https://www.tensorflow.org/tfx/model_analysis/get_started
Q4:有针对多GPU和分布式训练的教程吗?
A:可参考:
https://tf.wiki/zh/appendix/distributed.html
https://www.tensorflow.org/guide/distributed_training
《简单粗暴 TensorFlow 2.0 》目录
公众号回复关键字“手册”获取系列内容合集及 FAQ。