您将使用TensorFlow进行的计算 - 如训练大量的深度神经网络 - 可能会非常复杂和令人困惑。 为了便于理解,调试和优化TensorFlow程序,我们包含了一套名为TensorBoard的可视化工具。 您可以使用TensorBoard来显示您的TensorFlow图形,绘制关于图形执行的量化指标,并显示通过它的图像数据。 当TensorBoard全部配置时,看起来像这样:
本教程旨在让您开始使用简单的TensorBoard。 还有其他资源可用!TensorBoard的GitHub有更多关于TensorBoard使用的信息,包括提示和技巧以及调试信息。
序列化数据
TensorBoard通过读取TensorFlow事件文件进行操作,TensorFlow事件文件包含运行TensorFlow时所生成的摘要数据。 以下是TensorBoard中摘要数据的一般生命周期。
首先,创建您希望从中收集摘要数据的TensorFlow graph,然后决定使用摘要操作(summary operations)注解哪些节点。
例如,假设您正在训练用于识别MNIST数字的卷积神经网络。 您想记录学习率随时间的变化,以及目标函数如何变化。 通过将tf.summary.scalar分别附加到输出learning rate和loss的节点来收集这些信息。 然后,给每个scalar_summary总结一个有意义的标签,如“learning rate”或“loss function”。
也许你也想看到一个指定层的激活分布,或梯度或权重的分布。 通过将tf.summary.histogram附加到梯度输出和权重的变量来收集这些数据。
有关所有摘要操作(summary operations)的详细信息,请查看有关摘要操作(summary operations)的文档。
在运行之前,TensorFlow中的操作不会执行任何操作,或者依赖于其输出的操作。 我们刚刚创建的摘要节点是graph之外的:您当前正在运行的所有操作都不依赖于它们。 所以,为了生成摘要,我们需要运行所有这些汇总节点。 手工管理它们会很麻烦,所以使用tf.summary.merge_all将它们组合成一个单独的操作来生成所有的汇总数据。
然后,您可以运行合并的摘要操作,该操作将在给定的步骤中生成包含所有摘要数据的序列化的Summary protobuf对象。 最后,为了将这个总结数据写入磁盘,将总结的protobuf传递给tf.summary.FileWriter。
FileWriter在其构造函数中使用了logdir - 这个logdir非常重要,它是所有事件将被写出的目录。 另外,FileWriter可以选择在其构造函数中使用Graph。 如果它接收到一个Graph对象,那么TensorBoard会将您的图形与张量形状信息一起可视化。 这将使您更好地理解图中流动的情况:请参阅张量形状信息(Tensor shape information)。
现在你已经修改了你的图形,并有一个FileWriter,你已经准备好开始运行你的网络! 如果你愿意,你可以每一步都运行合并的摘要操作,并记录大量的训练数据。 虽然这可能是比你需要更多的数据。 相反,请考虑每n步运行合并的摘要操作。
下面的代码示例是对简单MNIST教程的修改,我们在其中添加了一些summary操作,并且每十步执行一次。 如果你运行这个程序,然后启动tensorboard --logdir=/tmp/tensorflow/mnist,你将可以看到统计数据,例如训练过程中权重或准确率的变化。 下面的代码是摘录; 完整的源代码在这里。
(代码略,格式太乱,看完整代码吧)
在初始化FileWriters之后,我们必须在我们训练和测试模型时将sumamries添加到FileWriters。
(代码略,格式太乱,看完整代码吧)
您现在已经开始使用TensorBoard将这些数据可视化了。
启动TensorBoard
要运行TensorBoard,使用下面的命令(或者python -m tensorboard.main)
tensorboard --logdir=path/to/log-directory
其中logdir指向FileWriter序列化其数据的目录。 如果此logdir目录包含子目录,里面是不同的序列化数据,则TensorBoard将可视化所有这些数据。 一旦TensorBoard启动,浏览您的Web浏览器到localhost:6006以查看TensorBoard。
在看TensorBoard时,您会看到右上角的导航标签。 每个选项卡代表一组可以可视化的序列化数据。
有关如何使用图形选项卡可视化图形的深入信息,请参阅TensorBoard:图形可视化。
有关TensorBoard的更多使用信息,请参阅TensorBoard的GitHub。
网友评论