• TensorFlow入门(八、TensorBoard可视化工具的应用)


    TensorBoard常用函数和类icon-default.png?t=N7T8http://t.csdn.cn/Hqi9c

    TensorBoard可视化的过程:

    ①确定一个整体的图表,明确从这个图表中获取哪些数据的信息

    ②确定在程序的哪些节点、以什么样的方式进行汇总数据的运算,以记录信息,比如在反向传播定义以后,使用tf.summary.scalar记录损失值的变换

    ③运行所有的summary节点。由于一个程序中经常会有多个summary节点,为了减少一个一个手动启动的繁琐,可以使用tf.summary.merge_all将所有summary节点合并成一个节点,在启动运行

    ④使用tf.summary.FileWriter将运行后输出的数据保存到本地磁盘中

    ⑤运行整个程序,完成执行后,win+R打开终端,输入tensorboard --logdir 文件上一级路径

    以下是具体操作:

            示例代码如下:

    1. # -*- coding: utf-8 -*-
    2. """
    3. Created on Mon Sep 25 20:07:18 2023
    4. @author: ASUS
    5. """
    6. import tensorflow.compat.v1 as tf
    7. import numpy as np
    8. import matplotlib.pyplot as plt
    9. import os
    10. tf.compat.v1.disable_eager_execution()#这个函数用于禁用 TensorFlow 2 中的即时执行模式,以便能够使用 TensorFlow 1.x 的计算图执行方式。
    11. #1.准备数据
    12. train_X = np.linspace(-1, 1,100)#train_X 是一个从 -1 到 1 的等间距数组,用作输入特征。
    13. train_Y = 5 * train_X + np.random.randn(*train_X.shape) * 0.7#train_Y 是根据 train_X 生成的目标值,在真实值的基础上加上了一些噪声。
    14. #2.搭建模型
    15. #通过占位符定义
    16. X = tf.placeholder("float")#X 和 Y 是 TensorFlow 的占位符(Placeholder),用于在执行时提供输入和标签数据。
    17. Y = tf.placeholder("float")
    18. #定义学习参数的变量
    19. W = tf.Variable(tf.compat.v1.random_normal([1]),name="weight")#W 和 b 是学习参数的变量,可以被模型训练调整。
    20. b = tf.Variable(tf.zeros([1]),name="bias")
    21. #定义运算
    22. z = tf.multiply(X,W) + b#z 是通过将输入特征 X 与权重 W 相乘并加上偏差 b 得到的预测值。
    23. #定义损失函数
    24. cost = tf.reduce_mean(tf.square(Y - z))#cost 是损失函数,计算预测值与真实值之间的平方差的平均值。
    25. #定义学习率
    26. learning_rate = 0.01#learning_rate 是学习率,用来控制优化算法在每次迭代中更新参数的步长。
    27. #设置优化函数
    28. optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)#optimizer 是梯度下降优化器,用于最小化损失函数。
    29. #3.迭代训练
    30. #初始化所有变量
    31. init = tf.global_variables_initializer()
    32. #定义迭代参数
    33. training_epochs = 20#training_epochs 是迭代训练的轮数。
    34. display_step = 2#display_step 是控制训练过程中打印输出的步长。
    35. #定义保存路径
    36. savedir = "log4/"
    37. #启动Session
    38. with tf.Session() as sess:#with tf.Session() as sess: 创建一个会话,在该会话中执行计算图操作。
    39. sess.run(init)#sess.run(init) 运行初始化操作,初始化所有变量。
    40. tf.summary.scalar("loss", cost)
    41. #合并所有的summary
    42. merged_summary_op = tf.summary.merge_all()
    43. #创建summary_write用于写文件
    44. summary_writer = tf.summary.FileWriter(os.path.join(savedir,'summary_log'),sess.graph)
    45. for epoch in range(training_epochs):
    46. for(x,y) in zip(train_X,train_Y):
    47. sess.run(optimizer,feed_dict={X:x,Y:y})#sess.run(optimizer,feed_dict={X:x,Y:y}) 执行一次优化器操作,将当前的输入特征 x 和标签值 y 传入模型。
    48. summary_str = sess.run(merged_summary_op,feed_dict = {X:x,Y:y})
    49. summary_writer.add_summary(summary_str,epoch)
    50. if epoch % display_step == 0:#每隔 display_step 轮迭代打印一次损失值和当前的参数值。
    51. loss=sess.run(cost,feed_dict={X:train_X,Y:train_Y})
    52. #测试模型
    53. print("Epoch:",epoch+1,"cost=",loss,"W=",sess.run(W),"b=",sess.run(b))
    54. print("Finished!")
    55. #使用 matplotlib 库绘制训练数据点和拟合直线。
    56. plt.plot(train_X,train_Y,'ro',label='Original data')#绘制原始数据点。
    57. plt.plot(train_X,sess.run(W)*train_X+sess.run(b),'--',label='Fittedline')#绘制拟合的直线。
    58. plt.legend()#添加图例。
    59. plt.show()#显示图形。
    60. #4.利用模型
    61. print("x=0.2,z=",sess.run(z,feed_dict={X:0.2}))#使用训练好的模型,传入输入特征 0.2 来计算预测值 z。

            运行后会生成文件如下

            win+R打开终端,输入tensorboard --logdir C:\Users\ASUS\.spyder-py3\log4\summary_log

            复制其中的http://localhost:6006/,打开浏览器跳转来到tensorboard可视化界面,如下:

    Tensorboard显示图片示例icon-default.png?t=N7T8http://t.csdn.cn/Ok1w5

  • 相关阅读:
    docker 学习笔记
    [附源码]java毕业设计血库管理系统
    极智开发 | 阿里云ECS本地开发环境搭建
    SpringNative GraalVM 打包 SpringBoot 为 Linux 的 单文件应用程序
    【Android开发】学习笔记(一)
    基于PHP+MySQL米步童鞋商城网站的设计与实现
    极空间z2pro bitwarden+frp+nginx教程
    产品端数据分析思维
    排序算法之计数排序
    这篇被吹爆了的职称评审个人专业技术业务工作总结范文模板,不看就是你的损失了
  • 原文地址:https://blog.csdn.net/Victor_Li_/article/details/133351698