- Java锁的逻辑(结合对象头和ObjectMonitor)
- 还在用饼状图?来瞧瞧这些炫酷的百分比可视化新图形(附代码实现)⛵
- 自动注册实体类到EntityFrameworkCore上下文,并适配ABP及ABPVNext
- 基于Sklearn机器学习代码实战
from torch.utils.tensorboard import SummaryWriter
参数详解:
log_dir:输入文件夹的名称(string)。如果为None,默认位置为:runs/**CURRENT_DATETIME_HOSTNAME** 。
其他不常用参数:comment, purge_step, max_queue, flush_secs, fliename_suffix. 具体用处可以在pycharm中ctrl+单击SummaryWriter查看.
tag (string): Data的指定方式,图表的标题 。
scalar (float or string/blobname): 需要存储的数值 。
global_step (int): 训练的步数(Global step value to record),结合scalar,那就是训练到多少步的时候scalar的数值是多少.
walltime (float): (不常用参数,可选)Optional override default walltime(time.time()) with seconds after epoch of event 。
更直观的参数解释,可以表示为下图的方式:
from torch.utils.tensorboard import SummaryWriter
writer=SummaryWriter("logs") #将事件文件存储到logs这个文件夹底下
#绘制一个y=2x的图像
for i in range(100):
writer.add_scalar("y=x",2*i,i) # writer.add_scalar(图像标题,y轴,x轴)
writer.close()
tag (string): Data的指定方式,图表的标题 。
img_tensor (torch.Tensor, numpy.array, or string/blobname): 图像数据 。
global_step (int): 训练的步数(Global step value to record),结合img_tensor,那就是训练到多少步的时候img_tensor的图像是什么.
walltime (float): (不常用参数,可选)Optional override default walltime(time.time()) with seconds after epoch of event 。
默认输入图像数据形状:
(3, H, W) :三通道,高,宽 。
注意:如果输入数据为 (H, W, 3) 也是可以的,但是需要设置 dataformats ,如 dataformats='HWC' 。
使用示例:
数据下载地址: 百度网盘 请输入提取码 (baidu.com) 。
提取码:zsh8 。
from PIL import Image
image_path="E:\\Desktop\\hymenoptera_data\\hymenoptera_data\\train\\ants\\0013035.jpg" #图片路径
img=Image.open(image_path) #读取图片信息
print(type(img))
'''
[Run]
<class 'PIL.JpegImagePlugin.JpegImageFile'>
'''
img_tensor
的要求,所以 不能用PIL读取 利用numpy.array(),对PIL图片进行转换,具体操作如下:
from torch.utils.tensorboard import SummaryWriter
from PIL import Image
import numpy as np
writer=SummaryWriter("Image")
image_path="E:\\Desktop\\hymenoptera_data\\hymenoptera_data\\train\\ants\\0013035.jpg" #图片路径
img_PIL=Image.open(image_path) #读取图片的PIL格式
img_array=np.array(img_PIL) #将PIL类型的图片数据转为numpy型数据
print(img_array.shape) #查看图片数据的格式. [Run] (512, 768, 3);即3通道在最后一位
#添加image到SummaryWriter
#由shape数据可知,3通道在最后一位,所以设置为‘HWC’
writer.add_image("test", img_array, 1, dataformats='HWC')
writer.close()
在上面 writer=SummaryWriter("logs") 代码的基础上,建立了一个名称为logs的文件,下面我们学习如何打开它.
tensorboard --logdir=logs
并按回车,需要注意的是: logdir=事件文件所在的文件名
。得到如下语句: TensorFlow installation not found - running with reduced feature set. Serving TensorBoard on localhost; to expose to the network, use a proxy or pass --bind_all TensorBoard 2.13.0 at http://localhost:6006/ (Press CTRL+C to quit) 。
其中, http://localhost:6006/ 为tensorboard的打开位置,可直接单击打开 。
但有的时候,一台服务器上有好几个人在使用,如果都指向6006窗口,则会导致与其他人发生冲突,所以我们可以指定一个端口:
tensorboard --logdir=logs --port=6007 。
打开可能会出现下面这个页面:
存在原因及解决办法如下:
tensorboard --logdir=路径中含有中文 。
解决方法:把中文改成英文 。
路径错误 。
解决方法:tensorboard --logdir=路径,其中这个输入的路径不用带引号 。
tensorboard语句错误 。
解决方法:在一些tensorboard版本中,打开路径的语句为 tensorboard --logdir=路径 ,但在另一些版本中,打开路径的语句为 tensorboard --logdir"路径" 。
如果反复更改上面的代码并运行,比如说把 \(y=2x\) 改为 \(y=3x\) ,那么可能会出现这样的图像:
也就是说 \(y=2x\) 和 \(y=3x\) 会同时出现在同一个图像上,并且还会出现一条拟合这两个函数的线。解决方法如下:
方法一:把 --logdir 中对应的文件夹找到,并直接删除。然后再运行一次程序,绘制想要的图片.
方法二:创建一个子文件 。
方法同上 。
如果要同时读取几张图片,可以有以下方法:
将 writer.add_image("test", img_array, 1, dataformats='HWC') 中的step由1改为2或多个,此时可在同一个图像上,翻页显示 。
将 writer.add_image("test", img_array, 1, dataformats='HWC') 中的tag由"test"改为另一个名字,此时可打开一个新的框来显示图像 。
最后此篇关于TensorBoard的使用的文章就讲到这里了,如果你想了解更多关于TensorBoard的使用的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
我正在使用张量板可视化句子嵌入。我有每个句子嵌入的标签。如何为每个标签设置颜色?例如 embedding vector Labels [0.234
在 Tensorboard 中有一个按钮将计算图保存为 png,有没有办法将其导出为矢量图形,如 eps? 最佳答案 您可以使用 SVG Crowbar 以 svg 格式保存 为“SVG Crowba
在使用 Keras Tuner 完成的超参数搜索期间,我遇到了明显的循环依赖,试图将日志数据用于 TensorBoard。 , 对于使用 TF2 构建的模型。后者的典型设置需要在调谐器的 search
我正在关注 Sentdex's DQN tutorial .我一直在尝试在 TF 2.0 中重写自定义 TensorBoard。重点是在文件中添加**stats,例如:{'reward_avg': -
我正在尝试启动 tensorboard 并查看我创建的图表。 import tensorflow as tf logPath = "C:\\path\\to\\log" -- can also be
最近的 TensorFlow 构建似乎有问题。 TensorBoard 可视化工具在从源代码编译以用于 GPU 时不会运行。错误如下: $ tensorboard Traceback (most re
我按照 pytorch.org 中的教程进行操作出现错误:TensorBoard logging requires TensorBoard version 1.15 or above ,但我已经安装了
我使用 tensorboard 创建了一些日志文件,但我无法访问它们。 使用 tensorboard 或 tensorboard --logdir=logs/ 命令提示符 出现以下错误:- C:\Us
我正在使用 Win10Pro、gpu (CUDA 10.1)、Python 3.7.5、Tensorflow 2.1.0 和 Tensorboard 2.1.0 在 ipython 中使用以下代码运行
在我执行的 Python 代码中train_writer = tf.summary.FileWriter(TBOARD_LOGS_DIR)train_writer.add_graph(sess.gra
我正在使用 Tensorboard 为我的实验绘制损失图。 我还想将测试结果添加到 Tensorboard 以便于进行实验比较,但我找不到执行此操作的函数。 我只需要一个简单的表格,例如: | Exp
当运行一个 mnist 分类程序以在 tensorboard 中查看时,它会显示多个图,即使只有一个图。我收到错误消息: 图表如下所示: 最佳答案 这看起来好像是由于同一目录中存在多个张量板文件。想必
关闭。这个问题不满足Stack Overflow guidelines .它目前不接受答案。 想改善这个问题吗?更新问题,使其成为 on-topic对于堆栈溢出。 3年前关闭。 Improve thi
pre { line-height: 125% } td.linenos .normal { color: inherit; background-c
有人让 TensorBoard 工作了吗?似乎找不到我的 ScalarSummary 文件。我正在使用: $ python /Users/nikhilbuduma/tensorflow/lib/pyt
我正在运行一个云 ML 引擎作业,我的张量板图显示隐藏层的零值比例随着步数的增加稳步增加到 1。这个情节应该如何解释?我相信这是一件好事,因为更多的零值表明该模型对其所做的预测越来越“确定”。 最佳答
我正在使用 TensorBoard 来可视化网络指标和图表。 我创建了一个 session sess = tf.InteractiveSession()并在 Jupyter Notebook 中构建图
我在 Anaconda 环境中使用 Python(jupyter notebook) 操作系统:Ubuntu tensorflow 版本:1.14.0 Python版本:3.6 https://git
可以在同一台机器上运行多个 tensorboard 实例(具有不同的日志目录)。甚至还有可以启动/重用 TB 进程的 tensorboard.manager 类。 问题是所有这些 TB 都在不同的端口
我构建了一个网络来尝试预测表面温度的光栅图像。网络的输出是一个 (1000, 1000) 大小的数组,代表一个光栅图像。为了训练和测试,将这些与各自样本的真实栅格进行比较。我明白如何add the t
我是一名优秀的程序员,十分优秀!