- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我希望有一个 TensorBoard 显示与 acc、loss、acc_val 和 loss_val 对应的图表,但由于某种原因它们没有出现。这是我所看到的。
我正在按照指示here进行操作能够在 Google Colab 笔记本中使用 Tensorboard
这是用于生成张量板的代码:
opt = tf.keras.optimizers.Adam(lr=0.001, decay=1e-6)
tensorboard = TensorBoard(log_dir="logs/{}".format(NAME),
histogram_freq=1,
write_graph=True,
write_grads=True,
batch_size=BATCH_SIZE,
write_images=True)
model.compile(
loss='sparse_categorical_crossentropy',
optimizer=opt,
metrics=['accuracy']
)
# Train model
history = model.fit(
train_x, train_y,
batch_size=BATCH_SIZE,
epochs=EPOCHS,
validation_data=(validation_x, validation_y),
callbacks=[tensorboard]
)
我该如何解决这个问题?有任何想法吗?非常感谢您的帮助!
最佳答案
这就是预期的行为。如果您想记录动态学习率等自定义标量,则需要使用 TensorFlow Summary API。
重新训练回归模型并记录自定义学习率。方法如下:
tf.summary.create_file_writer()
创建文件编写器。LearningRateScheduler
回调。tf.summary.scalar()
记录自定义学习率。LearningRateScheduler
回调传递给 Model.fit()
。一般来说,要记录自定义标量,您需要将 tf.summary.scalar() 与文件编写器结合使用。文件编写器负责将此运行的数据写入指定目录,并在您使用 tf.summary.scalar() 时隐式使用。
logdir = "logs/scalars/" + datetime.now().strftime("%Y%m%d-%H%M%S")
file_writer = tf.summary.create_file_writer(logdir + "/metrics")
file_writer.set_as_default()
def lr_schedule(epoch):
"""
Returns a custom learning rate that decreases as epochs progress.
"""
learning_rate = 0.2
if epoch > 10:
learning_rate = 0.02
if epoch > 20:
learning_rate = 0.01
if epoch > 50:
learning_rate = 0.005
tf.summary.scalar('learning rate', data=learning_rate, step=epoch)
return learning_rate
lr_callback = keras.callbacks.LearningRateScheduler(lr_schedule)
tensorboard_callback = keras.callbacks.TensorBoard(log_dir=logdir)
model = keras.models.Sequential([
keras.layers.Dense(16, input_dim=1),
keras.layers.Dense(1),
])
model.compile(
loss='mse', # keras.losses.mean_squared_error
optimizer=keras.optimizers.SGD(),
)
training_history = model.fit(
x_train, # input
y_train, # output
batch_size=train_size,
verbose=0, # Suppress chatty output; use Tensorboard instead
epochs=100,
validation_data=(x_test, y_test),
callbacks=[tensorboard_callback, lr_callback],
)
关于Tensorflow TensorBoard 不显示 acc、loss、acc_val 和 loss_val 仅仅显示 epoch_accuracy 和 epoch_loss,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59587769/
我正在使用张量板可视化句子嵌入。我有每个句子嵌入的标签。如何为每个标签设置颜色?例如 embedding vector Labels [0.234
在 Tensorboard 中有一个按钮将计算图保存为 png,有没有办法将其导出为矢量图形,如 eps? 最佳答案 您可以使用 SVG Crowbar 以 svg 格式保存 为“SVG Crowba
在使用 Keras Tuner 完成的超参数搜索期间,我遇到了明显的循环依赖,试图将日志数据用于 TensorBoard。 , 对于使用 TF2 构建的模型。后者的典型设置需要在调谐器的 search
我正在关注 Sentdex's DQN tutorial .我一直在尝试在 TF 2.0 中重写自定义 TensorBoard。重点是在文件中添加**stats,例如:{'reward_avg': -
我正在尝试启动 tensorboard 并查看我创建的图表。 import tensorflow as tf logPath = "C:\\path\\to\\log" -- can also be
最近的 TensorFlow 构建似乎有问题。 TensorBoard 可视化工具在从源代码编译以用于 GPU 时不会运行。错误如下: $ tensorboard Traceback (most re
我按照 pytorch.org 中的教程进行操作出现错误:TensorBoard logging requires TensorBoard version 1.15 or above ,但我已经安装了
我使用 tensorboard 创建了一些日志文件,但我无法访问它们。 使用 tensorboard 或 tensorboard --logdir=logs/ 命令提示符 出现以下错误:- C:\Us
我正在使用 Win10Pro、gpu (CUDA 10.1)、Python 3.7.5、Tensorflow 2.1.0 和 Tensorboard 2.1.0 在 ipython 中使用以下代码运行
在我执行的 Python 代码中train_writer = tf.summary.FileWriter(TBOARD_LOGS_DIR)train_writer.add_graph(sess.gra
我正在使用 Tensorboard 为我的实验绘制损失图。 我还想将测试结果添加到 Tensorboard 以便于进行实验比较,但我找不到执行此操作的函数。 我只需要一个简单的表格,例如: | Exp
当运行一个 mnist 分类程序以在 tensorboard 中查看时,它会显示多个图,即使只有一个图。我收到错误消息: 图表如下所示: 最佳答案 这看起来好像是由于同一目录中存在多个张量板文件。想必
关闭。这个问题不满足Stack Overflow guidelines .它目前不接受答案。 想改善这个问题吗?更新问题,使其成为 on-topic对于堆栈溢出。 3年前关闭。 Improve thi
pre { line-height: 125% } td.linenos .normal { color: inherit; background-c
有人让 TensorBoard 工作了吗?似乎找不到我的 ScalarSummary 文件。我正在使用: $ python /Users/nikhilbuduma/tensorflow/lib/pyt
我正在运行一个云 ML 引擎作业,我的张量板图显示隐藏层的零值比例随着步数的增加稳步增加到 1。这个情节应该如何解释?我相信这是一件好事,因为更多的零值表明该模型对其所做的预测越来越“确定”。 最佳答
我正在使用 TensorBoard 来可视化网络指标和图表。 我创建了一个 session sess = tf.InteractiveSession()并在 Jupyter Notebook 中构建图
我在 Anaconda 环境中使用 Python(jupyter notebook) 操作系统:Ubuntu tensorflow 版本:1.14.0 Python版本:3.6 https://git
可以在同一台机器上运行多个 tensorboard 实例(具有不同的日志目录)。甚至还有可以启动/重用 TB 进程的 tensorboard.manager 类。 问题是所有这些 TB 都在不同的端口
我构建了一个网络来尝试预测表面温度的光栅图像。网络的输出是一个 (1000, 1000) 大小的数组,代表一个光栅图像。为了训练和测试,将这些与各自样本的真实栅格进行比较。我明白如何add the t
我是一名优秀的程序员,十分优秀!