- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
对于keras函数fit()
和fit_generator()
,可以通过将keras.callbacks.TensorBoard
对象传递给函数来实现张量板可视化。对于train_on_batch()
函数,显然没有可用的回调。在这种情况下,keras中还有其他选项可用来创建Tensorboard吗?
最佳答案
创建TensorBoard回调并手动驱动的一种可能方法:
# This example shows how to use keras TensorBoard callback
# with model.train_on_batch
import tensorflow.keras as keras
# Setup the model
model = keras.models.Sequential()
model.add(...) # Add your layers
model.compile(...) # Compile as usual
batch_size=256
# Create the TensorBoard callback,
# which we will drive manually
tensorboard = keras.callbacks.TensorBoard(
log_dir='/tmp/my_tf_logs',
histogram_freq=0,
batch_size=batch_size,
write_graph=True,
write_grads=True
)
tensorboard.set_model(model)
# Transform train_on_batch return value
# to dict expected by on_batch_end callback
def named_logs(model, logs):
result = {}
for l in zip(model.metrics_names, logs):
result[l[0]] = l[1]
return result
# Run training batches, notify tensorboard at the end of each epoch
for batch_id in range(1000):
x_train,y_train = create_training_data(batch_size)
logs = model.train_on_batch(x_train, y_train)
tensorboard.on_epoch_end(batch_id, named_logs(model, logs))
tensorboard.on_train_end(None)
关于keras - Keras:将Tensorboard与train_on_batch()结合使用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44861149/
如果我只使用 train_on_batch(),使用像 adam 这样的优化器有什么意义吗? 我手动进行循环训练(用于对抗训练),但我希望自动调整学习率。 最佳答案 即使您只使用 train_on_b
我正在构建一个普通的 DQN 模型来玩 OpenAI gym Cartpole 游戏。 但是,在我将状态作为输入并将目标 Q 值作为标签的训练步骤中,如果我使用 model.fit(x=states,
我在 keras 中使用 model.train_on_batch 以便能够以不同的方式处理不同批处理的输入数据。本质上我不能使用 model.fit 但是我需要在 Tensorboard 中存储直方
在尝试训练 GAN 来生成图像时,我遇到了一个无法解释的问题。 训练生成器时,train_on_batch 在经过 2 或 3 次迭代后返回的损失直接降至零。经过调查,我意识到 train_on_ba
我看到了一个代码示例(太大而无法粘贴到此处),其中作者使用了 model.train_on_batch(in, out) 而不是 model.fit(in, out)。 Keras 的官方文档说: S
我的数据集太大,RAM 无法容纳,因此我选择使用 train_on_batch 增量训练我的模型。为了测试这种方法是否有效,我使用了大数据的子集来运行一些初步测试。 但是,我在训练模型时遇到了一些问题
我在 Python2 上使用 Keras。有谁知道如何检查和修改 ADAM 优化器的学习率吗?这是我的神经网络,我定义了自己的优化器。当使用 model.train_on_batch(...) 进行批
Google Colab 重现错误 None_for_gradient.ipynb 我需要一个自定义损失函数,其中根据模型输入计算值,这些输入不是默认值 (y_true, y_pred)。预测方法适用
我正在使用 train_on_batch 批量训练数据,但 train_on_batch 似乎没有使用回调的选项,这似乎是使用的要求检查点。 我无法使用model.fit,因为这似乎需要我将所有数据加
在我当前的项目中,我使用 keras 的 train_on_batch() 函数进行训练,因为 fit() 函数不支持所需的生成器和鉴别器的交替训练对于 GAN。使用(例如)Adam 优化器,我必须在
在我进行了导致某些权重为 nan 的 train_on_batch 更新后,我无法将我的 keras 模型重置为上一个时期的权重。 我尝试在每个训练步骤后保存模型权重,然后在 nan 训练更新后将“良
我正在使用一个大数据集,所以我正在尝试使用 train_on_batch(或适合 epoch = 1) model = Sequential() model.add(LSTM(size,input_s
我正在研究 GANS,我需要在下类后保存模型。然后我必须在保存它的地方再次重新训练以前保存的模型。我正在保存这三个模型以供以后继续训练。 Discriminator Model.h5 Generato
我正在将相同的输入(即相同的数据和相同的真实标签)传递给 keras train_on_batch() 和 test_on_batch()。我想知道为什么这两个函数会得到不同的损失值。 代码: mod
我正在使用 Keras 训练深度神经网络。我使用 train_on_batch 函数来训练我的模型。我的模型有两个输出。我打算做的是通过每个样本的某个特定值来修改每个样本的损失。所以由于 Keras
我一直在搞 Keras,到目前为止我喜欢它。在处理相当深的网络时,我遇到了一个大问题:在调用 model.train_on_batch 或 model.fit 等时,Keras 分配的 GPU 内存明
我有两个具有相同参数的相同模型。这两个都是在 MNIST 数据集上训练的。第一个使用 model.fit() 进行训练,第二个使用 model.train_on_batch() 进行训练。第二个模型的
在下面的神经网络训练的 Keras 和 Tensorflow 实现中,keras 实现中的 model.train_on_batch([x], [y]) 与 sess 有何不同。 run([train
我正在尝试训练一个具有多个输出的模型,因此在编译时也附加了多个损失函数。 我过去没有做过类似的事情(至少不是从头开始)。 这是我用来弄清楚这是如何工作的一些代码。 from tensorflow.ke
我是一名优秀的程序员,十分优秀!