gpt4 book ai didi

python - 使用 tf.train.MonitoredTrainingSession 时如何获取全局步骤

转载 作者:太空宇宙 更新时间:2023-11-03 15:48:34 24 4
gpt4 key购买 nike

当我们在Saver.save中指定global_step时,它会将global_step存储为checkpoint后缀。

# save the checkpoint
saver = tf.train.Saver()
saver.save(session, checkpoints_path, global_step)

我们可以像这样恢复检查点并获取存储在检查点中的最后一个全局步骤:

# restore the checkpoint and obtain the global step
saver.restore(session, ckpt.model_checkpoint_path)
...
_, gstep = session.run([optimizer, global_step], feed_dict=feed_dict_train)

如果我们使用tf.train.MonitoredTrainingSession,将全局步骤保存到检查点并获取gstep的等效方法是什么?

编辑1

按照Maxim的建议,我在tf.train.MonitoredTrainingSession之前创建了global_step变量,并添加了一个CheckpointSaverHook,如下所示:

global_step = tf.train.get_or_create_global_step()
save_checkpoint_hook = tf.train.CheckpointSaverHook(checkpoint_dir=checkpoints_abs_path,
save_steps=5,
checkpoint_basename=(checkpoints_prefix + ".ckpt"))

with tf.train.MonitoredTrainingSession(master=server.target,
is_chief=is_chief,
hooks=[sync_replicas_hook, save_checkpoint_hook],
config=config) as session:

_, gstep = session.run([optimizer, global_step], feed_dict=feed_dict_train)
print("current global step=" + str(gstep))

我可以看到它生成的检查点文件类似于 Saver.saver 所做的。但是,它无法从检查点检索全局步骤。请告知我该如何解决这个问题?

最佳答案

可以通过tf.train.get_global_step()获取当前全局步长或通过 tf.train.get_or_create_global_step()功能。后者应在训练开始前调用。

对于受监控的 session ,添加 tf.train.CheckpointSaverHookhooks,它在内部使用定义的全局步张量在每 N 步之后保存模型。

关于python - 使用 tf.train.MonitoredTrainingSession 时如何获取全局步骤,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48338492/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com