作者热门文章
- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试将 tf.train.exponential_decay 与预定义的估算器一起使用,但由于某种原因,这被证明是非常困难的。我在这里错过了什么吗?
这是我具有恒定学习率的旧代码:
classifier = tf.estimator.DNNRegressor(
feature_columns=f_columns,
model_dir='./TF',
hidden_units=[2, 2],
optimizer=tf.train.ProximalAdagradOptimizer(
learning_rate=0.50,
l1_regularization_strength=0.001,
))
starter_learning_rate = 0.50
global_step = tf.Variable(0, trainable=False)
learning_rate = tf.train.exponential_decay(starter_learning_rate, global_step,
10000, 0.96, staircase=True)
"ValueError: Tensor("ExponentialDecay:0", shape=(), dtype=float32) must be from the same graph as Tensor("dnn/hiddenlayer_0/kernel/part_0:0", shape=(62, 2), dtype=float32_ref)."
最佳答案
你应该让优化器在 mode == tf.estimator.ModeKeys.TRAIN
这是示例代码
def _model_fn(features, labels, mode, config):
# xxxxxxxxx
# xxxxxxxxx
assert mode == tf.estimator.ModeKeys.TRAIN
global_step = tf.train.get_global_step()
decay_learning_rate = tf.train.exponential_decay(learning_rate, global_step, 100, 0.98, staircase=True)
optimizer = adagrad.AdagradOptimizer(decay_learning_rate)
update_ops = tf.get_collection(tf.GraphKeys.UPDATE_OPS)
with tf.control_dependencies(update_ops):
train_op = optimizer.minimize(loss, global_step=tf.train.get_global_step())
return tf.estimator.EstimatorSpec(mode, loss=loss, train_op=train_op, training_chief_hooks=chief_hooks, eval_metric_ops=metrics)
关于tensorflow - 将 tf.train.exponential_decay 与预定义的估算器一起使用?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49224141/
我正在尝试将 tf.train.exponential_decay 与预定义的估算器一起使用,但由于某种原因,这被证明是非常困难的。我在这里错过了什么吗? 这是我具有恒定学习率的旧代码: classi
我正在使用指数权重衰减进行训练,类似于 Tensorflow 文档 (https://www.tensorflow.org/api_docs/python/tf/train/exponential_d
我是一名优秀的程序员,十分优秀!