gpt4 book ai didi

python-3.x - 固定时间表的自适应学习率

转载 作者:行者123 更新时间:2023-11-30 09:19:58 25 4
gpt4 key购买 nike

我正在尝试使用自适应学习率和基于 Adam 梯度的优化来实现卷积神经网络。我有以下代码:

# learning rate schedule
schedule = np.array([0.0005, 0.0005,
0.0002, 0.0002, 0.0002,
0.0001, 0.0001, 0.0001,
0.00005, 0.00005, 0.00005, 0.00005,
0.00001, 0.00001, 0.00001, 0.00001, 0.00001, 0.00001, 0.00001, 0.00001])

# define placeholder for variable learning rate
learning_rates = tf.placeholder(tf.float32, (None),name='learning_rate')

# training operation
cross_entropy = tf.nn.softmax_cross_entropy_with_logits(logits=logits,
labels=one_hot_y)
loss_operation = tf.reduce_mean(cross_entropy)
optimizer = tf.train.AdamOptimizer(learning_rate=learning_rates)
training_operation = optimizer.minimize(loss_operation)

运行 session 的代码:

.
.
.
_, loss = sess.run([training_operation, loss_operation],
feed_dict={x: batch_x, y: batch_y, learning_rate: schedule[i]})
.
.
.

i 代表纪元计数,初始化为 0,因此从技术上讲,它应该使用计划中的第一个值。

每当我尝试运行此程序时,都会收到以下错误:

InvalidArgumentError:您必须使用 dtype float 为占位符张量“learning_rate_2”提供一个值 [[节点:learning_rate_2 = Placeholderdtype=DT_FLOAT,shape=[],_device="/job:localhost/replica:0/task:0/cpu:0"]]

有人遇到同样的问题吗?我尝试重新初始化 session ,重命名变量,但没有成功。

最佳答案

找到了一个中间解决方案。

.
.
.
for i in range(EPOCHS):
XX_train, yy_train = shuffle(X_train, y_train)

# code for adaptive rate
optimizer = tf.train.AdamOptimizer(learning_rate = schedule[i])

for offset in range(0, num_examples, BATCH_SIZE):
end = offset + BATCH_SIZE
batch_x, batch_y = XX_train[offset:end], yy_train[offset:end]
_, loss = sess.run([training_operation, loss_operation], feed_dict={x: batch_x, y: batch_y})
.
.
.

不是很优雅,但至少可以用。

关于python-3.x - 固定时间表的自适应学习率,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43527131/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com