gpt4 book ai didi

python - 基于策略的学习不收敛

转载 作者:行者123 更新时间:2023-11-30 09:43:45 25 4
gpt4 key购买 nike

我正在尝试实现近端策略优化,但我面临着一个非常奇怪的问题。

这是问题的最小演示:

import numpy as np
import tensorflow as tf

raw_probs = tf.get_variable("raw_probs",[4])
probs = tf.nn.softmax(raw_probs)

actions = tf.placeholder(dtype=tf.int32, shape=[None], name='actions')
rewards = tf.placeholder(dtype=tf.float32, shape=[None], name='rewards')
old_probs = tf.placeholder(dtype=tf.float32, shape=[None], name='old_probs')
new_probs = tf.reduce_sum(probs * tf.one_hot(indices=actions, depth=4))
ratios = new_probs / old_probs
clipped_ratios = tf.clip_by_value(ratios, clip_value_min=0.8, clip_value_max=1.2)
loss_clip = -tf.reduce_mean(tf.minimum(tf.multiply(rewards, ratios), tf.multiply(rewards, clipped_ratios)))

optimizer = tf.train.AdamOptimizer()
train_pol = optimizer.minimize(loss_clip)

with tf.Session() as sess:
sess.run(tf.global_variables_initializer())

for i in range(1000):
input_actions = []
input_rewards = []
input_old_probs = []

for j in range(20):
tmp_probs = sess.run(probs)
if j == 0:
print(tmp_probs)
act = np.random.choice(4,p=tmp_probs)
input_actions.append(act)
if act == 0:
input_rewards.append(1)
else:
input_rewards.append(-1)
input_old_probs.append(tmp_probs[act])

sess.run(train_pol,feed_dict={actions: input_actions,rewards: input_rewards,old_probs: input_old_probs})

该程序根据概率分布抽取数字。如果抽中0,则奖励1。如果抽中其他数字,则奖励-1。然后程序根据结果调整概率。

理论上,选择 0 的概率应该总是增加,最终收敛到 1。但实际上,它正在减少。

我在这里做错了什么?

最佳答案

我解决了!我对reduce_sum的作用了解不够。

改变一下

new_probs = tf.reduce_sum(probs * tf.one_hot(indices=actions, depth=4))

进入

new_probs = tf.reduce_sum(probs * tf.one_hot(indices=actions, depth=4),1)

关于python - 基于策略的学习不收敛,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55410391/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com