- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我想让 AI 玩我的自定义环境,不幸的是,当我运行我的代码时,出现以下错误:
File "C:\Program Files\JetBrains\PyCharm Community Edition 2021.2\plugins\python-ce\helpers\pydev\_pydev_bundle\pydev_umd.py", line 198, in runfile
pydev_imports.execfile(filename, global_vars, local_vars) # execute the script
File "C:\Program Files\JetBrains\PyCharm Community Edition 2021.2\plugins\python-ce\helpers\pydev\_pydev_imps\_pydev_execfile.py", line 18, in execfile
exec(compile(contents+"\n", file, 'exec'), glob, loc)
File "D:/PycharmProjects/Custom Enviroment AI/Enviroment.py", line 88, in <module>
DQN = buildAgent(model, actions)
File "D:/PycharmProjects/Custom Enviroment AI/Enviroment.py", line 82, in buildAgent
dqn = DQNAgent(model, memory=memory, policy=policy, nb_actions=actions, nb_steps_warmup=10,
File "D:\PycharmProjects\Custom Enviroment AI\venv\lib\site-packages\rl\agents\dqn.py", line 108, in __init__
if hasattr(model.output, '__len__') and len(model.output) > 1:
File "D:\PycharmProjects\Custom Enviroment AI\venv\lib\site-packages\keras\engine\keras_tensor.py", line 221, in __len__
raise TypeError('Keras symbolic inputs/outputs do not '
TypeError: Keras symbolic inputs/outputs do not implement `__len__`. You may be trying to pass Keras symbolic inputs/outputs to a TF API that does not register dispatching, preventing Keras from automatically converting the API call to a lambda layer in the Functional Model. This error will also get raised if you try asserting a symbolic input/output directly.
错误说你不应该使用 len() 而你应该使用 .shape istead,不幸的是这似乎是 tensorflow 中的一个错误我的完整代码是:
from rl.memory import SequentialMemory
from rl.policy import BoltzmannQPolicy
from rl.agents.dqn import DQNAgent
from keras.layers import Dense
import tensorflow as tf
import numpy as np
import random
import pygame
import gym
class Env(gym.Env):
def __init__(self):
self.action_space = gym.spaces.Discrete(4)
self.observation_space = gym.spaces.MultiDiscrete([39, 27])
self.screen = pygame.display.set_mode((800, 600))
self.PlayerX = 0
self.PlayerY = 0
self.FoodX = 0
self.FoodY = 0
self.state = [self.FoodX - self.PlayerX + 19, self.FoodY - self.PlayerY + 14]
self.timeLimit = 1000
def render(self, mode="human"):
self.screen.fill((0, 0, 0))
pygame.draw.rect(self.screen, (255, 255, 255), pygame.Rect(self.PlayerX * 40, self.PlayerY * 40, 40, 40))
pygame.draw.rect(self.screen, (255, 0, 0), pygame.Rect(self.FoodX * 40, self.FoodY * 40, 40, 40))
pygame.display.update()
def reset(self):
self.FoodX = random.randint(1, 19)
self.FoodY = random.randint(1, 14)
self.PlayerX = 0
self.PlayerY = 0
self.timeLimit = 1000
return self.state
def step(self, action):
self.timeLimit -= 1
reward = -1
if action == 0 and self.PlayerY > 0:
self.PlayerY -= 1
if action == 1 and self.PlayerX > 0:
self.PlayerX -= 1
if action == 2 and self.PlayerY < 14:
self.PlayerY += 1
if action == 3 and self.PlayerX < 19:
self.PlayerX += 1
if self.PlayerX == self.FoodX and self.PlayerY == self.FoodY:
reward += 30
self.FoodX = random.randint(1, 19)
self.FoodY = random.randint(1, 14)
if self.timeLimit <= 0:
done = True
else:
done = False
self.state = [self.FoodX - self.PlayerX, self.FoodY - self.PlayerY]
return self.state, reward, done
env = Env()
states = env.observation_space.shape
actions = env.action_space.n
def build_model(states, actions):
model = tf.keras.Sequential()
model.add(Dense(2, activation='relu', input_shape=states))
model.add(Dense(4, activation='relu'))
model.add(Dense(actions, activation='linear'))
return model
def buildAgent(model, actions):
policy = BoltzmannQPolicy()
memory = SequentialMemory(limit=50000, window_length=1)
dqn = DQNAgent(model, memory=memory, policy=policy, nb_actions=actions, nb_steps_warmup=10,
target_model_update=1e-2)
return dqn
model = build_model(states, actions)
DQN = buildAgent(model, actions)
DQN.compile(tf.keras.optimizers.Adam(learning_rate=1e-3), metrics=['mae'])
DQN.fit(env, nb_steps=50000, visualize=False, verbose=1)
scores = DQN.test(env, nb_episodes=100, visualize=True)
print(np.mean(scores.history['episode_reward']))
pygame.quit()
model.save('model.h5')
我使用 Tensorflow:2.8.0。这似乎是 Tensorflow 代码中的一个错误,但我不知道该怎么做
最佳答案
如前所述here , 你需要安装更新版本的 keras-rl
:
!pip install keras-rl2
您还需要为输入形状添加一个额外的维度,并在末尾添加一个Flatten
层,因为Keras
在使用DQN< 时需要这样做
代理:
def build_model(states, actions):
model = tf.keras.Sequential()
model.add(Dense(2, activation='relu', input_shape=(1, states[0])))
model.add(Dense(4, activation='relu'))
model.add(Dense(actions, activation='linear'))
model.add(Flatten())
return model
最后,您自定义环境中的step
方法还必须返回一个info
字典(我刚刚创建了一个空字典):
def step(self, action):
self.timeLimit -= 1
reward = -1
if action == 0 and self.PlayerY > 0:
self.PlayerY -= 1
if action == 1 and self.PlayerX > 0:
self.PlayerX -= 1
if action == 2 and self.PlayerY < 14:
self.PlayerY += 1
if action == 3 and self.PlayerX < 19:
self.PlayerX += 1
if self.PlayerX == self.FoodX and self.PlayerY == self.FoodY:
reward += 30
self.FoodX = random.randint(1, 19)
self.FoodY = random.randint(1, 14)
if self.timeLimit <= 0:
done = True
else:
done = False
self.state = [self.FoodX - self.PlayerX, self.FoodY - self.PlayerY]
return self.state, reward, done, {}
如果您进行这些更改,它应该可以正常工作。这是完整的工作代码:
from rl.memory import SequentialMemory
from rl.policy import BoltzmannQPolicy
from rl.agents.dqn import DQNAgent
from keras.layers import Dense, Flatten
import tensorflow as tf
import numpy as np
import random
import pygame
import gym
class Env(gym.Env):
def __init__(self):
self.action_space = gym.spaces.Discrete(4)
self.observation_space = gym.spaces.MultiDiscrete([39, 27])
self.screen = pygame.display.set_mode((800, 600))
self.PlayerX = 0
self.PlayerY = 0
self.FoodX = 0
self.FoodY = 0
self.state = [self.FoodX - self.PlayerX + 19, self.FoodY - self.PlayerY + 14]
self.timeLimit = 1000
def render(self, mode="human"):
self.screen.fill((0, 0, 0))
pygame.draw.rect(self.screen, (255, 255, 255), pygame.Rect(self.PlayerX * 40, self.PlayerY * 40, 40, 40))
pygame.draw.rect(self.screen, (255, 0, 0), pygame.Rect(self.FoodX * 40, self.FoodY * 40, 40, 40))
pygame.display.update()
def reset(self):
self.FoodX = random.randint(1, 19)
self.FoodY = random.randint(1, 14)
self.PlayerX = 0
self.PlayerY = 0
self.timeLimit = 1000
return self.state
def step(self, action):
self.timeLimit -= 1
reward = -1
if action == 0 and self.PlayerY > 0:
self.PlayerY -= 1
if action == 1 and self.PlayerX > 0:
self.PlayerX -= 1
if action == 2 and self.PlayerY < 14:
self.PlayerY += 1
if action == 3 and self.PlayerX < 19:
self.PlayerX += 1
if self.PlayerX == self.FoodX and self.PlayerY == self.FoodY:
reward += 30
self.FoodX = random.randint(1, 19)
self.FoodY = random.randint(1, 14)
if self.timeLimit <= 0:
done = True
else:
done = False
self.state = [self.FoodX - self.PlayerX, self.FoodY - self.PlayerY]
return self.state, reward, done, {}
env = Env()
states = env.observation_space.shape
actions = env.action_space.n
def build_model(states, actions):
model = tf.keras.Sequential()
model.add(Dense(2, activation='relu', input_shape=(1, states[0])))
model.add(Dense(4, activation='relu'))
model.add(Dense(actions, activation='linear'))
model.add(Flatten())
return model
def buildAgent(model, actions):
policy = BoltzmannQPolicy()
memory = SequentialMemory(limit=50000, window_length=1)
dqn = DQNAgent(model, memory=memory, policy=policy, nb_actions=actions, nb_steps_warmup=10,
target_model_update=1e-2)
return dqn
model = build_model(states, actions)
DQN = buildAgent(model, actions)
DQN.compile(tf.keras.optimizers.Adam(learning_rate=1e-3), metrics=['mae'])
DQN.fit(env, nb_steps=50000, visualize=False, verbose=1)
scores = DQN.test(env, nb_episodes=100, visualize=True)
print(np.mean(scores.history['episode_reward']))
pygame.quit()
model.save('model.h5')
有关详细信息,请参阅 docs .
关于python - Keras 符号输入/输出未实现 `__len__` 错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/71978756/
给定一个字符串,例如 s="##$$$#",我如何找到索引之前的“#”符号数等于“”数的索引$"符号在索引之后? 示例:如果 s="##$$$#",则输出将为 2。 解释:在索引 2 之前我们有 2
在本教程中,您将借助示例了解 JavaScript 符号。 JavaScript 符号 JavaScript ES6 引入了一种新的原始数据类型,称为 Symbol(符号)。符号是不可变的(不能更改)
在“函数编程的工艺”一书中,符号 '>.>' 将函数连接在一起,与 '.' 的方向相反。但是当我使用 ghci 实现它时,它显示了超出范围的错误 '>.>'。为什么?它是不再使用的旧符号吗? 最佳答案
很难说出这里问的是什么。这个问题是含糊的、模糊的、不完整的、过于宽泛的或修辞性的,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开它,visit the help center 。 已关
我需要从向量中删除 \"。这是我的数据: data <- c("\"https://click.linksynergy.com/link?id=RUxZriH*PWc&offerid=323058.1
我在 Nginx 配置中使用正则表达式来捕获文件 URL,但如果文件 URL 包含 # 符号,正则表达式模式将不会捕获它。 这里是nginx的配置部分。 location ~ ^/p/(?[\w\-=
如何使 & 符号在此图表的第一组条形/列下正确显示: http://jsfiddle.net/VxbrK/2/ 应该是“Apples & Oranges”而不是“Apples & Oranges”。
**在verilog中是什么意思? 我为测试台提供了以下逻辑 localparam NUM_INPUT_BITS = 1; localparam NUM_OUTPUT_BITS
我有一个使用正则表达式来验证电子邮件地址的方法。 public String searchFormail(String searchWord) { Pattern pattern = Patt
我想将一个字符串拆分为数字部分和文本/符号部分我当前的代码不包含负数或小数,并且表现得很奇怪,在输出的末尾添加了一个空列表元素 import re mystring = 'AD%5(6ag 0.33-
我有一些代码需要从数组中选择一个随机字符串,但它一直返回单个字母或数字。如何解决这个问题? var name = ["Yayek", "Vozarut", "Gezex",
我刚开始使用 Python,我在考虑应该使用哪种表示法。我读过 PEP 8关于 Python 符号的指南,我同意那里的大多数内容,除了函数名称(我更喜欢混合大小写风格)。 在 C++ 中,我使用匈牙利
在用 C# 编写代码时,我错误地在 if 语句中的变量前添加了一个符号(而不是感叹号)。 bool b = false; if (@b) { } 我很惊讶它编译成功,没有任何错误。 我想知道:上面的代
本文实例为大家分享了特殊字符替换电话号码中某一部分的方法,ios利用-号替换电话号码中间四位,供大家参考,具体内容如下 1、效果图 2、代码 rootviewcontroll
当我使用“x”和“z”作为符号时,这段代码没有问题: from sympy import * x, z = symbols('x z') y = -6*x**2 + 2*x*z**0.5 + 50*x
我需要从文本中删除标点符号: data <- "Type the command AT&W enter. in order to save the new protocol on modem;"
我有几个数字是 numeric 类。下面的例子。 df = c(12974,12412,124124,124124,34543,4576547,32235) 现在我想在每个数字前添加 '$' 符号而不
我有一个 highcharts 图例,其中符号以不同的大小显示,因为它们在实际图表中的大小不同。不幸的是,当数据点的大小增加时,它们也会在图例中增加。无论数据点大小如何,我都希望图例符号保持相同的大小
我需要使用包含平均值+-SD的标题。到目前为止,我只能得到以下信息: "Mean +- SD or N (%)" [1] "Mean +- SD or N (%)" 如何直接使用“+-”符号?您知道一
使用 XSLT 和 XPath 1.0,我有一个要转义的字符串以用于 URL,例如: one word & another 因此,描述元素的 text() 应该进行 URL 转义。 我该怎么做
我是一名优秀的程序员,十分优秀!