- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我想做的是修改一个环境,例如 super 马里奥兄弟健身房环境,模糊代理训练的图像,看看强化学习代理是否仍然能够在这些“模糊”上学习"状态。
OpenAI 是否可以做这样的事情?我将如何添加健身房环境预处理步骤?
最佳答案
我建议您为您的健身房环境制作一个包装器,在 step()
和 reset()
函数中添加处理
这里有一些代码来说明这个想法:
class EnvWrapper(gym.Env):
def __init__(self, config):
self.env = gym.make("Your-Env-Name") # The wrapper encapsulates the gym env
def step(self, action):
obs, reward, done, info = self.env.step(action) # calls the gym env methods
obs = self._blur(obs) # applies your specific treatment
return obs, reward, done, info
def reset(self):
obs = self.env.reset() # same for reset
return self._blur(obs)
def _blur(self):
do_whatever_you_need
使用这种方法不需要对原有环境做任何改动,一般来说是个好主意
关于machine-learning - 是否可以在训练前和训练期间修改 OpenAI 健身房状态?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/64773220/
我正在尝试在 pip 的帮助下安装完整的 openAI gym 库(一个用于开发和比较强化学习算法的工具包)。但我一次又一次地遇到同样的错误。我已经尝试了我在网上找到的所有方法来解决问题,但无法解决问
有人知道我们可以设置游戏初始状态的任何 OpenAI Gym 环境吗?例如,我发现 MountainCarContinuous-v0 可以做这样的事情,以便我们可以选择汽车启动的时间点。但是,我正在寻
我使用gym.Env作为父类创建了一个自定义环境,并且一切都在单核上运行良好。我的代码如下: class MyEnv(gym.Env): .... 但是,如果我尝试使用 SubprocVecEnv 使
在使用 openAI gym 作为学习环境时,我试图对强化学习有所了解。我通过阅读《使用 Python 进行强化学习实践》一书来做到这一点。在本书中,提供了一些代码。通常,代码不起作用,因为我必须先将
关闭。这个问题需要更多 focused .它目前不接受答案。 想改进这个问题?更新问题,使其仅关注一个问题 editing this post . 2年前关闭。 Improve this questi
我创建了一个非常简单的 OpenAI 健身房 ( banana-gym ),并想知道是否/如何实现 env.seed(0)。 参见https://github.com/openai/gym/issue
我已经安装了 OpenAI gym和 ATARI 环境。我知道我可以在documentation中找到所有的ATARI游戏。但是有没有办法在 Python 中做到这一点,没有 打印任何其他环境(例如,
我是 OpenAI gym 的新手。我已经在我的 Mac OS X (High Sierra 10.13.3) 笔记本电脑上成功安装了 OpenAI gym,并为 CartPole 游戏制作了一个 D
当我试图弄清楚 flocking env(来自 gym-flock)的重置条件时,我想到了这个问题:'return False' 能以某种方式返回 True 吗?? 核心代码是: 1: test_mo
当我试图弄清楚 flocking env(来自 gym-flock)的重置条件时,我想到了这个问题:'return False' 能以某种方式返回 True 吗?? 核心代码是: 1: test_mo
我正在尝试在 headless 服务器中运行健身房并在 jupyter 中呈现相同的内容。 Python 2.7 版。 我已经使用 xvfb-run -a -s "-screen 0 1400x900
我使用 OpenAI Gym 创建了一个自定义环境。我想要访问 init.py 中指定的 max_episode_steps 和reward_threshold例如: from gym.envs.re
我是一名优秀的程序员,十分优秀!