- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
<分区>
我正在尝试使用 a famous MDP library for python 实现 4 维赛车问题.
我们在二维轨道上有一辆赛车。
当我说 4 维问题时,我的意思是每个 STATE 是 (x,y,vx,vy),意思是:位置 (x,y) 和速度 (vx,vy)。 SPEED 为 0 或 1(对于每个轴),因此状态的数量有限且很小。
有一个起始状态和一个或多个目标状态。当你撞到“墙”时,你会回到初始状态。
因为我想鼓励一个尽可能少的步骤的解决方案,每个可通过的 block 都有一个“-1”奖励,一堵墙有“无”(如 GridMDP 示例),目标有“0”。
ACTION 是二维的 (a,b),意味着 x 轴和 y 轴相应的加速度。行动是有限的。 Action 列表是有限且小的,并且是:
[(0, 1), (-1, 0), (-1, 1), (0, -1), (0, 0), (1, -1), (1, 0), (1, 1), (-1, -1)]
我构建了一个类 FourDimMDPClass,它继承自 MDP 类,并进行了适当的更改(类似于他们在上面链接中的 GridMDP 类中所做的)
为了让事情变得简单,状态转换是确定性的。意思是,T 函数以概率 1 返回一个期望的状态(如果撞到墙,则返回起始状态)。
我使用提供的 value_iteration 方法解决了 MDP,然后尝试使用 best_policy 方法获得正确的策略。
我的问题是:出于某种原因,退回的政策完全是胡说八道。所有状态都会返回一个常量 Action 。此操作只是操作列表中的第一个操作。当我更改 Action 列表的顺序时,总是返回新的第一个 Action 。
这就是一条非常简单的小轨道所发生的情况。
我已经尝试调试这么多小时了,但没有任何进展。我尝试查看传递给 MDP 机制的所有值,它们看起来不错。
非常感谢您的帮助。
亚历克斯
附言原始数据:
Current track:
#####
# #
#&#*#
#####
& is the starting point
* is the goal
# means wall (or obstacle)
& is at (1,1)
* is at (3,1)
states set( [
(1, 1, 0, 1), (3, 2, 1, 0), (3, 1, 0, 1), (2, 2, 1, 1), (1, 1, 1, 0), (3, 2, 0, 1),
(3, 1, 1, 0), (1, 1, 0, 0), (1, 2, 1, 1), (3, 1, 0, 0), (1, 1, 1, 1), (1, 2, 0, 0),
(3, 1, 1, 1), (1, 2, 1, 0), (2, 2, 0, 1), (1, 2, 0, 1), (3, 2, 1, 1), (2, 2, 1, 0),
(3, 2, 0, 0), (2, 2, 0, 0)]) set
reward {
(0, 2, 0, 1): None, (2, 2, 1, 1): -1, (0, 3, 0, 0): None, (3, 1, 1, 0): 0,
(4, 1, 1, 1): None, (0, 3, 1, 0): None, (1, 3, 0, 1): None, (3, 1, 0, 0): 0,
(1, 1, 1, 1): -1, (1, 2, 0, 0): -1, (3, 0, 0, 1): None, (2, 0, 1, 0): None,
(4, 2, 1, 1): None, (4, 1, 0, 0): None, (1, 2, 1, 0): -1, (2, 0, 0, 0): None,
(2, 3, 1, 1): None, (0, 0, 1, 1): None, (3, 3, 0, 1): None, (2, 1, 0, 1): None,
(4, 1, 1, 0): None, (3, 2, 0, 0): -1, (1, 0, 1, 1): None, (3, 2, 1, 0): -1,
(0, 2, 1, 0): None, (0, 2, 0, 0): None, (0, 1, 1, 1): None, (0, 3, 0, 1): None,
(1, 3, 1, 0): None, (3, 1, 1, 1): 0, (4, 0, 1, 0): None, (1, 3, 0, 0): None,
(2, 2, 0, 1): -1, (1, 2, 0, 1): -1, (4, 2, 0, 1): None, (2, 0, 1, 1): None,
(2, 3, 0, 0): None, (4, 1, 0, 1): None, (3, 3, 1, 0): None, (2, 3, 1, 0): None,
(1, 1, 0, 1): -1, (3, 3, 0, 0): None, (3, 0, 1, 1): None, (1, 0, 0, 0): None,
(3, 2, 0, 1): -1, (4, 3, 0, 0): None, (1, 0, 1, 0): None, (0, 0, 0, 1): None,
(4, 0, 0, 0): None, (2, 1, 1, 1): None, (0, 2, 1, 1): None, (0, 1, 0, 0): None,
(4, 3, 1, 0): None, (4, 2, 0, 0): None, (0, 1, 1, 0): None, (4, 0, 0, 1): None,
(1, 3, 1, 1): None, (4, 3, 1, 1): None, (2, 2, 1, 0): -1, (4, 0, 1, 1): None,
(2, 2, 0, 0): -1, (0, 3, 1, 1): None, (3, 1, 0, 1): 0, (2, 3, 0, 1): None,
(1, 1, 1, 0): -1, (3, 3, 1, 1): None, (3, 0, 0, 0): None, (4, 2, 1, 0): None,
(1, 1, 0, 0): -1, (1, 2, 1, 1): -1, (3, 0, 1, 0): None, (2, 0, 0, 1): None,
(1, 0, 0, 1): None, (0, 0, 1, 0): None, (2, 1, 0, 0): None, (4, 3, 0, 1): None,
(0, 0, 0, 0): None, (2, 1, 1, 0): None, (0, 1, 0, 1): None, (3, 2, 1, 1): -1
} dict
MDPSolution {
(1, 1, 0, 1): -4.68559,
(2, 2, 1, 1): -4.68559,
(3, 2, 0, 1): -4.68559,
(3, 1, 1, 0): -3.6855900000000004,
(3, 1, 0, 0): 0.0,
(1, 1, 1, 1): -4.68559,
1, 2, 0, 0): -4.68559,
(1, 2, 1, 0): -4.68559,
(2, 2, 1, 0): -4.68559,
(3, 2, 0, 0): -4.68559,
(2, 2, 0, 0): -4.68559,
(3, 2, 1, 0): -4.68559,
(3, 1, 0, 1): -3.6855900000000004,
(1, 1, 1, 0): -4.68559,
(1, 1, 0, 0): -4.68559,
(1, 2, 1, 1): -4.68559,
(3, 1, 1, 1): -3.6855900000000004,
(2, 2, 0, 1): -4.68559,
(1, 2, 0, 1): -4.68559,
(3, 2, 1, 1): -4.68559
} dict
MDPPolicy {
(1, 1, 0, 1): (0, 1),
(3, 2, 1, 0): (0, 1),
(3, 1, 0, 1): None,
(2, 2, 1, 1): (0, 1),
(1, 1, 1, 0): (0, 1),
(3, 2, 0, 1): (0, 1),
(3, 1, 1, 0): None,
(1, 1, 0, 0): (0, 1),
(1, 2, 1, 1): (0, 1),
(3, 1, 0, 0): None,
(1, 1, 1, 1): (0, 1),
(1, 2, 0, 0): (0, 1),
(3, 1, 1, 1): None,
(1, 2, 1, 0): (0, 1),
(2, 2, 0, 1): (0, 1),
(1, 2, 0, 1): (0, 1),
(3, 2, 1, 1): (0, 1),
(2, 2, 1, 0): (0, 1),
(3, 2, 0, 0): (0, 1),
(2, 2, 0, 0): (0, 1)
} dict
主要功能:
T得到一个状态和一个 Action ,并返回下一个状态
def T(self, state, action):
if (action==None):
new_vx = state[2]
new_vy = state[3]
else:
new_vx = state[2]+ action[0]
new_vy = state[3]+ action[1]
myProbStateList = []
nextState = self.go(state, (state[0]+new_vx,state[1]+new_vy,new_vx,new_vy))
myProbStateList.append((1.0,nextState))
return myProbStateList
go 获取 state 和 new_state。如果state到new_state的路由合法,则返回new_state。否则,返回初始状态。
def go(self,state, new_state):
"Return the state that results from trying to going in the new state."
#state1 = utils.vector_add(state, acceleration)
myInitState = (self.init[0],self.init[1],0,0)
old_loc = (state[0],state[1])
new_loc = (new_state[0],new_state[1])
if ((new_state in self.states) & self.track.isFreeWay(old_loc,new_loc) & self.track.in_bounds(new_state[0],new_state[1])):
return new_state
else:
return myInitState
这个问题不太可能帮助任何 future 的访问者;它只与一个小的地理区域、一个特定的时间点或一个非常狭窄的情况有关,这些情况并不普遍适用于互联网的全局受众。为了帮助使这个问题更广泛地适用,visit
我有一个使用 Spring 实现的 Spring MDP DefaultMessageListenderContainer监听 WebSphere MQ v7.1 上的输入队列。如果有错误消息传入(导
我使用 here 中的 Multidatepicker MDP . 我想获取用户选择的总天数,并将其放入输入文本中。 例如,如果用户选择 2 天,则总计为 2。 并总共放入一个输入类型文本。 这是我的
我正在寻找一种解决马尔可夫决策过程 (MDP) 的方法。我知道从一种状态到另一种状态的转变是确定性的,但环境是不稳定的。这意味着当再次访问同一状态时,代理获得的奖励可能会有所不同。是否有一种算法,如
如果我通过指定 sessionTransacted=true 或 transactionManager=jmsTransactionManager 在我的 DefaultMessageListener
寻求一些帮助来解决无限期问题、成本最小化问题以及一些必须访问的状态。 我们有一个预算 b 和一个成本矩阵 M,它表示状态之间旅行的扣除额(Mij 表示从 i 到 j 的旅行成本),类似于经典的旅行商问
What do we mean by 1 step/state MDP(Markov decision process) ? 最佳答案 让我们考虑一个 n 个 Action 1 状态 MDP。无论您采
给定一组基函数,有很多关于寻找权重向量来线性逼近值(value)函数的论文。有没有关于如何求基函数的论文?是否可以计算最佳基函数来紧凑地表示值(value)函数? 最佳答案 我不这么认为。 您基本上寻
我正在尝试设计一个迭代 markov decision process (MDP)具有以下特点的 Python 代理: 可观察状态 我通过保留一些状态空间来处理潜在的“未知”状态用于回答 DP 做出的
我在使用 WebSphereUowTransactionManager 在 WebSphere 7.0 中的 Spring 3.0.4 中设置 MDP 时遇到问题。 . 如果我不使用 WebSpher
请原谅我的无知,我是 Python 的新手。我正在尝试使用 MDP 在 Python 中执行因子分析(尽管如果有更好的解决方案,我可以使用另一个库)。 我有一个 m x n 矩阵(称为矩阵),我尝试这
我正在网格世界中实现 Q-learning,以找到最佳策略。困扰我的一件事是状态转换是随机的。例如,如果我处于状态 (3,2) 并采取“向北”行动,则我将以 0.8 的概率到达 (3,1),以 0.1
我希望使用 Majordomo API,pyzmq-mdp . example在客户端的存储库中,我不太了解。 在 myclient.py 中,示例在不使用 MDPClient API 的情况下手动创
我是一名优秀的程序员,十分优秀!