- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在网格世界中实现 Q-learning,以找到最佳策略。困扰我的一件事是状态转换是随机的。例如,如果我处于状态 (3,2) 并采取“向北”行动,则我将以 0.8 的概率到达 (3,1),以 0.1 的概率到达 (2,2),并以 0.1 的概率到达 (4) ,2) 概率为 0.1。我如何将这些信息融入到算法中?正如我到目前为止所读到的,Q-learning 是一种“无模型”学习——它不需要知道状态转换概率。我不相信算法在训练过程中如何自动找到这些转移概率。如果有人能解决问题,我将不胜感激。
最佳答案
让我们看看 Q-learning 保证了什么,看看它为什么处理转移概率。
让我们将 q*
称为最佳 Action 值函数。该函数返回在某种状态下采取某种操作的正确值。状态- Action 对的值是采取该 Action ,然后遵循最优策略的预期累积奖励。最优策略只是一种选择能够实现最大可能预期累积奖励的操作的方法。一旦我们有了q*
,就很容易找到最优策略;从您所处的每个状态 s
中,贪婪地选择最大化 q*(s,a)
的操作。 Q-learning 学习 q*
假设它无限次访问所有状态和 Action 。
For example, if I am in the state (3,2) and take an action 'north', I would land-up at (3,1) with probability 0.8, to (2,2) with probability 0.1 and to (4,2) with probability 0.1. How do I fit this information in the algorithm?
由于该算法无限次访问所有状态和 Action ,并对 q 值进行平均,因此它会了解尝试向北行驶的值的期望。我们向北走很多次,以至于该值收敛到每个可能结果以其转移概率加权的总和。假设我们知道网格世界上的所有值,除了从 (3,2) 向北的值之外,并假设从 (3,2) 开始的任何转换都没有奖励。从 (3,2) 向北采样无限次后,算法收敛到值0.8 * q(3,1) + 0.1 * q(2,2) + 0.1 * q(4,2)
.有了这个值,来自 (3,2) 的贪婪行动选择现在将被正确告知尝试向北行驶的真实期望值。转移概率直接融入到值中!
关于machine-learning - MDP 中的随机状态转换 : How does Q-learning estimate that?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39247265/
这个问题不太可能帮助任何 future 的访问者;它只与一个小的地理区域、一个特定的时间点或一个非常狭窄的情况有关,这些情况并不普遍适用于互联网的全局受众。为了帮助使这个问题更广泛地适用,visit
我有一个使用 Spring 实现的 Spring MDP DefaultMessageListenderContainer监听 WebSphere MQ v7.1 上的输入队列。如果有错误消息传入(导
我使用 here 中的 Multidatepicker MDP . 我想获取用户选择的总天数,并将其放入输入文本中。 例如,如果用户选择 2 天,则总计为 2。 并总共放入一个输入类型文本。 这是我的
我正在寻找一种解决马尔可夫决策过程 (MDP) 的方法。我知道从一种状态到另一种状态的转变是确定性的,但环境是不稳定的。这意味着当再次访问同一状态时,代理获得的奖励可能会有所不同。是否有一种算法,如
如果我通过指定 sessionTransacted=true 或 transactionManager=jmsTransactionManager 在我的 DefaultMessageListener
寻求一些帮助来解决无限期问题、成本最小化问题以及一些必须访问的状态。 我们有一个预算 b 和一个成本矩阵 M,它表示状态之间旅行的扣除额(Mij 表示从 i 到 j 的旅行成本),类似于经典的旅行商问
What do we mean by 1 step/state MDP(Markov decision process) ? 最佳答案 让我们考虑一个 n 个 Action 1 状态 MDP。无论您采
给定一组基函数,有很多关于寻找权重向量来线性逼近值(value)函数的论文。有没有关于如何求基函数的论文?是否可以计算最佳基函数来紧凑地表示值(value)函数? 最佳答案 我不这么认为。 您基本上寻
我正在尝试设计一个迭代 markov decision process (MDP)具有以下特点的 Python 代理: 可观察状态 我通过保留一些状态空间来处理潜在的“未知”状态用于回答 DP 做出的
我在使用 WebSphereUowTransactionManager 在 WebSphere 7.0 中的 Spring 3.0.4 中设置 MDP 时遇到问题。 . 如果我不使用 WebSpher
请原谅我的无知,我是 Python 的新手。我正在尝试使用 MDP 在 Python 中执行因子分析(尽管如果有更好的解决方案,我可以使用另一个库)。 我有一个 m x n 矩阵(称为矩阵),我尝试这
我正在网格世界中实现 Q-learning,以找到最佳策略。困扰我的一件事是状态转换是随机的。例如,如果我处于状态 (3,2) 并采取“向北”行动,则我将以 0.8 的概率到达 (3,1),以 0.1
我希望使用 Majordomo API,pyzmq-mdp . example在客户端的存储库中,我不太了解。 在 myclient.py 中,示例在不使用 MDPClient API 的情况下手动创
我是一名优秀的程序员,十分优秀!