- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我应该想出一个 MDP 代理,它使用策略迭代和值迭代进行分配,并将其性能与状态的效用值进行比较。
如果 MDP 智能体知道转换概率和奖励,它如何知道移动哪个 Action ?
据我了解,MDP 代理将执行策略迭代,并根据给定的策略计算它在达到终止状态时获得的奖励。该策略是从值迭代算法发展而来的。
有人可以提供一些关于策略迭代如何工作的直觉吗?
最佳答案
假设您已经了解什么是策略迭代和值迭代算法,代理只需通过为每个状态选择具有最高值的操作来构建新策略。
一个 Action 的值(value)是该 Action 所有可能的下一个状态到达下一个状态的概率 *(下一个状态的值 + 转换的奖励)的总和。
关于artificial-intelligence - 网格世界中策略迭代背后的直觉,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13114454/
发自 csexchange : 我见过的大多数模拟退火版本的实现类似于下面维基百科伪代码中概述的内容: Let s = s0 For k = 0 through kmax (exclusive):
我得到了这段代码用于分析: private String type[] = {"Hearts","Spades","Clubs","Diamonds"}; private String rank[]
我对机器学习算法和 Spark 非常陌生。我遵循Twitter 流语言分类器在这里找到: http://databricks.gitbooks.io/databricks-spark-referenc
直观的逻辑,具有 build 性,是函数式编程中类型系统的基础。经典逻辑不是 build 性的,尤其是排中律 A ∨ ¬A(或其等价物,例如 double negation elimination 或
我是一名优秀的程序员,十分优秀!