- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我在 Ted Talk 链接中看到了 Alex Wissner-gross 和他的智能行为理论 Here .我试图阅读链接的学术论文 Here ,这与他的演讲有关,但我对数学和物理学的理解不够,无法真正理解发生了什么,更重要的是,我无法在 Python 中重现这个等式。
我发现有几个独特的熵最大化模型是用 python 实现的,但我不知道如何设置它们以及它们是否与 Wissner-gross 方程相同。
Scipy:MaxEntropy
假设这些方程是维斯纳方程的不同形式,并使用上面的库或其他库,我该如何设置熵最大化算法。
特别是,
最佳答案
这个问题很笼统,不幸的是,我认为这个答案不会为您提供您可能希望得到的解决方案。
首先,您关于“这些方程是维斯纳方程的不同形式”的假设似乎是错误的。
浏览了这篇论文后,他们所谓的因果熵力 (F) 模型似乎确实与最大熵模型 (毫不奇怪),你已经找到了一些图书馆。但是,要了解这些库如何用于因果熵强制的实现,您将必须查看论文并找出不同的表达式如何匹配/共享组件。我怀疑这里的任何人都会为你做那件事。 Wikipedia article about maximum entropy可能会帮助你找到关系。
要开始动画和移动,我建议你找一些 Sprite 动画的介绍,for example this one .这将帮助您了解如何使用代码在空间中四处移动对象。
编辑
论文的supplemental material绝对值得一看,甚至包含一些伪代码。另外,论文中的引用文献[12]是这样写的:
Our general-purpose causal entropic force simulation software will be made available for exploration at http://www.causalentropy.org
关于python - 一个新的智力方程式 : Difficulties with Entropy Maximization,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23750937/
In [15]: a = np.array([0.5, 0.5, 0, 0, 0]) In [16]: b = np.array([1, 0, 0, 0, 0]) In [17]: entropy(a
我有一个关于熵解释的问题。对于我数据集中的每个人,我都有一个 17 个字符(年)长的字符串/序列。我特别感兴趣的是在这个观察期内发生了多少变化。 我正在考虑使用 R 的 TraMineR 包为此计算序
我遇到了一个问题,即通过 SSL 使用 java 时速度很慢。解决办法是添加 -Djava.security.egd=file:/dev/./urandom在命令行中运行 java。由于我有多个 JV
我看到在很多地方(包括堆栈)都推荐了这种技术,我无法忘记这会减少熵!毕竟,您正在再次散列一些已经散列并且有碰撞机会的东西。碰撞机会超过碰撞机会会不会导致更多的碰撞机会?经过研究,似乎我错了,但为什么呢
我有一个嵌入式系统。我希望它在开机或以其他方式重置时做的是生成一个唯一的 ID,以便在不同的重新启动时以很高的概率生成一个不同的唯一 ID。 它无法访问实时时钟,但可以访问 ADC 和 UART。我想
我使用这个代码 训练模型的函数 def train(): model.train() total_loss, total_accuracy = 0, 0 # empty list
我正在阅读这本书 ( NLTK ) 并且令人困惑。 熵 是 defined as : Entropy is the sum of the probability of each label times
我遇到了一个问题,即通过 SSL 使用 java 时速度很慢。解决方法是添加 -Djava.security.egd=file:/dev/./urandom在命令行中使用 java。由于我有多个 JV
我在 Ted Talk 链接中看到了 Alex Wissner-gross 和他的智能行为理论 Here .我试图阅读链接的学术论文 Here ,这与他的演讲有关,但我对数学和物理学的理解不够,无法真
我对 BQ 的人有一个建议:我认为如果有一个内置函数可以返回列的熵,那将非常有用。一列离散类别或值相对容易。想法?这是否已经存在,但我没有找到它? 最佳答案 简单的解决方案如下 - 它计算列中不同值的
反熵协议(protocol)是八卦协议(protocol)的一种形式。 http://en.wikipedia.org/wiki/Gossip_protocol 。我想知道是否有人可以解释一下这里词熵
如果我使用 Matlab entropy() 函数估计标准正态随机变量向量的熵,我得到的答案在 4 左右,而 actual entropy应该是 0.5 * log(2*pi*e*sigma^2) 大
我用这个生成随机字符串: $characters = '0123456789QWERTYUIOPASDFGHJKLZXCVBNMqwertyuiopasdfghjklzxcvbnm'; $cl =
我正在尝试使用 scipy.stats.entropy 来估计两个分布之间的 Kullback–Leibler (KL) 散度。更具体地说,我想使用 KL 作为衡量标准来确定两个分布的一致性。 但是,
我很难理解 JPEG 文件格式的 ITU-T T.81 规范。希望这里的其他人已经尝试解析 JPEG 文件和/或了解此文件格式的详细信息。 规范表明 ECS0 段在 SOS 段之后开始,但我无法在规范
我实现了一个简单的神经网络。它适用于“sigmoid + 交叉熵”、“sigmoid + 二次成本”和“tanh + 二次成本”,但不适用于“tanh + 交叉熵”(不比随机猜测好)。谁能帮我弄清楚为
我在 Linux Ubuntu 上运行的 apache 服务器有问题。出于某种原因,我在日志文件中有以下警告:AH01990:PRNG 仍然包含不足的熵!。有时我可以访问该网站,但大多数时候我会收到以
我正在使用 Keras 并尝试从上下文中预测单词,例如来自一句话“我不得不说食物很美味!”我希望得到这样的东西: [say the ? was tasty] -> food, meals, spagh
我的图像有一个非白色区域(例如段落但不处理 OCR)。这些区域之间的空间有些规则,观看图像的人将能够看到这些区域之间有空白。 我打算做的是找到所有区域的顶角和底角,从底角开始到下一个区域的顶角,取每条
我希望通过使用 rpy2 调用 R 的 RTransferEntropy 包来计算 JupyterLab 笔记本中的传输熵,但这样做时遇到问题。 我正在使用 Anaconda 和 Python 3.7
我是一名优秀的程序员,十分优秀!