gpt4 book ai didi

python - 涉及离散变量时 pymc3 与 pymc2 的困难

转载 作者:太空狗 更新时间:2023-10-29 22:26:31 24 4
gpt4 key购买 nike

我正在更新一些我使用 pymc2 到 pymc3 的计算,当我的模型上有一些离散随机变量时,我在采样器行为方面遇到了一些问题。例如,考虑以下使用 pymc2 的模型:

import pymc as pm

N = 100
data = 10

p = pm.Beta('p', alpha=1.0, beta=1.0)
q = pm.Beta('q', alpha=1.0, beta=1.0)
A = pm.Binomial('A', N, p)
X = pm.Binomial('x', A, q, observed=True, value=data)

它并不能真正代表任何东西,它只是一个模型,其中一个未观察到的变量是离散的。当我使用 pymc2 对该模型进行采样时,我得到以下结果:

mcmc = pm.MCMC(model)
mcmc.sample(iter=100000, burn=50000, thin=100)
plot(mcmc)

A q p

但是当我对 PYMC3 进行同样的尝试时,我得到了这个:

with pm.Model() as model:
N = 100
p = pm.Beta('p', alpha=1.0, beta=1.0)
q = pm.Beta('q', alpha=1.0, beta=1.0)
A = pm.Binomial('A', N, p)
X = pm.Binomial('x', A, q, observed=10)

with model:
start = pm.find_MAP()

with model:
step = pm.NUTS()
trace = pm.sample(3000, step, start)

pm.traceplot(trace)

qa

看起来变量 A 根本没有被采样。我没有读太多关于 pymc3 中使用的采样方法的信息,但我注意到它似乎特别针对连续模型。这是否意味着它排除了模型中离散的未观察到的变量,或者是否有某种方法可以做我想做的事情?

最佳答案

NUTS 采样器不适用于离散变量(尽管人们正在努力推广它以实现这一点)。您要做的是将不同的步骤方法分配给不同类型的变量。例如:

step1 = pm.NUTS(vars=[p, q])
step2 = pm.Metropolis(vars=[A])

trace = pm.sample(3000, [step1, step2], start)

关于python - 涉及离散变量时 pymc3 与 pymc2 的困难,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21352696/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com