- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我想知道下面的代码如何才能更快。目前,它似乎慢得不合理,我怀疑我可能错误地使用了 autograd API。我期望的输出是 timeline
的每个元素在 f 的 jacobian 中求值,我确实得到了,但它需要很长时间:
import numpy as np
from autograd import jacobian
def f(params):
mu_, log_sigma_ = params
Z = timeline * mu_ / log_sigma_
return Z
timeline = np.linspace(1, 100, 40000)
gradient_at_mle = jacobian(f)(np.array([1.0, 1.0]))
我希望得到以下结果:
jacobian(f)
返回表示梯度向量 w.r.t 的函数。参数。 jacobian(f)(np.array([1.0, 1.0]))
是在点 (1, 1) 计算的 Jacobian。对我来说,这应该像一个向量化的 numpy 函数,所以它应该执行得非常快,即使对于 40k 长度的数组也是如此。然而,事实并非如此。即使像下面这样的东西也有同样糟糕的表现:
import numpy as np
from autograd import jacobian
def f(params, t):
mu_, log_sigma_ = params
Z = t * mu_ / log_sigma_
return Z
timeline = np.linspace(1, 100, 40000)
gradient_at_mle = jacobian(f)(np.array([1.0, 1.0]), timeline)
最佳答案
来自 https://github.com/HIPS/autograd/issues/439我收集到有一个未记录的函数 autograd.make_jvp
以快进模式计算雅可比矩阵。
链接状态:
Given a function f, vectors x and v in the domain of f,
make_jvp(f)(x)(v)
computes both f(x) and the Jacobian of f evaluated at x, right multiplied by the vector v.To get the full Jacobian of f you just need to write a loop to evaluate
make_jvp(f)(x)(v)
for each v in the standard basis of f's domain. Our reverse mode Jacobian operator works in the same way.
从你的例子:
import autograd.numpy as np
from autograd import make_jvp
def f(params):
mu_, log_sigma_ = params
Z = timeline * mu_ / log_sigma_
return Z
timeline = np.linspace(1, 100, 40000)
gradient_at_mle = make_jvp(f)(np.array([1.0, 1.0]))
# loop through each basis
# [1, 0] evaluates (f(0), first column of jacobian)
# [0, 1] evaluates (f(0), second column of jacobian)
for basis in (np.array([1, 0]), np.array([0, 1])):
val_of_f, col_of_jacobian = gradient_at_mle(basis)
print(col_of_jacobian)
输出:
[ 1. 1.00247506 1.00495012 ... 99.99504988 99.99752494
100. ]
[ -1. -1.00247506 -1.00495012 ... -99.99504988 -99.99752494
-100. ]
这在 google collab 上运行大约 0.005 秒。
编辑:
cdf
之类的函数还没有为常规 jvp
定义,但是您可以在定义它的地方使用另一个未记录的函数 make_jvp_reversemode
。用法类似,只是输出只是列而不是函数的值:
import autograd.numpy as np
from autograd.scipy.stats.norm import cdf
from autograd.differential_operators import make_jvp_reversemode
def f(params):
mu_, log_sigma_ = params
Z = timeline * cdf(mu_ / log_sigma_)
return Z
timeline = np.linspace(1, 100, 40000)
gradient_at_mle = make_jvp_reversemode(f)(np.array([1.0, 1.0]))
# loop through each basis
# [1, 0] evaluates first column of jacobian
# [0, 1] evaluates second column of jacobian
for basis in (np.array([1, 0]), np.array([0, 1])):
col_of_jacobian = gradient_at_mle(basis)
print(col_of_jacobian)
输出:
[0.05399097 0.0541246 0.05425823 ... 5.39882939 5.39896302 5.39909665]
[-0.05399097 -0.0541246 -0.05425823 ... -5.39882939 -5.39896302 -5.39909665]
请注意,由于使用了缓存,make_jvp_reversemode
将比 make_jvp
稍微快一个常数因子。
关于python - 提高 autograd jacobian 的性能,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54488875/
在PyTorch实现中,autograd会随着用户的操作,记录生成当前variable的所有操作,并由此建立一个有向无环图。用户每进行一个操作,相应的计算图就会发生改变。 更底层的实现中,图中记录
torch.autograd.backward(variables, grad_variables=None, retain_graph=None, create_graph=False) 给定图
每当我调用 autograds backward 时,我的脚本永远不会终止。 backward 本身不是阻塞的,它之后的所有行仍然被执行,脚本只是没有终止。似乎后台有某种工作线程挂起,但我找不到任何相
我试图了解 pytorch autograd 的工作原理。如果我有函数 y = 2x 和 z = y**2,如果我进行正常微分,我会在 x = 1 处得到 dz/dx 作为 8 (dz/dx = dz
如果这个问题很明显或微不足道,我深表歉意。我对 pytorch 很陌生,我想了解 pytorch 中的 autograd.grad 函数。我有一个神经网络 G,它接受输入 (x,t) 和输出 (u,v
尝试了解渐变的表示方式以及 autograd 的工作原理: import torch from torch.autograd import Variable x = Variable(torch.Te
我试图了解 pytorch autograd 的工作原理。如果我有函数 y = 2x 和 z = y**2,如果我进行正常微分,我会在 x = 1 处得到 dz/dx 作为 8 (dz/dx = dz
我正在尝试做一件简单的事情:使用 autograd 获取梯度并进行梯度下降: import tangent def model(x): return a*x + b def loss(x,y)
我正在构建一个用于强化学习的多模型神经网络,其中包括一个 Action 网络、一个世界模型网络和一个评论家。这个想法是训练世界模型根据来自 Action 网络的输入和之前的状态来模拟你试图掌握的任何模
我有一个接受多变量参数 x 的函数。这里 x = [x1,x2,x3]。假设我的函数看起来像:f(x,T) = np.dot(x,T) + np.exp(np.dot(x,T) 其中 T 是常数。 我
我只是想知道,PyTorch 如何跟踪张量上的操作(在 .requires_grad 设置为 True 之后它如何自动计算梯度。请帮助我理解 autograd 背后的想法。谢谢。 最佳答案 这是个好问
将 pytorch 的 autograd 与 joblib 混合使用似乎存在问题。我需要为很多样本并行获取梯度。 Joblib 在 pytorch 的其他方面工作得很好,但是,当与 autograd
我正在研究“使用 fastai 和 Pytorch 为编码人员进行深度学习”。第 4 章通过一个简单的例子介绍了 PyTorch 库中的 autograd 函数。 x = tensor([3.,4.,
在我之前的 question我找到了如何使用 PyTorch 的 autograd 进行区分。它起作用了: #autograd import torch from torch.autograd imp
执行 backward在 Pytorch 中,我们可以使用可选参数 y.backward(v)计算雅可比矩阵乘以 v : x = torch.randn(3, requires_grad=True)
我明白 autograd用于暗示自动微分。但究竟是什么tape-based autograd在 Pytorch以及为什么有这么多的讨论肯定或否定它。 例如: this In pytorch, ther
我加载 features和 labels从我的训练数据集中。它们最初都是 numpy 数组,但我使用 torch.from _numpy(features.copy()) 将它们更改为火炬张量和 to
我将此作为问题提交给 cycleGAN pytorch implementation , 但由于那里没有人回复我,我会在这里再问一次。 我主要对在一次反向传球之前调用多次正向传球这一事实感到困惑,请参
我正在使用 pytorch 来计算逻辑回归的损失(我知道 pytorch 可以自动执行此操作,但我必须自己制作)。我的函数定义如下,但转换为 torch.tensor 会破坏 autograd 并给出
我想知道下面的代码如何才能更快。目前,它似乎慢得不合理,我怀疑我可能错误地使用了 autograd API。我期望的输出是 timeline 的每个元素在 f 的 jacobian 中求值,我确实得到
我是一名优秀的程序员,十分优秀!