- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我知道在 pytorch 中有很多关于“计算 Hessian”的内容,但据我所知,我没有找到任何对我有用的东西。因此,尽量准确地说,我想要的 Hessian 是相对于网络参数的损失梯度的雅可比行列式。也称为关于参数的二阶导数矩阵。
我发现了一些以直观方式工作的代码,虽然不应该很快。它显然只是计算损失 w.r.t. 的梯度的梯度。 params w.r.t params,它一次只做一个元素(梯度的)。我认为逻辑绝对是正确的,但我收到了一个错误,与 requires_grad
有关。 .我是 pytorch 初学者,所以这可能是一件简单的事情,但错误似乎是说它不能采用 env_grads
的梯度。变量,它是前一个 grad 函数调用的输出。
对此的任何帮助将不胜感激。这是代码后跟错误消息。我还打印了 env_grads[0]
变量所以我们可以看到它实际上是一个张量,这是前面 grad
的正确输出称呼。
env_loss = loss_fn(env_outputs, env_targets)
total_loss += env_loss
env_grads = torch.autograd.grad(env_loss, params,retain_graph=True)
print( env_grads[0] )
hess_params = torch.zeros_like(env_grads[0])
for i in range(env_grads[0].size(0)):
for j in range(env_grads[0].size(1)):
hess_params[i, j] = torch.autograd.grad(env_grads[0][i][j], params, retain_graph=True)[0][i, j] # <--- error here
print( hess_params )
exit()
输出:
tensor([[-6.4064e-03, -3.1738e-03, 1.7128e-02, 8.0391e-03],
[ 7.1698e-03, -2.4640e-03, -2.2769e-03, -1.0687e-03],
[-3.0390e-04, -2.4273e-03, -4.0799e-02, -1.9149e-02],
...,
[ 1.1258e-02, -2.5911e-05, -9.8133e-02, -4.6059e-02],
[ 8.1502e-04, -2.5814e-03, 4.1772e-02, 1.9606e-02],
[-1.0075e-02, 6.6072e-03, 8.3118e-04, 3.9011e-04]], device='cuda:0')
错误:
Traceback (most recent call last):
File "/home/jefferythewind/anaconda3/envs/rapids3/lib/python3.7/runpy.py", line 193, in _run_module_as_main
"__main__", mod_spec)
File "/home/jefferythewind/anaconda3/envs/rapids3/lib/python3.7/runpy.py", line 85, in _run_code
exec(code, run_globals)
File "/home/jefferythewind/Projects/Irina/learning-explanations-hard-to-vary/and_mask/run_synthetic.py", line 258, in <module>
main(args)
File "/home/jefferythewind/Projects/Irina/learning-explanations-hard-to-vary/and_mask/run_synthetic.py", line 245, in main
deep_mask=args.deep_mask
File "/home/jefferythewind/Projects/Irina/learning-explanations-hard-to-vary/and_mask/run_synthetic.py", line 103, in train
scale_grad_inverse_sparsity=scale_grad_inverse_sparsity
File "/home/jefferythewind/Projects/Irina/learning-explanations-hard-to-vary/and_mask/and_mask_utils.py", line 154, in get_grads_deep
hess_params[i, j] = torch.autograd.grad(env_grads[0][i][j], params, retain_graph=True)[0][i, j]
File "/home/jefferythewind/anaconda3/envs/rapids3/lib/python3.7/site-packages/torch/autograd/__init__.py", line 157, in grad
inputs, allow_unused)
RuntimeError: element 0 of tensors does not require grad and does not have a grad_fn
最佳答案
PyTorch 最近添加了一个 functional higher level API至 torch.autograd
提供 torch.autograd.functional.hessian(func, inputs,
... )
直接计算标量函数的 Hessian func
关于 它的参数 在 由 inputs
指定的位置,对应于 func
的参数的张量元组. hessian
我相信它本身不支持自动微分。
但请注意,截至 2021 年 3 月,它仍处于测试阶段。
使用 torch.autograd.functional.hessian
的完整示例创建一个 score-test对于非零均值(作为一个样本 t 检验的(坏)替代方案):
import numpy as np
import torch, torchvision
from torch.autograd import Variable, grad
import torch.distributions as td
import math
from torch.optim import Adam
import scipy.stats
x_data = torch.randn(100)+0.0 # observed data (here sampled under H0)
N = x_data.shape[0] # number of observations
mu_null = torch.zeros(1)
sigma_null_hat = Variable(torch.ones(1), requires_grad=True)
def log_lik(mu, sigma):
return td.Normal(loc=mu, scale=sigma).log_prob(x_data).sum()
# Find theta_null_hat by some gradient descent algorithm (in this case an closed-form expression would be trivial to obtain (see below)):
opt = Adam([sigma_null_hat], lr=0.01)
for epoch in range(2000):
opt.zero_grad() # reset gradient accumulator or optimizer
loss = - log_lik(mu_null, sigma_null_hat) # compute log likelihood with current value of sigma_null_hat (= Forward pass)
loss.backward() # compute gradients (= Backward pass)
opt.step() # update sigma_null_hat
print(f'parameter fitted under null: sigma: {sigma_null_hat}, expected: {torch.sqrt((x_data**2).mean())}')
theta_null_hat = (mu_null, sigma_null_hat)
U = torch.tensor(torch.autograd.functional.jacobian(log_lik, theta_null_hat)) # Jacobian (= vector of partial derivatives of log likelihood w.r.t. the parameters (of the full/alternative model)) = score
I = -torch.tensor(torch.autograd.functional.hessian(log_lik, theta_null_hat)) / N # estimate of the Fisher information matrix
S = torch.t(U) @ torch.inverse(I) @ U / N # test statistic, often named "LM" (as in Lagrange multiplier), would be zero at the maximum likelihood estimate
pval_score_test = 1 - scipy.stats.chi2(df = 1).cdf(S) # S asymptocially follows a chi^2 distribution with degrees of freedom equal to the number of parameters fixed under H0
print(f'p-value Chi^2-based score test: {pval_score_test}')
#parameter fitted under null: sigma: tensor([0.9260], requires_grad=True), expected: 0.9259940385818481
# comparison with Student's t-test:
pval_t_test = scipy.stats.ttest_1samp(x_data, popmean = 0).pvalue
#> p-value Chi^2-based score test: 0.9203232752568568
print(f'p-value Student\'s t-test: {pval_t_test}')
#> p-value Student's t-test: 0.9209265268946605
关于python - 如何计算损失 w.r.t. 的 Hessian PyTorch 中使用 autograd.grad 的参数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/64997817/
在PyTorch实现中,autograd会随着用户的操作,记录生成当前variable的所有操作,并由此建立一个有向无环图。用户每进行一个操作,相应的计算图就会发生改变。 更底层的实现中,图中记录
torch.autograd.backward(variables, grad_variables=None, retain_graph=None, create_graph=False) 给定图
每当我调用 autograds backward 时,我的脚本永远不会终止。 backward 本身不是阻塞的,它之后的所有行仍然被执行,脚本只是没有终止。似乎后台有某种工作线程挂起,但我找不到任何相
我试图了解 pytorch autograd 的工作原理。如果我有函数 y = 2x 和 z = y**2,如果我进行正常微分,我会在 x = 1 处得到 dz/dx 作为 8 (dz/dx = dz
如果这个问题很明显或微不足道,我深表歉意。我对 pytorch 很陌生,我想了解 pytorch 中的 autograd.grad 函数。我有一个神经网络 G,它接受输入 (x,t) 和输出 (u,v
尝试了解渐变的表示方式以及 autograd 的工作原理: import torch from torch.autograd import Variable x = Variable(torch.Te
我试图了解 pytorch autograd 的工作原理。如果我有函数 y = 2x 和 z = y**2,如果我进行正常微分,我会在 x = 1 处得到 dz/dx 作为 8 (dz/dx = dz
我正在尝试做一件简单的事情:使用 autograd 获取梯度并进行梯度下降: import tangent def model(x): return a*x + b def loss(x,y)
我正在构建一个用于强化学习的多模型神经网络,其中包括一个 Action 网络、一个世界模型网络和一个评论家。这个想法是训练世界模型根据来自 Action 网络的输入和之前的状态来模拟你试图掌握的任何模
我有一个接受多变量参数 x 的函数。这里 x = [x1,x2,x3]。假设我的函数看起来像:f(x,T) = np.dot(x,T) + np.exp(np.dot(x,T) 其中 T 是常数。 我
我只是想知道,PyTorch 如何跟踪张量上的操作(在 .requires_grad 设置为 True 之后它如何自动计算梯度。请帮助我理解 autograd 背后的想法。谢谢。 最佳答案 这是个好问
将 pytorch 的 autograd 与 joblib 混合使用似乎存在问题。我需要为很多样本并行获取梯度。 Joblib 在 pytorch 的其他方面工作得很好,但是,当与 autograd
我正在研究“使用 fastai 和 Pytorch 为编码人员进行深度学习”。第 4 章通过一个简单的例子介绍了 PyTorch 库中的 autograd 函数。 x = tensor([3.,4.,
在我之前的 question我找到了如何使用 PyTorch 的 autograd 进行区分。它起作用了: #autograd import torch from torch.autograd imp
执行 backward在 Pytorch 中,我们可以使用可选参数 y.backward(v)计算雅可比矩阵乘以 v : x = torch.randn(3, requires_grad=True)
我明白 autograd用于暗示自动微分。但究竟是什么tape-based autograd在 Pytorch以及为什么有这么多的讨论肯定或否定它。 例如: this In pytorch, ther
我加载 features和 labels从我的训练数据集中。它们最初都是 numpy 数组,但我使用 torch.from _numpy(features.copy()) 将它们更改为火炬张量和 to
我将此作为问题提交给 cycleGAN pytorch implementation , 但由于那里没有人回复我,我会在这里再问一次。 我主要对在一次反向传球之前调用多次正向传球这一事实感到困惑,请参
我正在使用 pytorch 来计算逻辑回归的损失(我知道 pytorch 可以自动执行此操作,但我必须自己制作)。我的函数定义如下,但转换为 torch.tensor 会破坏 autograd 并给出
我想知道下面的代码如何才能更快。目前,它似乎慢得不合理,我怀疑我可能错误地使用了 autograd API。我期望的输出是 timeline 的每个元素在 f 的 jacobian 中求值,我确实得到
我是一名优秀的程序员,十分优秀!