- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
张量b
和c
的requires_grad
为True
。但是张量 d
的 requires_grad
是 False
。我很好奇为什么会发生这种变化,因为输入的所有 requires_grad
都是 True。
但是,张量 e
的 requires_grad
为 True。我仍然可以在 e
上执行 backward()
。但是这样会不会出错呢?
我使用的是Python3.7和Pytorch1.1。
import torch
import torch.nn as nn
net = nn.Conv2d(1, 1, 3, padding=1)
a = torch.randn(1, 1, 10, 10)
b = net(a)
c = net(b)
d = torch.gt(b, c)
e = b - c
e[e > 0] = 1.0
e[e < 0] = 0.0
最佳答案
我假设这是因为你不能采用大于运算的梯度。返回类型是 bool 值:
>>> torch.gt(torch.tensor([[1, 2], [3, 4]]), torch.tensor([[1, 1], [4, 4]]))
tensor([[False, True], [False, False]])
而减号或其他算术运算返回另一个数字。
关于python - 为什么 torch.gt 函数将 requires_grad 变成 False?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57847484/
来自 docs : requires_grad – Boolean indicating whether the Variable has been created by a subgraph con
我想卡住我的一些模型。按照官方文档: with torch.no_grad(): linear = nn.Linear(1, 1) linear.eval() print(li
pytorch更新完后合并了Variable与Tensor torch.Tensor()能像Variable一样进行反向传播的更新,返回值为Tensor Variable自动创建tensor,且
当我使用 PyTorch 创建神经网络时,使用 torch.nn.Sequential 方法定义层,参数似乎默认为 requires_grad = False。但是,当我训练这个网络时,损失会减少。如
当我使用 PyTorch 创建神经网络时,使用 torch.nn.Sequential 方法定义层,参数似乎默认为 requires_grad = False。但是,当我训练这个网络时,损失会减少。如
我不能使用带有 requires_grad 参数的 torch.Tensor()(torch 版本:0.4.1) 没有 requires_grad : x = torch.Tensor([[.5, .
我在训练 MNIST 数据时收到此错误,csv 文件来自 Kaggle。有人可以告诉我哪里错了吗?这是我的代码。 PyTorch的版本是0.4.0。 import numpy as np import
我正在关注 PyTorch tutorial它使用 Huggingface Transformers 库中的 BERT NLP 模型(特征提取器)。有两段我不明白的梯度更新相关代码。 (1) torc
张量b 和c 的requires_grad 为True。但是张量 d 的 requires_grad 是 False。我很好奇为什么会发生这种变化,因为输入的所有 requires_grad 都是 T
Pytorch 0.4.0 引入了 Tensor 和 Variable 类的合并。 在此版本之前,当我想从一个 numpy 数组创建一个带有 autograd 的 Variable 时,我会执行以下操
我是一名优秀的程序员,十分优秀!