- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我想围绕它的中心随机旋转图像张量(B、C、H、W)(我认为是 2d 旋转?)。我想避免使用 NumPy 和 Kornia,这样我基本上只需要从 torch 模块导入。我也没有使用 torchvision.transforms
,因为我需要它与 autograd 兼容。本质上,我正在尝试创建一个与 autograd 兼容的版本 torchvision.transforms.RandomRotation()
对于像 DeepDream 这样的可视化技术(所以我需要尽可能避免伪像)。
import torch
import math
import random
import torchvision.transforms as transforms
from PIL import Image
# Load image
def preprocess_simple(image_name, image_size):
Loader = transforms.Compose([transforms.Resize(image_size), transforms.ToTensor()])
image = Image.open(image_name).convert('RGB')
return Loader(image).unsqueeze(0)
# Save image
def deprocess_simple(output_tensor, output_name):
output_tensor.clamp_(0, 1)
Image2PIL = transforms.ToPILImage()
image = Image2PIL(output_tensor.squeeze(0))
image.save(output_name)
# Somehow rotate tensor around it's center
def rotate_tensor(tensor, radians):
...
return rotated_tensor
# Get a random angle within a specified range
r_degrees = 5
angle_range = list(range(-r_degrees, r_degrees))
n = random.randint(angle_range[0], angle_range[len(angle_range)-1])
# Convert angle from degrees to radians
ang_rad = angle * math.pi / 180
# test_tensor = preprocess_simple('path/to/file', (512,512))
test_tensor = torch.randn(1,3,512,512)
# Rotate input tensor somehow
output_tensor = rotate_tensor(test_tensor, ang_rad)
# Optionally use this to check rotated image
# deprocess_simple(output_tensor, 'rotated_image.jpg')
我试图完成的一些示例输出:
最佳答案
所以网格生成器和采样器是空间更改器(mutator)(JADERBERG、Max 等)的子模块。这些子模块是不可训练的,它们让您可以应用可学习和不可学习的空间转换。
在这里,我使用这两个子模块并使用它们将图像旋转 theta
使用 PyTorch 的函数 F.affine_grid
和 F.affine_sample
(这些函数分别是生成器和采样器的实现):
import torch
import torch.nn.functional as F
import numpy as np
import matplotlib.pyplot as plt
def get_rot_mat(theta):
theta = torch.tensor(theta)
return torch.tensor([[torch.cos(theta), -torch.sin(theta), 0],
[torch.sin(theta), torch.cos(theta), 0]])
def rot_img(x, theta, dtype):
rot_mat = get_rot_mat(theta)[None, ...].type(dtype).repeat(x.shape[0],1,1)
grid = F.affine_grid(rot_mat, x.size()).type(dtype)
x = F.grid_sample(x, grid)
return x
#Test:
dtype = torch.cuda.FloatTensor if torch.cuda.is_available() else torch.FloatTensor
#im should be a 4D tensor of shape B x C x H x W with type dtype, range [0,255]:
plt.imshow(im.squeeze(0).permute(1,2,0)/255) #To plot it im should be 1 x C x H x W
plt.figure()
#Rotation by np.pi/2 with autograd support:
rotated_im = rot_img(im, np.pi/2, dtype) # Rotate image by 90 degrees.
plt.imshow(rotated_im.squeeze(0).permute(1,2,0)/255)
在上面的例子中,假设我们拍摄我们的图像,
im
,做一只穿裙子的舞猫:
rotated_im
将是一只穿着裙子的逆时针旋转 90 度旋转舞猫:
rot_img
时得到的结果与
theta
等于
np.pi/4
:
关于python - 如何以支持 autograd 的方式围绕其中心旋转 PyTorch 图像张量?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/64197754/
在PyTorch实现中,autograd会随着用户的操作,记录生成当前variable的所有操作,并由此建立一个有向无环图。用户每进行一个操作,相应的计算图就会发生改变。 更底层的实现中,图中记录
torch.autograd.backward(variables, grad_variables=None, retain_graph=None, create_graph=False) 给定图
每当我调用 autograds backward 时,我的脚本永远不会终止。 backward 本身不是阻塞的,它之后的所有行仍然被执行,脚本只是没有终止。似乎后台有某种工作线程挂起,但我找不到任何相
我试图了解 pytorch autograd 的工作原理。如果我有函数 y = 2x 和 z = y**2,如果我进行正常微分,我会在 x = 1 处得到 dz/dx 作为 8 (dz/dx = dz
如果这个问题很明显或微不足道,我深表歉意。我对 pytorch 很陌生,我想了解 pytorch 中的 autograd.grad 函数。我有一个神经网络 G,它接受输入 (x,t) 和输出 (u,v
尝试了解渐变的表示方式以及 autograd 的工作原理: import torch from torch.autograd import Variable x = Variable(torch.Te
我试图了解 pytorch autograd 的工作原理。如果我有函数 y = 2x 和 z = y**2,如果我进行正常微分,我会在 x = 1 处得到 dz/dx 作为 8 (dz/dx = dz
我正在尝试做一件简单的事情:使用 autograd 获取梯度并进行梯度下降: import tangent def model(x): return a*x + b def loss(x,y)
我正在构建一个用于强化学习的多模型神经网络,其中包括一个 Action 网络、一个世界模型网络和一个评论家。这个想法是训练世界模型根据来自 Action 网络的输入和之前的状态来模拟你试图掌握的任何模
我有一个接受多变量参数 x 的函数。这里 x = [x1,x2,x3]。假设我的函数看起来像:f(x,T) = np.dot(x,T) + np.exp(np.dot(x,T) 其中 T 是常数。 我
我只是想知道,PyTorch 如何跟踪张量上的操作(在 .requires_grad 设置为 True 之后它如何自动计算梯度。请帮助我理解 autograd 背后的想法。谢谢。 最佳答案 这是个好问
将 pytorch 的 autograd 与 joblib 混合使用似乎存在问题。我需要为很多样本并行获取梯度。 Joblib 在 pytorch 的其他方面工作得很好,但是,当与 autograd
我正在研究“使用 fastai 和 Pytorch 为编码人员进行深度学习”。第 4 章通过一个简单的例子介绍了 PyTorch 库中的 autograd 函数。 x = tensor([3.,4.,
在我之前的 question我找到了如何使用 PyTorch 的 autograd 进行区分。它起作用了: #autograd import torch from torch.autograd imp
执行 backward在 Pytorch 中,我们可以使用可选参数 y.backward(v)计算雅可比矩阵乘以 v : x = torch.randn(3, requires_grad=True)
我明白 autograd用于暗示自动微分。但究竟是什么tape-based autograd在 Pytorch以及为什么有这么多的讨论肯定或否定它。 例如: this In pytorch, ther
我加载 features和 labels从我的训练数据集中。它们最初都是 numpy 数组,但我使用 torch.from _numpy(features.copy()) 将它们更改为火炬张量和 to
我将此作为问题提交给 cycleGAN pytorch implementation , 但由于那里没有人回复我,我会在这里再问一次。 我主要对在一次反向传球之前调用多次正向传球这一事实感到困惑,请参
我正在使用 pytorch 来计算逻辑回归的损失(我知道 pytorch 可以自动执行此操作,但我必须自己制作)。我的函数定义如下,但转换为 torch.tensor 会破坏 autograd 并给出
我想知道下面的代码如何才能更快。目前,它似乎慢得不合理,我怀疑我可能错误地使用了 autograd API。我期望的输出是 timeline 的每个元素在 f 的 jacobian 中求值,我确实得到
我是一名优秀的程序员,十分优秀!