- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在 CUDA GPU 上训练一个 CNN,它将 3D 医学图像作为输入并输出一个分类器。我怀疑pytorch中可能存在错误。我正在运行 pytorch 1.4.0。 GPU 是“特斯拉 P100-PCIE-16GB”。当我在 CUDA 上运行模型时出现错误
Traceback (most recent call last):
File "/home/ub/miniconda3/lib/python3.7/site-packages/IPython/core/interactiveshell.py", line 3331, in run_code
exec(code_obj, self.user_global_ns, self.user_ns)
File "<ipython-input-55-cc0dd3d9cbb7>", line 1, in <module>
net(cc)
File "/home/ub/miniconda3/lib/python3.7/site-packages/torch/nn/modules/module.py", line 532, in __call__
result = self.forward(*input, **kwargs)
File "<ipython-input-2-19e11966d1cd>", line 181, in forward
out = self.layer1(x)
File "/home/ub/miniconda3/lib/python3.7/site-packages/torch/nn/modules/module.py", line 532, in __call__
result = self.forward(*input, **kwargs)
File "/home/ub/miniconda3/lib/python3.7/site-packages/torch/nn/modules/container.py", line 100, in forward
input = module(input)
File "/home/ub/miniconda3/lib/python3.7/site-packages/torch/nn/modules/module.py", line 532, in __call__
result = self.forward(*input, **kwargs)
File "/home/ub/miniconda3/lib/python3.7/site-packages/torch/nn/modules/conv.py", line 480, in forward
self.padding, self.dilation, self.groups)
RuntimeError: Could not run 'aten::slow_conv3d_forward' with arguments from the 'CUDATensorId' backend. 'aten::slow_conv3d_forward' is only available for these backends: [CPUTensorId, VariableTensorId].
#input is a 64,64,64 3d image batch with 2 channels
class ConvNet(nn.Module):
def __init__(self):
super(ConvNet, self).__init__()
self.layer1 = nn.Sequential(
nn.Conv3d(2, 32, kernel_size=5, stride=1, padding=2),
nn.ReLU(),
nn.MaxPool3d(kernel_size=2, stride=2))
self.layer2 = nn.Sequential(
nn.Conv3d(32, 64, kernel_size=5, stride=1, padding=2),
nn.ReLU(),
nn.MaxPool3d(kernel_size=2, stride=2))
self.drop_out = nn.Dropout()
self.fc1 = nn.Linear(16 * 16*16 * 64, 1000)
self.fc2 = nn.Linear(1000, 2)
# self.softmax = nn.LogSoftmax(dim=1)
def forward(self, x):
# print(out.shape)
out = self.layer1(x)
# print(out.shape)
out = self.layer2(out)
# print(out.shape)
out = out.reshape(out.size(0), -1)
# print(out.shape)
out = self.drop_out(out)
# print(out.shape)
out = self.fc1(out)
# print(out.shape)
out = self.fc2(out)
# out = self.softmax(out)
# print(out.shape)
return out
net = Convnet()
input = torch.randn(16, 2, 64, 64, 64)
net(input)
最佳答案
最初,我认为错误消息表明 'aten::slow_conv3d_forward'
未使用 GPU (CUDA) 实现。但是看了你的网络之后,我觉得它没有意义,因为 Conv3D 是一个非常基本的操作,Pytorch 团队应该在 CUDA 中实现它。
然后我深入了一下源码,发现输入不是CUDA张量,导致问题。
这是一个工作示例:
import torch
from torch import nn
#input is a 64,64,64 3d image batch with 2 channels
class ConvNet(nn.Module):
def __init__(self):
super(ConvNet, self).__init__()
self.layer1 = nn.Sequential(
nn.Conv3d(2, 32, kernel_size=5, stride=1, padding=2),
nn.ReLU(),
nn.MaxPool3d(kernel_size=2, stride=2))
self.layer2 = nn.Sequential(
nn.Conv3d(32, 64, kernel_size=5, stride=1, padding=2),
nn.ReLU(),
nn.MaxPool3d(kernel_size=2, stride=2))
self.drop_out = nn.Dropout()
self.fc1 = nn.Linear(16 * 16*16 * 64, 1000)
self.fc2 = nn.Linear(1000, 2)
# self.softmax = nn.LogSoftmax(dim=1)
def forward(self, x):
# print(out.shape)
out = self.layer1(x)
# print(out.shape)
out = self.layer2(out)
# print(out.shape)
out = out.reshape(out.size(0), -1)
# print(out.shape)
out = self.drop_out(out)
# print(out.shape)
out = self.fc1(out)
# print(out.shape)
out = self.fc2(out)
# out = self.softmax(out)
# print(out.shape)
return out
net = ConvNet()
input = torch.randn(16, 2, 64, 64, 64)
net.cuda()
input = input.cuda() # IMPORTANT to reassign your tensor
net(input)
.cuda()
, 但是如果你把一个张量从 CPU 放到 GPU 上,你就需要重新分配它,比如
tensor = tensor.cuda()
, 而不是只调用
tensor.cuda()
.希望有帮助。
tensor([[-0.1588, 0.0680],
[ 0.1514, 0.2078],
[-0.2272, -0.2835],
[-0.1105, 0.0585],
[-0.2300, 0.2517],
[-0.2497, -0.1019],
[ 0.1357, -0.0475],
[-0.0341, -0.3267],
[-0.0207, -0.0451],
[-0.4821, -0.0107],
[-0.1779, 0.1247],
[ 0.1281, 0.1830],
[-0.0595, -0.1259],
[-0.0545, 0.1838],
[-0.0033, -0.1353],
[ 0.0098, -0.0957]], device='cuda:0', grad_fn=<AddmmBackward>)
关于debugging - Pytorch 错误 : Could not run 'aten::slow_conv3d_forward' with arguments from the 'CUDATensorId' backend,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60563115/
我对替换 方法有疑问。最近,我正在安装使用 cpp 和 cuda 编译的不同损失函数。然而,我遇到的是一个 fatal error 'THC/THC.h': No such file or direc
在Python中给定一个二维张量,我们可以使用tensor[:,:2]对矩阵左上角前两个元素的2x2矩阵进行切片,例如: x = torch.tensor([[-1.4673, 0.9980, -2
我正在 CUDA GPU 上训练一个 CNN,它将 3D 医学图像作为输入并输出一个分类器。我怀疑pytorch中可能存在错误。我正在运行 pytorch 1.4.0。 GPU 是“特斯拉 P100-
我正在尝试在没有 gpu 的基于 arm 的设备上为 ASR 运行我的 PyTorch 模型。据我所知,arm 不支持 ATen 使用的 MKL。自然地,当我尝试进行推理时会收到以下错误: Runti
我有一个PyTorch张量称为 out_probs其生成方式如下: out_probs=F.softmax(out_dec[:,0],dim=0) 此外,out_probs 的形状是 [128,200
我开始在终端上运行 TensorFlow 应用程序。同时,当我在另一个终端上启动 Pytorch 应用程序时出现错误 THCudaCheck FAIL file=/pytorch/aten/src/T
我已经执行了以下代码并得到了最底部显示的错误。我想知道如何解决这个问题。谢谢 import torch.nn as nn import torch.nn.functional as F from to
我是一名优秀的程序员,十分优秀!