- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个简单的神经网络模型,我应用 cuda()
或 DataParallel()
在模型上,如下所示。
model = torch.nn.DataParallel(model).cuda()
model = model.cuda()
cuda()
,我需要将批量输入显式转换为
cuda()
然后交给模型,否则返回如下错误。
torch.index_select received an invalid combination of arguments - got (torch.cuda.FloatTensor, int, torch.LongTensor)
cuda()
?
最佳答案
因为,DataParallel 允许 CPU 输入,因为第一步是将输入传输到适当的 GPU。
信息来源:https://discuss.pytorch.org/t/cuda-vs-dataparallel-why-the-difference/4062/3
关于pytorch - CUDA 与 DataParallel : Why the difference?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44580450/
我有一个简单的神经网络模型,我应用 cuda()或 DataParallel()在模型上,如下所示。 model = torch.nn.DataParallel(model).cuda() 或者, m
我想做的是在我的自定义 RNN 类中使用 DataParallel。 好像我以错误的方式初始化了 hidden_0 ...... class RNN(nn.Module): def __i
看起来像使用 torch.nn.DataParallel改变输出大小。 虽然在官方文档 https://pytorch.org/docs/stable/nn.html#torch.nn.DataPar
我有一个按以下方式定义的 torch.nn.module 类: class MyModule(torch.nn.Module): def __init__(self): supe
如果我的模型仅包含 nn.Module 层,例如 nn.Linear,则 nn.DataParallel 可以正常工作。 x = torch.randn(100,10) class normal_mo
我正在尝试更改一些 PyTorch 代码,以便它可以在 CPU 上运行。 模型是用 torch.nn.DataParallel() 训练的,所以当我加载预训练模型并尝试使用它时,我必须使用 nn.Da
这是一个用于运行基于字符的语言生成的 RNN 模型: class RNN(nn.Module): def __init__(self, input_size, hidden_size, out
我在脚本中使用了多个Gpu的DataParallel。torch.nn.DataParallel仅使用id为0的gpu,而不使用id为1的gpu。因此利用率非常低。以下是完整代码: from __fu
我是一名优秀的程序员,十分优秀!