gpt4 book ai didi

cuModuleLoad 期间的 CUDA_ERROR_INVALID_IMAGE

转载 作者:行者123 更新时间:2023-12-02 15:35:12 25 4
gpt4 key购买 nike

我创建了一个非常简单的内核(可以找到 here ),我使用它成功编译了

"C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v5.5\bin\nvcc.exe" --cl-version 2012 -ccbin "C:\Program Files (x86)\Microsoft Visual Studio 11.0\VC\bin" -I"C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v5.5\include" -cudart static -cubin temp.cu

然后使用下面的代码加载内核

CUresult err = cuInit(0);
CUdevice device;
err = cuDeviceGet(&device, 0);
CUcontext ctx;
err = cuCtxCreate(&ctx, 0, device);

CUmodule module;
string path = string(dir) + "\\temp.cubin";
err = cuModuleLoad(&module, path.c_str());

cuCtxDetach(ctx);

不幸的是,在 cuModuleLoad 期间,我得到了 CUDA_ERROR_INVALID_IMAGE 的结果。有人能告诉我为什么会这样吗?内核有效且编译没有问题。

最佳答案

CUDA_ERROR_INVALID_IMAGE 错误只应在模块文件无效时由 cuModuleLoad 返回。如果它丢失或包含架构不匹配,您可能会看到 CUDA_ERROR_FILE_NOT_FOUNDCUDA_ERROR_INVALID_SOURCE 错误。您没有给我们足够的细节或代码来确定正在发生的事情,但至少在原则上,您拥有的 API 代码应该可以工作。

为了展示它应该如何工作,请考虑以下在 Linux 上使用 CUDA 5.5 的工作示例:

首先是你的内核:

#include <cmath>
using namespace std;

__device__ __inline__ float trim(unsigned char value)
{
return fminf((unsigned char)255, fmaxf(value, (unsigned char)0));
}

__constant__ char z = 1;

__global__ void kernel(unsigned char* img, const float* a)
{
int ix = blockIdx.x;
int iy = threadIdx.x;
int tid = iy*blockDim.x + ix;

float x = (float)ix / blockDim.x;
float y = (float)iy / gridDim.x;

//placeholder

img[tid*4+0] = trim((a[0]*z*z+a[1]*z+a[2]) * 255.0f);
img[tid*4+1] = trim((a[3]*z*z+a[4]*z+a[5]) * 255.0f);
img[tid*4+2] = trim((a[6]*z*z+a[7]*z+a[8]) * 255.0f);
img[tid*4+3] = 255;
}

然后是一个在运行时将 cubin 加载到上下文中的简单程序:

#include <cuda.h>
#include <string>
#include <iostream>

#define Errchk(ans) { DrvAssert((ans), __FILE__, __LINE__); }
inline void DrvAssert( CUresult code, const char *file, int line)
{
if (code != CUDA_SUCCESS) {
std::cout << "Error: " << code << " " << file << "@" << line << std::endl;
exit(code);
} else {
std::cout << "Success: " << file << "@" << line << std::endl;
}
}

int main(void)
{
Errchk( cuInit(0) );
CUdevice device;
Errchk( cuDeviceGet(&device, 0) );
CUcontext ctx;
Errchk( cuCtxCreate(&ctx, 0, device) );

CUmodule module;
std::string path = "qkernel.cubin";
Errchk( cuModuleLoad(&module, path.c_str()) );

cuCtxDetach(ctx);
return 0;
}

为主机中存在的设备架构构建 cubin(在本例中为 GTX670):

$ nvcc -arch=sm_30 -Xptxas="-v" --cubin qkernel.cu 
ptxas info : 11 bytes gmem, 1 bytes cmem[3]
ptxas info : Compiling entry function '_Z6kernelPhPKf' for 'sm_30'
ptxas info : Function properties for _Z6kernelPhPKf
0 bytes stack frame, 0 bytes spill stores, 0 bytes spill loads
ptxas info : Used 10 registers, 336 bytes cmem[0]

和宿主程序:

$ nvcc -o qexe qmain.cc -lcuda

然后运行:

$ ./qexe 
Success: qmain.cc@18
Success: qmain.cc@20
Success: qmain.cc@22
Success: qmain.cc@26

模块代码加载。如果我删除 cubin 并再次运行,我会看到:

$ rm qkernel.cubin 
$ ./qexe
Success: qmain.cc@18
Success: qmain.cc@20
Success: qmain.cc@22
Error: 301 qmain.cc@26

如果我针对不兼容的架构进行编译,我会看到:

$ nvcc -arch=sm_10 -Xptxas="-v" --cubin qkernel.cu 
ptxas info : 0 bytes gmem, 1 bytes cmem[0]
ptxas info : Compiling entry function '_Z6kernelPhPKf' for 'sm_10'
ptxas info : Used 5 registers, 32 bytes smem, 4 bytes cmem[1]
$ ./qexe
Success: qmain.cc@18
Success: qmain.cc@20
Success: qmain.cc@22
Error: 300 qmain.cc@26

如果我编译成目标文件,而不是 cubin,我会看到:

$ nvcc -arch=sm_30 -Xptxas="-v" -c -o qkernel.cubin qkernel.cu 
ptxas info : 11 bytes gmem, 1 bytes cmem[3]
ptxas info : Compiling entry function '_Z6kernelPhPKf' for 'sm_30'
ptxas info : Function properties for _Z6kernelPhPKf
0 bytes stack frame, 0 bytes spill stores, 0 bytes spill loads
ptxas info : Used 10 registers, 336 bytes cmem[0]
$ ./qexe
Success: qmain.cc@18
Success: qmain.cc@20
Success: qmain.cc@22
Error: 200 qmain.cc@26

这是让代码发出 CUDA_ERROR_INVALID_IMAGE 错误的唯一方法。我所能建议的就是尝试我的代码和配方,看看你是否可以让它工作。

关于cuModuleLoad 期间的 CUDA_ERROR_INVALID_IMAGE,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18844976/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com