gpt4 book ai didi

pointers - 在 CUDA 中的类之间传递指向设备内存的指针

转载 作者:行者123 更新时间:2023-12-02 19:29:20 25 4
gpt4 key购买 nike

我希望获得一些涉及 CUDA 设备内存指针的帮助。基本上我想将 CUDA 内核代码拆分为多个文件以提高可读性,并且因为它是一个大型程序。所以我想要做的是能够将相同的设备内存指针传递给多个 CUDA 内核,而不是同时传递。下面是我需要的一个粗略示例

//random.h
class random{
public:
int* dev_pointer_numbers;
};

因此该对象只需要存储指向设备内存的指针

//random_kernel.cu
__global__ void doSomething(int *values){
//do some processing}

extern "C" init_memory(int *devPtr,int *host_memory,int arraysize)
{
cudaMalloc(&devPtr,arraysize*sizeof(int));
cudaMemcpy(devPtr,host_memory,arraysize*sizeof(int),cudaMemcpyHostToDevice);
}

extern "C" runKernel(int *devPtr){
doSomething<<<1,1>>>(devPtr);
}

和主文件:

//main.cpp
//ignoring all the details etc
random rnd;
void CUDA(int *hostArray)
{
init_memory(rnd.dev_pointer_numbers,hostArray,10);
runKernel(rnd.dev_pointer_numbers);
}

我知道,当我使用对象指针运行内核代码时,它没有映射到设备内存中,因此这就是内核代码失败的原因。我想知道的是如何在主文件中存储指向设备内存中特定 block 的指针,以便可以在其他 cuda 内核文件中重用它?

最佳答案

你的指针丢失了!

检查你的 init_memory 函数:

init_memory(int *devPtr,int *host_memory,int arraysize)
{
cudaMalloc(&devPtr,arraysize*sizeof(int));
cudaMemcpy(devPtr,host_memory,arraysize*sizeof(int),cudaMemcpyHostToDevice);
}

所以你传入一个指针,此时你就有了一个名为 devPtr 的本地副本。然后使用指针的本地副本的地址调用cudaMalloc()。当函数返回时,本地副本(在堆栈上)被销毁,因此您丢失了指针。

试试这个:

init_memory(int **devPtr,int *host_memory,int arraysize)
{
cudaMalloc(devPtr,arraysize*sizeof(int));
cudaMemcpy(*devPtr,host_memory,arraysize*sizeof(int),cudaMemcpyHostToDevice);
}

...

init_memory(&rnd.dev_pointer_numbers,hostArray,10);

顺便说一句,请考虑删除 extern "C",因为您是从 C++ (main.cpp) 调用它,所以没有任何意义,而且只会让您的代码变得困惑。

关于pointers - 在 CUDA 中的类之间传递指向设备内存的指针,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12369790/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com