gpt4 book ai didi

c++ - 结构的 cudaMalloc 和相同结构的元素

转载 作者:太空狗 更新时间:2023-10-29 20:13:20 25 4
gpt4 key购买 nike

我想知道当我分配一个结构然后分配(?)并复制相同结构的指针元素时设备上会发生什么(内存方面)。

我是否需要再次使用元素 *acudaMalloc

示例代码:

typedef struct {
int *a;
...
} StructA;

int main()
{
int row, col, numS = 10; // defined at runtime

StructA *d_A = (StructA*)malloc(numS * sizeof(StructA));
int *h_A = d_a->a;

cudaMalloc( (void**)&(d_A), numS * sizeof(StructA) );

cudaMalloc( &(d_A->a), row*col*sizeof(int) ); // no (void**) needed?
cudaMemcpy( d_A->a, h_A, row*col*sizeof(int), cudaMemcpyHostToDevice );

kernel<<<grid, block>>>(d_A); // Passing pointer to StructA in device
...
}

内核定义:

__global__ kernel(StructA *d_A)
{
d_A->a = ...;
...
}

这个问题是this question的另一个延伸与this question相关.

最佳答案

我建议您在编译和运行代码时使用适当的 cuda 错误检查。学习解释编译器输出和运行时输出将使您成为更好、更聪明、更高效的编码员。我还建议查看我之前指向您的文章 here .它处理这个确切的主题,并包括链接的工作示例。这个问题与那个问题重复。

有各种错误:

StructA *d_A = (StructA*)malloc(numS * sizeof(StructA));

上面的代码行在 host 内存中为大小为 StructA 的结构创建分配,并设置指针 d_A 指向该分配的开始。目前没有任何问题。

cudaMalloc( (void**)&(d_A), numS * sizeof(StructA) );

上面的代码行在 device 内存中创建了一个大小为 StructA 的分配,并设置指针 d_A 指向开始该分配。这有效地消除了之前的指针和分配。 (之前的主机分配还在某处,但你无法访问它。它基本上丢失了。)当然那不是你的意图。

int *h_A = d_a->a;

现在 d_A(我假设你的意思是 d_A,而不是 d_a)已经被指定为设备内存指针, -> 操作将取消引用该指针以定位元素 a。这在主机代码中是非法的,并且会引发错误(段错误)。

cudaMalloc( &(d_A->a), row*col*sizeof(int) );

这行代码也有类似的问题。我们不能 cudaMalloc 一个存在于设备内存中的指针。 cudaMalloc 创建位于主机内存中但引用设备内存中某个位置的指针。此操作 &(d_A->a) 取消引用设备指针,这在主机代码中是非法的。

正确的代码应该是这样的:

$ cat t363.cu
#include <stdio.h>

typedef struct {
int *a;
int foo;
} StructA;

__global__ void kernel(StructA *data){

printf("The value is %d\n", *(data->a + 2));
}

int main()
{
int numS = 1; // defined at runtime

//allocate host memory for the structure storage
StructA *h_A = (StructA*)malloc(numS * sizeof(StructA));
//allocate host memory for the storage pointed to by the embedded pointer
h_A->a = (int *)malloc(10*sizeof(int));
// initialize data pointed to by the embedded pointer
for (int i = 0; i <10; i++) *(h_A->a+i) = i;
StructA *d_A; // pointer for device structure storage
//allocate device memory for the structure storage
cudaMalloc( (void**)&(d_A), numS * sizeof(StructA) );
// create a pointer for cudaMalloc to use for embedded pointer device storage
int *temp;
//allocate device storage for the embedded pointer storage
cudaMalloc((void **)&temp, 10*sizeof(int));
//copy this newly created *pointer* to it's proper location in the device copy of the structure
cudaMemcpy(&(d_A->a), &temp, sizeof(int *), cudaMemcpyHostToDevice);
//copy the data pointed to by the embedded pointer from the host to the device
cudaMemcpy(temp, h_A->a, 10*sizeof(int), cudaMemcpyHostToDevice);

kernel<<<1, 1>>>(d_A); // Passing pointer to StructA in device
cudaDeviceSynchronize();
}
$ nvcc -arch=sm_20 -o t363 t363.cu
$ cuda-memcheck ./t363
========= CUDA-MEMCHECK
The value is 2
========= ERROR SUMMARY: 0 errors
$

你会注意到,我还没有解决你正在处理 StructA 数组(即 numS > 1)的情况,这将需要一个环形。我将把它留给你来完成我在这里和我的 previous linked answer 中提出的逻辑。看看你是否能计算出那个循环的细节。此外,为了清晰/简洁起见,我省略了通常的 cuda error checking但请在您的代码中使用它。最后,这个过程(有时称为“深度复制操作”)在普通 CUDA 中有点乏味,如果您还没有得出结论的话。之前的建议是“扁平化”此类结构(这样它们就不会包含指针),但您也可以探索 cudaMallocManagedUnified Memory in CUDA 6 .

关于c++ - 结构的 cudaMalloc 和相同结构的元素,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22156536/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com