gpt4 book ai didi

c++ - CUDA:将统一内存与类和数组一起使用

转载 作者:塔克拉玛干 更新时间:2023-11-03 07:19:42 24 4
gpt4 key购买 nike

我试图让统一内存与类一起工作,并通过内核调用在统一内存中传递和操作数组。我想通过引用传递所有内容。

所以我重写了类和数组的新方法,以便 GPU 可以访问它们,但我认为我需要添加更多代码以在统一内存中拥有数组,但不太确定如何执行此操作。调用 fillArray() 方法时出现内存访问错误。

如果我必须进行数百次此类操作(数组算术和不同大小数组之间的复制),统一内存是一个好方法还是我应该坚持在 cpu 和 gpu 内存之间手动复制?非常感谢!

#include "cuda_runtime.h"
#include "device_launch_parameters.h"

#include <iostream>
#include <stdio.h>


#define TILE_WIDTH 4

#ifdef __CUDACC__
#define CUDA_CALLABLE_MEMBER __host__ __device__
#else
#define CUDA_CALLABLE_MEMBER
#endif

__global__ void add1(int height, int width, int *a, int *resultArray)
{
int w = blockIdx.x * blockDim.x + threadIdx.x; // Col // width
int h = blockIdx.y * blockDim.y + threadIdx.y;
int index = h * width + w;

if ((w < width) && (h < height))
resultArray[index] = a[index] + 1;
}

class Managed
{
public:
void *operator new(size_t len)
{
void *ptr;
cudaMallocManaged(&ptr, len);
return ptr;
}

void Managed::operator delete(void *ptr)
{
cudaFree(ptr);
}

void* operator new[] (size_t len) {
void *ptr;
cudaMallocManaged(&ptr, len);
return ptr;
}
void Managed::operator delete[] (void* ptr) {
cudaFree(ptr);
}
};

class testArray : public Managed
{
public:
testArray()
{
height = 16;
width = 8;
myArray = new int[height*width];
}
~testArray()
{
delete[] myArray;
}

CUDA_CALLABLE_MEMBER void runTest()
{
fillArray(myArray);
printArray(myArray);

dim3 dimGridWidth((width - 1) / TILE_WIDTH + 1, (height - 1)/TILE_WIDTH + 1, 1);
dim3 dimBlock(TILE_WIDTH, TILE_WIDTH, 1);

add1<<<dimGridWidth,dimBlock>>>(height, width, myArray, myArray);
cudaDeviceSynchronize();
printArray(myArray);
}

private:

int *myArray;
int height;
int width;

void fillArray(int *myArray)
{
for (int i = 0; i < height; i++){
for (int j = 0; j < width; j++)
myArray[i*width+j] = i*width+j;
}
}

void printArray(int *myArray)
{
for (int i = 0; i < height; i++){
for (int j = 0; j < width; j++)
printf("%i ",myArray[i*width+j]);
printf("\n");
}
}
};

int main()
{
testArray *test = new testArray;
test->runTest();

//testArray test;
//test.runTest();

system("pause");
return 0;
}

最佳答案

I want to pass everything by reference so there's no copying.

__global__ void add1(int height, int width, int *&a, int *&resultArray)

通过引用传递一个指针有一个用途:在调用者的范围内修改(重新设置)指针。你不这样做。所以在这种情况下,引用是多余的。事实上,这是一种悲观,因为你引入了另一个间接级别。请改用以下签名:

__global__ void add1(int height, int width, int* a, int* resultArray)

This compiles and runs, but it seems that the +1 operation never occurs. Why is this?

I know I should have catch error statements, this code is just a simple example.

嗯,这真的很不幸,因为添加适当的错误检查可能会帮助您找到错误。将来,考虑在询问 SO 之前添加错误检查。

您的内核希望它的参数位于它可以访问的地址空间中。这意味着它必须是通过调用任何 cudaMalloc 变体获得的指针。

但是你传递的是什么?

myArray = new int[height*width]; // Not a cudaMalloc* variant
[...]
add1<<<dimGridWidth,dimBlock>>>(height, width, myArray, myArray);

因此,您传递给内核的指针没有任何意义,因为它不在“CUDA 地址空间”中。您的内核可能会立即出现段错误。


我认为您的困惑可能是因为 myArray (testArray) 的封闭类继承自 Managed。这意味着 new testArray 将在 GPU 可访问的地址空间中分配一个 testArray,但这并不意味着在该类上使用 operator new成员也将在该地址空间中分配它们。它们也需要通过 cudaMalloc* 分配(例如,虽然不是必需的,但通过重载的 operator new 将分配转发给 cudaMallocManaged) .一个简单的解决方案是不使用 new 而是像这样分配数组:

cudaMallocManaged(&myArray, width * height* sizeof(*myArray));

cudaFree替换相应的调用delete

另外:

testArray test;

这不会在 GPU 可访问空间上分配 test,因为它不是通过 operator new 分配的。

关于c++ - CUDA:将统一内存与类和数组一起使用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28183983/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com