gpt4 book ai didi

c++ - 与 CUDA 并行传输数组

转载 作者:塔克拉玛干 更新时间:2023-11-03 07:53:26 26 4
gpt4 key购买 nike

我在这里用 CUDA C 编写了一些非常简单的 GPU 代码,用于将数组 nums 复制到数组 vals 中。数字是 [4,7,1,9,2]。这就是我想复制每个元素的方式:

__global__ void makeArray(int*);

int main()
{
int* d_nums;
int nums[5];

nums[0] = 4;
nums[1] = 7;
nums[2] = 1;
nums[3] = 9;
nums[4] = 2;
cudaMalloc(&d_nums, sizeof(int)*5);

makeArray<<<2,16>>>(d_nums);

cudaMemcpy(nums, d_nums, sizeof(int)*5, cudaMemcpyDeviceToHost);

for (int i = 0; i < 5; i++)
cout << i << " " << nums[i] << endl;

return 0;
}

__global__ void makeArray(int* nums)
{
int vals[5];
int threadIndex = blockIdx.x * blockDim.x + threadIdx.x;

vals[threadIndex%5] = nums[threadIndex%5];
__syncthreads();

if (threadIndex < 5)
nums[threadIndex] = vals[threadIndex];
}

从长远来看,我想使用这种方法将一个数组从 CPU 传输到 GPU 共享内存,但我什至无法让这个简单的练习文件工作。我希望输出看起来像这样:

0 4
1 7
2 1
3 9
4 2

但是我得到了这个:

0 219545856
1 219546112
2 219546368
3 219546624
4 219546880

我的想法是,通过使用大于该数组中元素数的线程索引的模数,我可以覆盖所有 5 个数据点,而不用担心过度读取数组。我还可以同时分配每个数组点,每个线程一个,然后在最后分配 __syncthreads() 以确保每个线程都完成复制。显然,这是行不通的。帮助!

最佳答案

编辑后,我们可以看到 d_nums 指向未初始化的内存。你只是分配了它,并没有填充任何东西。如果你想让 GPU 访问数据,你必须复制它:

cudaMemcpy(d_nums, nums, sizeof(nums), cudaMemcpyHostToDevice);

运行内核之前。

关于c++ - 与 CUDA 并行传输数组,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24186033/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com