- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我在编写一些 CUDA 代码时遇到了这个非常奇怪的问题:从 gpu 到 cpu 内存的同一 block cudaMemcpy 在对子例程的不同迭代调用中需要不同的时间来完成,这是一个巨大的差异:~60毫秒 vs ~0.02 毫秒。
代码如下:
float calc_formation_obj( int formationNo, bool calcObj )
{
int i;
int prev = prevCP[aperIndex];
int next = nextCP[aperIndex];
float ll = formations_l[formationNo];
float rl = formations_r[formationNo];
float obj = 0.0;
float *f_grid = new float[grid_size_voxe];
// use ll and rl
thrust::device_ptr<float> dll(d_leafpos_l);
thrust::device_ptr<float> drl(d_leafpos_r);
dll[rows_per_beam*aperIndex+ rowIndex] = ll;
drl[rows_per_beam*aperIndex+ rowIndex] = rl;
// set all leaf positions between prev/next
set_leafpos<<<grid_size_ncps,BLOCK_SIZE>>> (aperIndex, rowIndex, prev, next, ncps, d_leafpos_l,
d_leafpos_r, ll, rl, rows_per_beam, d_cp_angles);
// copy dose to dose_temp
thrust::device_ptr<float> ddose(d_dose);
thrust::device_ptr<float> dtp(d_dose_temp);
thrust::copy(ddose, ddose+nvoxel, dtp);
// the angles actually being added
if (prev==-1) {
prev = 0;
}
if (next==ncps) {
next = ncps-1;
}
// add dose from all these leaf positions
// if last arg 1 then add
add_remove_dose<<<grid_size_ncps,BLOCK_SIZE>>> (prev,next, rowIndex, d_dose_temp, d_leafpos_l,
d_leafpos_r, d_voxe_b, d_dijs_b, d_voxnumperbixcum, d_flu_cp, rows_per_beam, bix_per_row, beamletSize, 1);
if (!calcObj) {
return(0.0);
}
// initialize
cudaMemset((void*)d_f_voxel, 0, voxesize_f);
cudaMemset((void*)d_f_grid, 0, sizeof(float)*grid_size_voxe);
// then calculate objective
calc_obj_dose<<<grid_size_voxe,BLOCK_SIZE>>>( d_dose_temp, d_f_voxel, d_thresh, d_is_target, nvoxel,
d_f_grid, d_od_wt, d_ud_wt );
// copy results from GPU
time_t time_1,time_2;
float elapse;
time_1=clock();
cudaMemcpy(f_grid, d_f_grid, sizeof(float)*grid_size_voxe, cudaMemcpyDeviceToHost);
time_2 = clock();
elapse = ((float)time_2 - (float)time_1)/1000;
printf( "iter %d copy time: %f ms\n", formationNo, elapse );
obj = 0.0;
for (i=0; i<grid_size_voxe; i++) {
obj += f_grid[i];
}
delete[] f_grid;
return(obj);
}
这个子程序在程序中被调用了很多次,每次运行我都记录一下运行时间
cudaMemcpy(f_grid, d_f_grid, sizeof(float)*grid_size_voxe, cudaMemcpyDeviceToHost);
我得到的结果是这样的:
iter 0 copy time: 0.018000 ms
iter 1 copy time: 66.445999 ms
iter 2 copy time: 64.239998 ms
iter 3 copy time: 66.959999 ms
iter 4 copy time: 66.328003 ms
iter 5 copy time: 65.656998 ms
iter 6 copy time: 66.120003 ms
iter 7 copy time: 63.811001 ms
iter 8 copy time: 66.530998 ms
iter 9 copy time: 65.686996 ms
iter 10 copy time: 65.808998 ms
iter 11 copy time: 0.027000 ms
iter 12 copy time: 64.346001 ms
iter 13 copy time: 66.407997 ms
iter 14 copy time: 65.796997 ms
iter 15 copy time: 65.471001 ms
iter 16 copy time: 66.209000 ms
iter 17 copy time: 63.799000 ms
iter 18 copy time: 66.542999 ms
iter 19 copy time: 65.660004 ms
iter 20 copy time: 65.102997 ms
iter 21 copy time: 0.019000 ms
iter 22 copy time: 64.665001 ms
iter 23 copy time: 66.653999 ms
iter 24 copy time: 65.648003 ms
iter 25 copy time: 65.233002 ms
iter 26 copy time: 65.851997 ms
iter 27 copy time: 63.992001 ms
iter 28 copy time: 66.172997 ms
iter 29 copy time: 65.503998 ms
iter 30 copy time: 0.020000 ms
iter 31 copy time: 66.277000 ms
iter 32 copy time: 63.881001 ms
iter 33 copy time: 66.537003 ms
iter 34 copy time: 65.626999 ms
iter 35 copy time: 65.387001 ms
iter 36 copy time: 66.084999 ms
iter 37 copy time: 63.797001 ms
iter 38 copy time: 0.017000 ms
iter 39 copy time: 65.707001 ms
iter 40 copy time: 65.553001 ms
iter 41 copy time: 66.362999 ms
iter 42 copy time: 63.634998 ms
这是在配备 GeForce GTX 285 的 Mac OSX 上运行的,使用 CUDA 4.2。我不知道为什么要这样做 --- 应该是一个简单的副本。感谢您的帮助!!
最佳答案
cudaMemcpy
阻塞,直到前一个内核完成。你确定你不是在衡量内核性能而不是复制性能吗?在开始为 cudaMemcpy
计时之前加入 cudaDeviceSynchronize()
。
关于time - cudamemcpy 设备->主机时间在迭代之间发生变化,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13355083/
下面是一小段代码,将数组中的 4 个元素复制到 GPU。我真的不明白为什么 cudaMemcpy 在这种情况下会抛出错误。请帮忙 int size = 5; float *a = (float*)ma
我对我看到的关于阻塞和 cudaMemcpy 的一些评论感到困惑。我的理解是 Fermi HW 可以同时执行内核和执行 cudaMemcpy。 我读到 Lib func cudaMemcpy() 是一
我的程序运行 2 个线程 - 线程 A(用于输入)和 B(用于处理)。我还有一对指向 2 个缓冲区的指针,这样当线程 A 完成将数据复制到缓冲区 1 时,线程 B 开始处理缓冲区 1,线程 A 开始将
之间有什么区别 cudaMemcpy and cudaMemset?? 如何将int值从主机复制到设备? 这是我正在使用的代码 int addXdir = 1; int devAddXdir; cu
我用 cudaMemcpy()一次将 1GB 的数据精确复制到设备。这需要 5.9 秒。反之则需要 5.1 秒。这是正常的吗?函数本身在复制之前有这么多开销吗? 理论上,PCIe 总线的吞吐量至少应为
在这种情况下,cudaMemcpy 函数将如何工作? 我已经声明了一个这样的矩阵 float imagen[par->N][par->M]; 我想将它复制到 cuda 设备,所以我这样做了 float
我正在尝试将无符号整数数组(在 msgs 中)复制到 GPU 上以对其进行处理,但以下代码不会复制任何内容。我在 cudaMemcpy 调用周围添加了一些 cuda 错误检查代码,并且得到以下信息:无
我根据本教程创建了一个简单但完整的程序:http://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#device-memory #i
我正在调用 cudaMemcpy 并且副本成功返回,但是源值没有被复制到目标。我使用 memcpy() 写了一篇类似的文章,效果很好。我在这里缺少什么? // host externs extern
我很好奇,当我们从主机复制到设备时,cudaMemcpy 是在 CPU 还是 GPU 上执行的? 换句话说,它是复制一个顺序过程还是并行完成? 让我解释一下我为什么这么问:我有一个包含 500 万个元
cudaMemcpy(dst, src, filesize, cudaMemcpyDeviceToHost); 其中filesize是存储在设备全局内存中的变量。 最佳答案 简单的答案是否定的。 参数
我试图找出为什么 cudaMemcpyFromSymbol() 存在。似乎“symbol” func 可以做的所有事情,nonSymbol cmd 也可以做。 symbol 函数似乎可以轻松移动数组或
我刚刚开始学习如何使用 CUDA。我正在尝试运行一些简单的示例代码: float *ah, *bh, *ad, *bd; ah = (float *)malloc(sizeof(float)*4);
cudaMemcpy(dst, src, filesize, cudaMemcpyDeviceToHost); 其中 filesize 是存储在设备全局内存中的变量。 最佳答案 简单的回答是否定的。
这个错误困扰了我很长一段时间,所以我决定将其发布在这里。 调用 cudaMemcpy 时发生此段错误: CurrentGrid->cdata[i] = new float[size]; cudaMem
这个错误困扰了我很长一段时间,所以我决定将其发布在这里。 调用 cudaMemcpy 时发生此段错误: CurrentGrid->cdata[i] = new float[size]; cudaMem
这个错误困扰了我很长一段时间,所以我决定将其发布在这里。 调用 cudaMemcpy 时发生此段错误: CurrentGrid->cdata[i] = new float[size]; cudaMem
我无法追踪 cudaMemcpy 调用的无效参数的来源,以下是相关代码: 在 gpu_memory.cu 中,我为设备指针声明并分配内存: #define cudaErrorCheck(ans) {
我有一个带指针的数据结构(想想链表)。在启动读取输入数据的内核之前无法确定其大小。所以我在输入处理期间在设备上分配数据。 但是,尝试将该数据复制回主机失败。据我所知,这是因为 CUDA 中存在限制,不
在下面的代码中,cudaMemcpy 不工作,它返回一个错误,然后程序退出。可能是什么问题?在我看来我没有做违法的事情, vector 的大小对我来说似乎没问题。 算法可能在某些时候做错了,但我想这个
我是一名优秀的程序员,十分优秀!