- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我被这个错误困扰了很长一段时间,所以我决定把它贴在这里。
调用 cudaMemcpy 时发生此段错误:
CurrentGrid->cdata[i] = new float[size];
cudaMemcpy(CurrentGrid->cdata[i], Grid_dev->cdata[i], size*sizeof(float),\
cudaMemcpyDeviceToHost);
CurrentGrid
和 Grid_dev
分别是指向主机和设备上的 grid
类对象的指针,在此上下文中 i=0。类成员cdata
是一个float类型的指针数组。为了调试,就在这个 cudaMemcpy 调用之前,我打印出了 Grid_Dev->cdata[i]
的每个元素的值,CurrentGrid->cdata[i]
的地址和Grid_dev->cdata[i]
和 size
的值,看起来都不错。但它仍然以“Segmentation fault (core dumped)”结束,这是唯一的错误消息。 cuda-memcheck 只给出了“进程没有成功终止”。我现在无法使用 cuda-gdb。关于去哪里有什么建议吗?
更新:现在看来我已经通过 cudaMalloc 解决了这个问题,方法是设备上的另一个浮点指针 A 和 cudaMemcpy Grid_dev->cdata[i] 的值到 A,然后 cudaMemcpy A 到主机。所以上面写的这段代码就变成了:
float * A;
cudaMalloc((void**)&A, sizeof(float));
...
...
cudaMemcpy(&A, &(Grid_dev->cdata[i]), sizeof(float *), cudaMemcpyDeviceToHost);
CurrentGrid->cdata[i] = new float[size];
cudaMemcpy(CurrentGrid->cdata[i], A, size*sizeof(float), cudaMemcpyDeviceToHost);
我这样做是因为 valgrind 弹出“大小为 8 的无效读取”,我认为它指的是 Grid_dev->cdata[i]
。我用 gdb 再次检查,打印出 Grid_dev->cdata[i]
的值为 NULL。所以我想即使在这个 cudaMemcpy 调用中我也不能直接取消引用设备指针。但为什么 ?根据这个thread底部的评论,我们应该能够在 cudaMemcpy 函数中取消引用设备指针。
此外,我不知道 cudaMalloc 和 cudaMemcpy 如何工作的底层机制,但我认为通过 cudaMalloc 一个指针,这里说 A,我们实际上将这个指针分配给指向设备上的某个地址。并且通过cudaMemcpy将Grid_dev->cdata[i]
修改为上面代码中的A,我们重新赋值指针A指向数组。那我们在cudaMalloced的时候不就失去了A指向的前一个地址的踪迹了吗?这会导致内存泄漏或其他什么吗?如果是,我应该如何正确解决这种情况?谢谢!
为了引用,我把发生这个错误的完整函数的代码放在下面。
非常感谢!
__global__ void Print(grid *, int);
__global__ void Printcell(grid *, int);
void CopyDataToHost(param_t p, grid * CurrentGrid, grid * Grid_dev){
cudaMemcpy(CurrentGrid, Grid_dev, sizeof(grid), cudaMemcpyDeviceToHost);
#if DEBUG_DEV
cudaCheckErrors("cudaMemcpy1 error");
#endif
printf("\nBefore copy cell data\n");
Print<<<1,1>>>(Grid_dev, 0); //Print out some Grid_dev information for
cudaDeviceSynchronize(); //debug
int NumberOfBaryonFields = CurrentGrid->ReturnNumberOfBaryonFields();
int size = CurrentGrid->ReturnSize();
int vsize = CurrentGrid->ReturnVSize();
CurrentGrid->FieldType = NULL;
CurrentGrid->FieldType = new int[NumberOfBaryonFields];
printf("CurrentGrid size is %d\n", size);
for( int i = 0; i < p.NumberOfFields; i++){
CurrentGrid->cdata[i] = NULL;
CurrentGrid->vdata[i] = NULL;
CurrentGrid->cdata[i] = new float[size];
CurrentGrid->vdata[i] = new float[vsize];
Printcell<<<1,1>>>(Grid_dev, i);//Print out element value of Grid_dev->cdata[i]
cudaDeviceSynchronize();
cudaMemcpy(CurrentGrid->cdata[i], Grid_dev->cdata[i], size*sizeof(float),\
cudaMemcpyDeviceToHost); //where error occurs
#if DEBUG_DEV
cudaCheckErrors("cudaMemcpy2 error");
#endif
printf("\nAfter copy cell data\n");
Print<<<1,1>>>(Grid_dev, i);
cudaDeviceSynchronize();
cudaMemcpy(CurrentGrid->vdata[i], Grid_dev->vdata[i], vsize*sizeof(float),\
cudaMemcpyDeviceToHost);
#if DEBUG_DEV
cudaCheckErrors("cudaMemcpy3 error");
#endif
}
cudaMemcpy(CurrentGrid->FieldType, Grid_dev->FieldType,\
NumberOfBaryonFields*sizeof(int), cudaMemcpyDeviceToHost);
#if DEBUG_DEV
cudaCheckErrors("cudaMemcpy4 error");
#endif
}
编辑:这是来自 valgrind 的信息,我正试图从中找出发生内存泄漏的位置。
==19340== Warning: set address range perms: large range [0x800000000, 0xd00000000) (noaccess)
==19340== Warning: set address range perms: large range [0x200000000, 0x400000000) (noaccess)
==19340== Invalid read of size 8
==19340== at 0x402C79: CopyDataToHost(param_t, grid*, grid*) (CheckDevice.cu:48)
==19340== by 0x403646: CheckDevice(param_t, grid*, grid*) (CheckDevice.cu:186)
==19340== by 0x40A6CD: main (Transport.cu:81)
==19340== Address 0x2003000c0 is not stack'd, malloc'd or (recently) free'd
==19340==
==19340==
==19340== Process terminating with default action of signal 11 (SIGSEGV)
==19340== Bad permissions for mapped region at address 0x2003000C0
==19340== at 0x402C79: CopyDataToHost(param_t, grid*, grid*) (CheckDevice.cu:48)
==19340== by 0x403646: CheckDevice(param_t, grid*, grid*) (CheckDevice.cu:186)
==19340== by 0x40A6CD: main (Transport.cu:81)
==19340==
==19340== HEAP SUMMARY:
==19340== in use at exit: 2,611,365 bytes in 5,017 blocks
==19340== total heap usage: 5,879 allocs, 862 frees, 4,332,278 bytes allocated
==19340==
==19340== LEAK SUMMARY:
==19340== definitely lost: 0 bytes in 0 blocks
==19340== indirectly lost: 0 bytes in 0 blocks
==19340== possibly lost: 37,416 bytes in 274 blocks
==19340== still reachable: 2,573,949 bytes in 4,743 blocks
==19340== suppressed: 0 bytes in 0 blocks
==19340== Rerun with --leak-check=full to see details of leaked memory
==19340==
==19340== For counts of detected and suppressed errors, rerun with: -v
==19340== ERROR SUMMARY: 1 errors from 1 contexts (suppressed: 2 from 2)
最佳答案
我相信我知道问题出在哪里,但为了确认它,查看您用于在设备上设置 Grid_dev
类的代码会很有用。
当一个类或其他数据结构要在设备上使用时,该类中有指针指向内存中的其他对象或缓冲区(可能在设备内存中,用于将在设备上使用的类),那么让这个顶级类在设备上可用的过程就变得更加复杂。
假设我有这样一个类:
class myclass{
int myval;
int *myptr;
}
我可以在主机上实例化上面的类,然后 malloc
一个 int
的数组并将该指针分配给 myptr
,等等会没事的。要使此类在设备上可用且仅在设备上可用,过程可能类似。我可以:
myclass
的设备内存的指针>myclass
的实例化对象复制到步骤 1 中的设备指针malloc
或new
为myptr
分配设备存储空间如果我不想访问主机上为 myptr
分配的存储空间,则上述顺序很好。但是,如果我确实希望该存储从主机可见,我需要一个不同的顺序:
myclass
的设备内存的指针,我们称之为 mydevobj
myclass
的实例化对象复制到设备指针 mydevobj
myhostptr
int
存储在设备上,用于 myhostptr
myhostptr
的指针值到设备指针&(mydevobj->myptr)
之后,你可以cudaMemcpy
嵌入指针myptr
指向的数据到上分配的区域(通过
cudaMalloc
) >我的主机名
注意,在第5步中,因为我取的是这个指针位置的地址,所以这个cudaMemcpy操作只需要主机上的mydevobj
指针,这在一个cudaMemcpy操作中有效(仅)。
然后设备指针 myint
的值将被正确设置以执行您尝试执行的操作。如果您随后想要将 cudaMemcpy 数据传入和传出 myint
到主机,您可以在任何 cudaMemcpy 调用中使用指针 myhostptr
,不是 mydevobj->myptr
.如果我们尝试使用 mydevobj->myptr
,则需要取消引用 mydevobj
,然后使用它来检索存储在 myptr
中的指针,然后使用该指针作为到/从位置的拷贝。这在主机代码中是 Not Acceptable 。如果您尝试这样做,您将遇到段错误。 (请注意,通过类比,我的 mydevobj
就像您的 Grid_dev
而我的 myptr
就像您的 cdata
)
总的来说,这是一个第一次遇到它时需要仔细考虑的概念,因此像这样的问题在 SO 上出现了一些频率。您可能想研究其中一些问题以查看代码示例(因为您尚未提供设置 Grid_dev
的代码):
关于c++ - cudaMemcpy 段错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15431365/
下面是一小段代码,将数组中的 4 个元素复制到 GPU。我真的不明白为什么 cudaMemcpy 在这种情况下会抛出错误。请帮忙 int size = 5; float *a = (float*)ma
我对我看到的关于阻塞和 cudaMemcpy 的一些评论感到困惑。我的理解是 Fermi HW 可以同时执行内核和执行 cudaMemcpy。 我读到 Lib func cudaMemcpy() 是一
我的程序运行 2 个线程 - 线程 A(用于输入)和 B(用于处理)。我还有一对指向 2 个缓冲区的指针,这样当线程 A 完成将数据复制到缓冲区 1 时,线程 B 开始处理缓冲区 1,线程 A 开始将
之间有什么区别 cudaMemcpy and cudaMemset?? 如何将int值从主机复制到设备? 这是我正在使用的代码 int addXdir = 1; int devAddXdir; cu
我用 cudaMemcpy()一次将 1GB 的数据精确复制到设备。这需要 5.9 秒。反之则需要 5.1 秒。这是正常的吗?函数本身在复制之前有这么多开销吗? 理论上,PCIe 总线的吞吐量至少应为
在这种情况下,cudaMemcpy 函数将如何工作? 我已经声明了一个这样的矩阵 float imagen[par->N][par->M]; 我想将它复制到 cuda 设备,所以我这样做了 float
我正在尝试将无符号整数数组(在 msgs 中)复制到 GPU 上以对其进行处理,但以下代码不会复制任何内容。我在 cudaMemcpy 调用周围添加了一些 cuda 错误检查代码,并且得到以下信息:无
我根据本教程创建了一个简单但完整的程序:http://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#device-memory #i
我正在调用 cudaMemcpy 并且副本成功返回,但是源值没有被复制到目标。我使用 memcpy() 写了一篇类似的文章,效果很好。我在这里缺少什么? // host externs extern
我很好奇,当我们从主机复制到设备时,cudaMemcpy 是在 CPU 还是 GPU 上执行的? 换句话说,它是复制一个顺序过程还是并行完成? 让我解释一下我为什么这么问:我有一个包含 500 万个元
cudaMemcpy(dst, src, filesize, cudaMemcpyDeviceToHost); 其中filesize是存储在设备全局内存中的变量。 最佳答案 简单的答案是否定的。 参数
我试图找出为什么 cudaMemcpyFromSymbol() 存在。似乎“symbol” func 可以做的所有事情,nonSymbol cmd 也可以做。 symbol 函数似乎可以轻松移动数组或
我刚刚开始学习如何使用 CUDA。我正在尝试运行一些简单的示例代码: float *ah, *bh, *ad, *bd; ah = (float *)malloc(sizeof(float)*4);
cudaMemcpy(dst, src, filesize, cudaMemcpyDeviceToHost); 其中 filesize 是存储在设备全局内存中的变量。 最佳答案 简单的回答是否定的。
这个错误困扰了我很长一段时间,所以我决定将其发布在这里。 调用 cudaMemcpy 时发生此段错误: CurrentGrid->cdata[i] = new float[size]; cudaMem
这个错误困扰了我很长一段时间,所以我决定将其发布在这里。 调用 cudaMemcpy 时发生此段错误: CurrentGrid->cdata[i] = new float[size]; cudaMem
这个错误困扰了我很长一段时间,所以我决定将其发布在这里。 调用 cudaMemcpy 时发生此段错误: CurrentGrid->cdata[i] = new float[size]; cudaMem
我无法追踪 cudaMemcpy 调用的无效参数的来源,以下是相关代码: 在 gpu_memory.cu 中,我为设备指针声明并分配内存: #define cudaErrorCheck(ans) {
我有一个带指针的数据结构(想想链表)。在启动读取输入数据的内核之前无法确定其大小。所以我在输入处理期间在设备上分配数据。 但是,尝试将该数据复制回主机失败。据我所知,这是因为 CUDA 中存在限制,不
在下面的代码中,cudaMemcpy 不工作,它返回一个错误,然后程序退出。可能是什么问题?在我看来我没有做违法的事情, vector 的大小对我来说似乎没问题。 算法可能在某些时候做错了,但我想这个
我是一名优秀的程序员,十分优秀!