- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
关于在常规 C 代码中何时使用内联函数以及何时避免使用内联函数,有很多建议。 __forceinline__
对 CUDA C __device__
函数有什么影响?应该在什么地方使用它们,在什么地方避免使用它们?
最佳答案
通常 nvcc
设备代码编译器会自行决定何时内联特定的 __device__
函数,一般来说,您可能不需要担心覆盖这与 __forceinline__
装饰器/指令。
cc 1.x 设备不具备与较新设备相同的所有硬件功能,因此编译器通常会自动为这些设备内联函数。
我认为指定 __forceinline__
的原因与您可能了解的主机 C 代码相同。当编译器可能不会以其他方式内联函数时(例如在 cc 2.x 或更新的设备上),它通常用于优化。如果您只调用一次函数,这种优化(即函数调用开销)可能可以忽略不计,但如果您在循环中调用函数,例如,确保它是内联的可能会显着改善代码执行。
作为反例,内联和递归通常有矛盾之处。对于调用自身的递归函数,我认为不可能处理任意递归和严格内联。因此,如果您打算递归地使用函数(在 cc 2.x 及更高版本中支持),您可能不想指定 __forceinline__
。
一般来说,我认为你应该让编译器为你管理它。它会智能地决定是否内联一个函数。
关于c - __forceinline__ 对 CUDA C __device__ 函数的影响,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19897803/
CUDA 专家,如果我在主机代码中定义了一个新类型: struct float_3{ float x; float y; float z; }; 并且我已经向设备传输了一些这种类型的数据,我可以
我正在尝试在 __device__ 变量上应用内核函数,根据规范,该变量驻留在“全局内存中” #include #include "sys_data.h" #include "my_helper.c
在 http://docs.nvidia.com/cuda/cuda-c-programming-guide/#device-variable-qualifier它说 __device_ 限定符变量具
这个问题在这里已经有了答案: Check whether the code is running on the GPU or CPU (2 个回答) 7年前关闭。 我想写一些主机和设备兼容的函数,并根
有什么区别,在 CUDA 程序中定义设备常量的最佳方法是什么?在 C++,主机/设备程序中,如果我想将常量定义在设备常量内存中,我可以这样做 __device__ __constant__ float
我有一个内核,它在 if 语句中调用 device 函数。代码如下: __device__ void SetValues(int *ptr,int id) { if(ptr[threadIdx
这个问题在这里已经有了答案: External calls are not supported - CUDA (1 个回答) 关闭 7 年前。 我试图了解如何在单独的头文件中解耦 CUDA __de
如果 CUDA 内核调用 __device__ 函数, block 中进入或退出 __device__ 函数的所有线程之间是否存在任何隐式同步? 如果不是那么这意味着 block 中的一些线程可能在
我正在尝试使用 NVCC 选项获取有关我的 CUDA 内核中寄存器使用情况的一些信息 --ptxas-options=v 虽然全局函数一切正常,但我在设备函数方面遇到了一些困难,因为 ptxas信息:
在 CUDA 代码的实现过程中,我经常需要一些实用函数,这些函数将从设备和主机代码中调用。所以我将这些函数声明为 __host__ __device__。这是可以的,可能的设备/主机不兼容可以通过#i
我有一些工作代码...我在其中分配了一个设备变量指针,如下所示: float *d_var; cudaMalloc(&d_var, sizeof(float) ); 稍后在我的代码中,我想将此 var
我对我编写的 CUDA 代码的行为感到困惑。我正在为名为 DimmedGridGPU 的类中的 __device__ 函数编写测试。此类以 int DIM 为模板,我遇到的函数是返回距离输入值 x 最
我正在使用 __device__ 说明符在设备上声明一个全局变量 myvar。我没有在任何地方将它设置为有意义的值(没有像您通常那样在我的内核启动方法中使用 cudaMemcpyToSymbol)。
我有一个在主机和设备代码上都使用的类,以便更轻松地传递数据。这个类有一些操作数据的方法。一个简单的例子是: struct Vector { float x, y, z; __host__ __
在 CUDA 函数类型限定符 __device__ 和 __host__ 中可以一起使用,在这种情况下函数是为主机和设备编译的。这允许消除复制粘贴。但是,没有 __host__ __device__
我想从执行基数排序的内核内部调用独占扫描函数。但是独占扫描只需要一半的线程来完成它的工作。 独占扫描算法中需要几个 __syncthreads()。如果我在开始时有一个声明,例如 if(threadI
我不明白为什么我会收到错误 dynamic initialization is not supported for __device__, __constant__, __shared__ varia
我正在 NVIDIA CUDA GPU 上研究马尔可夫链蒙特卡罗 (MCMC) 算法实现。 CPU MCMC 算法使用高质量的 Mersenne twiner 随机数生成器,我想在我编写的 GPU 内
CUDA 有没有办法在设备端函数中动态分配内存? 我找不到任何这样做的例子。 从 CUDA C 编程手册: B.15 Dynamic Global Memory Allocation void* ma
我在很多地方读到过,__device__ 函数几乎总是由 CUDA 编译器内联。那么,当我将代码从内核移动到内核调用的__device__函数时,(通常)使用的寄存器数量不会增加,这样说是否正确? 例
我是一名优秀的程序员,十分优秀!