gpt4 book ai didi

cuda - 为什么对double而言未实现atomicAdd?

转载 作者:行者123 更新时间:2023-12-03 08:29:52 26 4
gpt4 key购买 nike

为什么没有将double的atomicAdd()明确实现为CUDA 4.0或更高版本的一部分?

CUDA programming guide 4.1的附录F第97页中,以下版本的
atomicAdd已实现。

int atomicAdd(int* address, int val);
unsigned int atomicAdd(unsigned int* address,
unsigned int val);
unsigned long long int atomicAdd(unsigned long long int* address,
unsigned long long int val);
float atomicAdd(float* address, float val)

继续在同一页面上提供对double的atomicAdd的小实现,如下所示
我刚刚开始在我的项目中使用它。
__device__ double atomicAdd(double* address, double val)
{
unsigned long long int* address_as_ull =
(unsigned long long int*)address;
unsigned long long int old = *address_as_ull, assumed;
do {
assumed = old;
old = atomicCAS(address_as_ull, assumed,
__double_as_longlong(val +
__longlong_as_double(assumed)));
} while (assumed != old);
return __longlong_as_double(old);
}

为什么不将上述代码定义为CUDA的一部分?

最佳答案

编辑:从CUDA 8开始, double atomicAdd()在CUDA中实现,SM_6X(Pascal)GPU中具有硬件支持。

当前,没有CUDA设备在硬件中支持atomicAdddouble。如您所述,可以使用atomicCAS来实现64位整数,但是为此付出了不小的代价。

因此,CUDA软件团队选择将正确的实现记录为开发人员的选择,而不是使其成为CUDA标准库的一部分。这样,开发人员不会在不知不觉中选择他们不了解的性能成本。

旁白:我认为这个问题不应以“非 build 性的”来解决。我认为这是一个非常有效的问题,+ 1。

关于cuda - 为什么对double而言未实现atomicAdd?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12626096/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com