- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我正在使用以下函数为我的 OpenCL 应用程序获取最佳的本地和工作组大小。
//maxWGSize == CL_KERNEL_WORK_GROUP_SIZE
//wgMultiple == CL_KERNEL_PREFERRED_WORK_GROUP_SIZE_MULTIPLE
//compUnits == CL_DEVICE_MAX_COMPUTE_UNITS
//rems == max required work items
void MyOpenCL::getBestWGSize(cl_uint maxWGSize, cl_uint wgMultiple, cl_uint compUnits, cl_uint rems, size_t *gsize, size_t *lsize) const
{
cl_uint cu = 1;
if(wgMultiple <= rems)
{
bool flag = true;
while(flag)
{
if(cu < compUnits)
{
cu++;
if((wgMultiple * cu) > rems)
{
cu--;
flag = false;
break;
}
}
else if(wgMultiple < maxWGSize)
{
wgMultiple *= 2;
if((wgMultiple * cu) > rems)
{
wgMultiple /= 2;
flag = false;
break;
}
}
else
{
cu++;
if(((wgMultiple * cu) > rems) || (cu > 2 * compUnits))
{
cu--;
flag = false;
break;
}
}
}
}
else
{
bool flag = true;
wgMultiple = 2;
while(flag)
{
if(cu < compUnits)
{
cu++;
if((wgMultiple * cu) > rems)
{
cu--;
flag = false;
break;
}
}
else
{
wgMultiple *= 2;
if((wgMultiple * cu) > rems)
{
wgMultiple /= 2;
flag = false;
break;
}
else
{
cl_int temp = rems - (wgMultiple * cu);
if((temp == 0) || (temp == 1))
{
flag = false;
break;
}
}
}
}
}
*gsize = wgMultiple * cu;
*lsize = wgMultiple;
if(rems < *gsize)
{
*gsize = rems;
*lsize = rems;
}
if(cu != compUnits)
{
while((cu * 2) <= compUnits)
{
cu *= 2;
if(*lsize % 2 == 0)
*lsize /= 2;
}
}
}
算法是:
有什么改进算法的建议吗?
我得到的一些结果:
for GPU if max required work items == 99
maxWGSize 256
wgMultiple 64
compUnits 6
rems 99
*gsize 64
*lsize 16
for GPU if max required work items == 35
maxWGSize 256
wgMultiple 4
compUnits 6
rems 35
*gsize 24
*lsize 4
for GPU if max required work items == 57
maxWGSize 256
wgMultiple 8
compUnits 6
rems 57
*gsize 48
*lsize 8
for CPU if max required work items == 99
maxWGSize 1024
wgMultiple 16
compUnits 4
rems 99
*gsize 64
*lsize 16
for CPU if max required work items == 35
maxWGSize 1024
wgMultiple 8
compUnits 4
rems 35
*gsize 32
*lsize 8
for CPU if max required work items == 57
maxWGSize 1024
wgMultiple 8
compUnits 4
rems 57
*gsize 32
*lsize 8
最佳答案
无可否认,我不明白(也几乎试图去理解)你在那里试图计算什么,因为它看起来过于复杂:确定最佳工作组规模应该几乎与计算单元的数量,应该没有必要用这么复杂的方式计算。
正如我在 original question 的回答中所说(并且由 DarkZeros in his comment 确认:只要您不使用本地内存等,您通常可以只传递 null
作为本地工作大小,OpenCL 会适本地选择它。
不过,可能会有一些注意事项。根据全局工作大小,底层 OpenCL 实现可能无法使用“良好”的本地工作组大小。例如:当全局工作大小为质数(大于最大本地工作大小)时,OpenCL 实现可能被迫使用本地工作大小 1...
这通常可以通过填充数据来规避,使其成为更合适的本地工作大小的倍数。首先,这意味着您必须修改内核,使其遵守工作大小的限制。在另一个问题的内核中,您必须为大小添加另一个参数,并相应地进行检查:
__kernel void reduceURatios(
__global myreal *coef,
__global myreal *row,
myreal ratio,
int sizeOfArrays) // Add this parameter
{
size_t gid = get_global_id(0);
if (gid >= sizeOfArrays)
{
return; // Don't access invalid elements
}
myreal pCoef = coef[gid];
myreal pRow = row[gid];
pCoef = pCoef - (pRow * ratio);
coef[gid] = pCoef;
}
然后您可以更自由地选择全局工作大小。当前问题的代码涉及 CL_KERNEL_PREFERRED_WORK_GROUP_SIZE_MULTIPLE
,但这与标准 GPU 上的这种微不足道的内核几乎无关。与此相反,CL_DEVICE_MAX_WORK_GROUP_SIZE
将是本地工作大小的不错选择(只要内核本身没有其他限制,例如寄存器压力 - 但这也绝对不是这里的情况)。
因此您可以使用 CL_DEVICE_MAX_WORK_GROUP_SIZE
作为计算全局工作大小的基础:
// As queried with CL_DEVICE_MAX_WORK_GROUP_SIZE
int maxWorkGroupSize = ...
int numWorkGroups = (n-1) / maxWorkGroupSize + 1;
int globalSizePadded = numWorkGroups * maxWorkGroupSize;
然后用这个(填充的)全局工作大小调用你的内核。您在内核中添加的 if 语句将确保线程不会访问无效的内存区域。当你用这个填充的全局大小启动你的内核,并将局部大小设置为 null
时,它应该自动选择 CL_DEVICE_MAX_WORK_GROUP_SIZE
作为局部大小(当然,你也可以手动指定)。
这可能使原始问题的计算速度更快,但它仍然不太可能比 CPU 版本更快...
关于c++ - 在 OpenCL 中获得最佳的本地/全局工作组规模?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22968369/
Intel、AMD 和 Khronos OpenCL 之间有什么区别。我对 OpenCL 完全陌生,想从它开始。我不知道在我的操作系统上安装哪个更好。 最佳答案 OpenCL 是 C 和 C++ 语言
我在这里的一篇文章中看到,我们可以从 OpenCL 内核调用函数。但是在我的情况下,我还需要并行化该复杂函数(由所有可用线程运行),所以我是否必须将该函数也设为内核并像从主内核中调用函数一样直接调
最近我看到一些开发板支持 OpenCL EP,例如 odroid XU。我知道的一件事是 OpenCL EP 适用于 ARM 处理器,但它与基于主要桌面的 OpenCL 在哪些特性上有所不同。 最佳答
我想知道在 OpenCL 中设置为内核函数的参数数量是否有任何限制。设置参数时出现 INVALID_ARG_INDEX 错误。我在内核函数中设置了 9 个参数。请在这方面帮助我。 最佳答案 您可以尝试
我对零拷贝的工作原理有点困惑。 1-要确认以下内容对应于opencl中的零拷贝。 ....................... . . . .
我是 OpenCL 的初学者,我很难理解某些东西。 我想改进主机和设备之间的图像传输。 我制定了一个计划以更好地了解我。 顶部:我现在拥有的 |底部:我想要的 HtD(主机到设备)和 DtH(设备到主
今天我又加了四个 __local变量到我的内核以转储中间结果。但是只需将另外四个变量添加到内核的签名并添加相应的内核参数就会将内核的所有输出呈现为“0”。没有一个 cl 函数返回错误代码。 我进一步尝
我知道工作项被分组到工作组中,并且您不能在工作组之外进行同步。 这是否意味着工作项是并行执行的? 如果是这样,使用 128 个工作项创建 1 个工作组是否可能/有效? 最佳答案 组内的工作项将一起安排
我相当确定经纱仅在 CUDA 中定义。但也许我错了。就 OpenCL 而言,什么是扭曲? 它与工作组不一样,是吗? 任何相关的反馈都受到高度赞赏。谢谢! 最佳答案 它没有在 OpenCL 标准中定义。
已结束。此问题正在寻求书籍、工具、软件库等的推荐。它不满足Stack Overflow guidelines 。目前不接受答案。 我们不允许提出寻求书籍、工具、软件库等推荐的问题。您可以编辑问题,以便
在OpenCL中,我的理解是可以使用barrier()函数来同步工作组中的线程。我(通常)确实了解它们的用途以及何时使用它们。我还知道工作组中的所有线程都必须遇到障碍,否则会出现问题。然而,到目前为止
我的主板上有 Nvidia 显卡 (GeForce GT 640)。我已经在我的盒子上安装了 OpenCL。当我使用“clGetPlatformInfo(参数)”查询平台时,我看到以下输出:-#可用平
我目前正在构建一个 ray marcher 来查看像 mandelbox 等东西。它工作得很好。但是,在我当前的程序中,它使用每个 worker 作为从眼睛转换的光线。这意味着每个 worker 有大
我编写了两个不同的 openCl 内核,使用 nvidia profiler 获取了有关它们的一些信息,发现两者每个工作项都使用 63 个寄存器。 我尝试了一切我能想到的方法来降低这个数字(用 ush
我的主板上有 Nvidia 显卡 (GeForce GT 640)。我已经在我的盒子上安装了 OpenCL。当我使用“clGetPlatformInfo(参数)”查询平台时,我看到以下输出:-#可用平
我目前正在构建一个 ray marcher 来查看像 mandelbox 等东西。它工作得很好。但是,在我当前的程序中,它使用每个 worker 作为从眼睛转换的光线。这意味着每个 worker 有大
我正在尝试使用 OpenCL 加速一些计算,算法的一部分包括矩阵求逆。是否有任何开源库或免费可用的代码来计算用 OpenCL 或 CUDA 编写的矩阵的 lu 分解(lapack dgetrf 和 d
我正在尝试在 OpenCL 内核中使用递归。编译成功,但运行时出现编译错误,所以我想知道,由于 CUDA 现在支持动态并行,OpenCL 是否支持动态并行? 最佳答案 OpenCL 不支持递归。请参阅
考虑以下代码,它从大小为 size 的 double 组创建缓冲区内存对象: coef_mem = clCreateBuffer(context, CL_MEM_READ_WRITE | CL_MEM
OpenCL 中目标平台的示例是什么?例如,它是 Windows、Android、Mac 等操作系统,还是设备中的实际芯片? 最佳答案 OpenCL 平台本质上是一个 OpenCL 实现。它与操作系统
我是一名优秀的程序员,十分优秀!