- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我遇到一个问题,我需要并行处理已知数量的线程(很好),但每个线程的内部迭代次数可能大相径庭(不太好)。在我看来,这样的内核方案会更好:
__kernel something(whatever)
{
unsigned int glIDx = get_global_id(0);
for(condition_from_whatever)
{
}//alternatively, do while
}
其中 id(0) 是事先已知的,而不是:
__kernel something(whatever)
{
unsigned int glIDx = get_global_id(0);
unsigned int glIDy = get_global_id(1); // max "unroll dimension"
if( glIDy_meets_condition)
do_something();
else
dont_do_anything();
}
根据这个讨论,它必须在 glIDy 的全部可能范围内执行,没有办法提前终止:
我似乎找不到任何关于内核中动态大小的 forloops/do-while 语句成本的具体信息,尽管我确实在 Nvidia 和 AMD 的 SDK 的内核中随处看到它们。我记得读过一些关于内核内条件分支越不周期性,性能越差的文章。
实际问题:
有没有比我提出的第一个方案更有效的方法在 GPU 架构上处理这个问题?
我也愿意接受有关此主题的一般信息。
谢谢。
最佳答案
我认为这个问题没有一个通用的答案。这实际上取决于您的问题。
但是这里有一些关于这个主题的注意事项:
for 循环/if else 语句可能会或可能不会影响内核的性能。事实上,性能成本不在内核级别,而是在工作组级别。一个工作组由一个或多个 warp (NVIDIA)/wavefront (AMD) 组成。这些扭曲(我将保留 NVIDIA 术语,但它与 AMD 完全相同)以锁步方式执行。
因此,如果在 warp 中由于 if else(或具有不同迭代次数的 for 循环)而出现分歧,则执行将被序列化。也就是说,这个 warp 中的线程遵循第一条路径将完成它们的工作,而其他线程将空闲。一旦他们的工作完成,这些线程将空闲,而其他线程将开始工作。
如果您需要将线程与屏障同步,则这些语句会产生另一个问题。如果不是所有线程都遇到障碍,您将有未定义的行为。
现在,知道这一点并根据您的具体问题,您可能能够以工作组内没有分歧的方式对线程进行分组,尽管工作组之间会有分歧(没有影响那里)。
还知道 warp 由 32 个线程和 64 个波前组成(可能不是在旧的 AMD GPU 上 - 不确定),您可以使组织良好的工作组的规模等于或这些数字的倍数。请注意,它非常简单,因为还应考虑其他一些问题。参见例如 this question以及 Chanakya.sun 给出的答案(也许对该主题进行更多挖掘会很好)。
如果您的问题无法按照刚才描述的那样进行组织,我建议考虑在 CPU 上使用 OpenCL,它可以很好地处理分支。如果我没记错的话,通常每个工作组都有一个工作项。在这种情况下,最好查看 Intel 和 AMD 的 CPU 文档。我也很喜欢Heterogeneous Computing with OpenCL的第六章这解释了在编程时将 OCL 与 GPU 和 CPU 结合使用的区别。
我喜欢this article也。它主要是关于通过简单地减少 GPU 来提高性能的讨论(不是你的问题),但本文的最后一部分还检查了 CPU 的性能。
最后一件事,关于您对@Oak 提供的关于“设备内线程队列支持”的回答的评论,这实际上称为动态并行性。此功能显然可以解决您的问题,但即使使用 CUDA,您也需要具有 3.5 或更高功能的设备。因此,即使是具有 Kepler GK104 架构的 NVIDIA GPU 也不支持它(功能 3.0)。对于 OCL,动态并行是标准版本 2.0 的一部分。 (据我所知还没有实现)。
关于c++ - OpenCL - 向量化与线程内 for 循环,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21083269/
我想使用Tensorflow的transform_graph工具优化图形。我尝试优化 MultiNet 中的图表(以及其他具有类似编码器-解码器架构的)。然而,优化后的图在使用 quantize_we
我试图在 C# 中将图像量化为 10 种颜色,但在绘制量化图像时遇到问题,我已经制作了映射表并且它是正确的,我已经制作了原始图像的副本并且正在更改基于映射表的像素颜色,我使用下面的代码: bm = n
我需要降低UIImage的颜色深度,但是我不知道该怎么做。结果应与在Photoshop中应用索引颜色相同。 我的目标是要具有较低的色深(32色或更低)。也许这是我的错,但我没有找到解决方法。令人惊讶的
我有大量的 numpy 向量,每个形状 (3,) 都有 8 位整数值: vec = np.random.randint(2**8, size=3) 我想通过一些已知的缩减因子将这些向量量化到更小的空间
我正在用 jQuery 编写一个心理学应用程序。我的项目的一部分需要测量用户对声音的 react 时间(用户按下一个键)。因此,我需要在调用(&时间戳)声音文件和实际开始播放之间的延迟尽可能小地播放声
最近,我开始使用 Tensorflow + Keras 创建神经网络,我想尝试 Tensorflow 中提供的量化功能。到目前为止,使用 TF 教程中的示例进行试验效果很好,我有这个基本的工作示例(来
使用当前的 Tensorflow quantization ops ,我将如何在推理过程中模拟每 channel 量化?这paper将每层量化定义为 We can specify a single q
我已经卡住了我的模型并获得了 .pb 文件。然后我在 Linux 上使用 tocoConverter 量化我的模型,因为 Windows 不支持它。我有 quantized_model.tflite。
我将 git 用于一个稍微不寻常的目的——它在我写小说时存储我的文本。 (我知道,我知道......令人讨厌。) 我正在尝试跟踪生产力,并想衡量后续提交之间的差异程度。作家代表“作品”的是“文字”,至
quantization有什么区别和 simplification ? 量化是另一种简化方式吗? 在某些情况下使用量化更好吗? 或者我应该同时使用两者? 最佳答案 几何体的总大小由两个因素控制:点数和
扎克伯格说,Llama3-8B还是太大了,不适合放到手机中,有什么办法? 量化、剪枝、蒸馏,如果你经常关注大语言模型,一定会看到这几个词,单看这几个字,我们很难理解它们都干了些什么,但
相对于
我正在将一些我无法控制的 XML 转换为 XHTML。 XML 模式定义了一个 段落标记和 和 用于列表。 我经常在这个 XML 中找到嵌套在段落中的列表。因此,直接转换会导致 s 嵌套在 中s,
我看到过这样的说法:CNN 的更深层次可以学习识别更复杂的特征。这通常附带一张早期过滤器识别直线/简单曲线的图片,以及后期过滤器识别更复杂图案的图片。它具有直观意义:您距离数据越远,您对数据的理解就越
在使用 C++ 的带有 tensorflow lite 的树莓派上,对象检测无法正常工作。我的代码编译并运行,但输出似乎从未得到正确填充。我是否会遗漏任何依赖项或错误地访问结果? 我遵循了以下教程:
如何衡量/量化 Corona SDK 游戏应用中的“迟缓”? 我在我构建的基于 Corona SDK 的物理游戏(使用 Box2D)上寻找旧手机(例如 iPhone 4、Samsung GT-I900
我正在尝试创建一个 Tensorflow 量化模型,以便使用 Coral USB 加速器进行推理。这是我的问题的一个最小的独立示例: import sys import tensorflow as t
我有一个分位数回归模型,其中包含 1 个回归变量和 1 个回归变量。我想假设检验回归量在每个分位数上都相等。我想到的一种方法是在 {0.01,0.02,....,0.99} 上测试所有 tau。但是,
要求做,在 PGM 文件上使用 KMeans 进行 vector 量化(或图像压缩) 图像是 PMG 文件,其中 b = block 大小,k = 次数,t = 迭代,-g = 初始质心 图像是这样的
我是一名优秀的程序员,十分优秀!