- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我要写一个内核来在有限区域内添加两个 3 维矩阵。我有我的代码
#define PREC float
typedef struct _clParameter clParameter;
struct _clParameter {
size_t width;
size_t minWidth;
size_t maxWidth;
size_t height;
size_t minHeight;
size_t maxHeight;
size_t depth;
size_t minDepth;
size_t maxDepth;
};
__kernel void clMatrixBasicOperate1Add(
__global const PREC * restrict in1,
__global const PREC * restrict in2,
__global PREC * restrict out,
__private const clParameter par) {
size_t sizeOfXY = par.width * par.height;
// 3-Dimension matrix
size_t X = get_global_size(0);
size_t x = get_global_id(0);
size_t Y = get_global_size(1);
size_t y = get_global_id(1);
size_t Z = get_global_size(2);
size_t z = get_global_id(2);
size_t endX = (par.maxWidth - par.minWidth + 1) / X;
size_t endY = (par.maxHeight - par.minHeight + 1) / Y;
size_t endZ = (par.maxDepth - par.minDepth + 1) / Z;
if(x<( (par.maxWidth - par.minWidth + 1) % X) ) endX += 1;
if(y<( (par.maxHeight - par.minHeight + 1) % Y) ) endY += 1;
if(z<( (par.maxDepth - par.minDepth + 1) % Z) ) endZ += 1;
for(size_t k=0;k<endZ;k++)
for(size_t j=0;j<endY;j++)
for(size_t i=0;i<endX;i++) {
size_t index = (par.minDepth + k*Z+z) * sizeOfXY + (par.minHeight + j*Y+y) * par.width + (par. minWidth + i*X +x);
out[index] = in1[index] + in2[index];
}
// return
}
当我使用 Intel Kernel Builder For OpenCL API 构建它时,它告诉我
Setting target instruction set architecture to: Default (Advanced Vector Extension (AVX))
OpenCL Intel CPU device was found!
Device name: Intel(R) Core(TM) i7-2630QM CPU @ 2.00GHz
Device version: OpenCL 1.2 (Build 83073)
Device vendor: Intel(R) Corporation
Device profile: FULL_PROFILE
Compilation started
Compilation done
Linking started
Linking done
Device build started
Device build done
Kernel <clMatrixBasicOperate1Add> was not vectorized
Done.
Build succeeded!
我想知道为什么 clMatrixBasicOperate1Add 没有向量化。
最佳答案
您的内核无法矢量化,部分原因是 for 循环中的终止条件。这些条件都依赖于根据内核输入计算的变量。因此,在内核编译时,英特尔 OpenCL C 编译器不知道这些循环将执行多少次迭代,因此根本无法优化它们。如果您将内部循环从 for(size_t i=0;i<endX;i++)
更改为至 for(size_t i=0;i<4;i++)
然后内核被矢量化。当然,此更改不会执行您想要的操作,但至少您的内核已矢量化 :)。
我认为您想要尝试的策略是沿线程网格的 X 维度进行矢量化。这意味着您将沿着 X 启动 1/2 数量的线程,而是使用 vload2 和 vstore2 函数来读取和写入全局内存。您也可以使用 4、8 或 16 个元素 vector ,在这种情况下,您将分别沿 X 维度启动当前线程数的 1/4、1/8 或 1/16。
由于您使用的是第二代 Core i7 和 float 据,您可能希望使用 float8、vload8 和 vstore8,因为您的 CPU 支持同时对 8 个浮点值进行操作的 AVX 指令。请注意,这不是性能可移植的,例如一些 GPU 在 float2 下运行良好,但在使用 float4/8/16 时性能下降。使用 AMD CPU 运行时的旧 CPU 无法访问 AVX 指令,只能访问使用 4 元素浮点 vector 的 SSE。因此,您应该使用诸如“-D vectype=float4”之类的字符串,通过在 clBuildProgram 的选项中传递的宏,使 vector 大小成为可调参数。
关于c - 为什么面向 OpenCL 的英特尔内核构建器告诉我我的内核未矢量化?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22804245/
我想使用Tensorflow的transform_graph工具优化图形。我尝试优化 MultiNet 中的图表(以及其他具有类似编码器-解码器架构的)。然而,优化后的图在使用 quantize_we
我试图在 C# 中将图像量化为 10 种颜色,但在绘制量化图像时遇到问题,我已经制作了映射表并且它是正确的,我已经制作了原始图像的副本并且正在更改基于映射表的像素颜色,我使用下面的代码: bm = n
我需要降低UIImage的颜色深度,但是我不知道该怎么做。结果应与在Photoshop中应用索引颜色相同。 我的目标是要具有较低的色深(32色或更低)。也许这是我的错,但我没有找到解决方法。令人惊讶的
我有大量的 numpy 向量,每个形状 (3,) 都有 8 位整数值: vec = np.random.randint(2**8, size=3) 我想通过一些已知的缩减因子将这些向量量化到更小的空间
我正在用 jQuery 编写一个心理学应用程序。我的项目的一部分需要测量用户对声音的 react 时间(用户按下一个键)。因此,我需要在调用(&时间戳)声音文件和实际开始播放之间的延迟尽可能小地播放声
最近,我开始使用 Tensorflow + Keras 创建神经网络,我想尝试 Tensorflow 中提供的量化功能。到目前为止,使用 TF 教程中的示例进行试验效果很好,我有这个基本的工作示例(来
使用当前的 Tensorflow quantization ops ,我将如何在推理过程中模拟每 channel 量化?这paper将每层量化定义为 We can specify a single q
我已经卡住了我的模型并获得了 .pb 文件。然后我在 Linux 上使用 tocoConverter 量化我的模型,因为 Windows 不支持它。我有 quantized_model.tflite。
我将 git 用于一个稍微不寻常的目的——它在我写小说时存储我的文本。 (我知道,我知道......令人讨厌。) 我正在尝试跟踪生产力,并想衡量后续提交之间的差异程度。作家代表“作品”的是“文字”,至
quantization有什么区别和 simplification ? 量化是另一种简化方式吗? 在某些情况下使用量化更好吗? 或者我应该同时使用两者? 最佳答案 几何体的总大小由两个因素控制:点数和
扎克伯格说,Llama3-8B还是太大了,不适合放到手机中,有什么办法? 量化、剪枝、蒸馏,如果你经常关注大语言模型,一定会看到这几个词,单看这几个字,我们很难理解它们都干了些什么,但
相对于
我正在将一些我无法控制的 XML 转换为 XHTML。 XML 模式定义了一个 段落标记和 和 用于列表。 我经常在这个 XML 中找到嵌套在段落中的列表。因此,直接转换会导致 s 嵌套在 中s,
我看到过这样的说法:CNN 的更深层次可以学习识别更复杂的特征。这通常附带一张早期过滤器识别直线/简单曲线的图片,以及后期过滤器识别更复杂图案的图片。它具有直观意义:您距离数据越远,您对数据的理解就越
在使用 C++ 的带有 tensorflow lite 的树莓派上,对象检测无法正常工作。我的代码编译并运行,但输出似乎从未得到正确填充。我是否会遗漏任何依赖项或错误地访问结果? 我遵循了以下教程:
如何衡量/量化 Corona SDK 游戏应用中的“迟缓”? 我在我构建的基于 Corona SDK 的物理游戏(使用 Box2D)上寻找旧手机(例如 iPhone 4、Samsung GT-I900
我正在尝试创建一个 Tensorflow 量化模型,以便使用 Coral USB 加速器进行推理。这是我的问题的一个最小的独立示例: import sys import tensorflow as t
我有一个分位数回归模型,其中包含 1 个回归变量和 1 个回归变量。我想假设检验回归量在每个分位数上都相等。我想到的一种方法是在 {0.01,0.02,....,0.99} 上测试所有 tau。但是,
要求做,在 PGM 文件上使用 KMeans 进行 vector 量化(或图像压缩) 图像是 PMG 文件,其中 b = block 大小,k = 次数,t = 迭代,-g = 初始质心 图像是这样的
我是一名优秀的程序员,十分优秀!