- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试对数据类型运行 SIMD 指令 int
, float
和 double
.我需要乘法、加法和加载操作。
对于 float
和 double
我成功地使这些说明起作用:
_mm256_add_ps
, _mm256_mul_ps
和 _mm256_load_ps
(以 *pd 结尾为 double)。(不支持直接 FMADD 操作)
但是对于整数我找不到有效的指令。英特尔 AVX 手册中显示的所有内容均由 GCC 4.7 给出类似的错误,例如“‘_mm256_mul_epu32’未在此范围内声明”。
为了加载整数,我使用 _mm256_set_epi32
这对 GCC 来说很好。我不知道为什么没有定义其他指令。我需要更新什么吗?
我包括所有这些 <pmmintrin.h>, <immintrin.h> <x86intrin.h>
我的处理器是 Intel core i5 3570k (Ivy Bridge)。
最佳答案
自 AVX2 以来才添加 256 位整数运算,因此如果您只有 AVX1,则必须使用 128 位 __m128i
vector 来处理整数内在函数。
AVX1 确实有整数加载/存储,并且像 _mm256_set_epi32
这样的内在函数可以用 FP 洗牌或编译时常量的简单加载来实现。
https://en.wikipedia.org/wiki/Advanced_Vector_Extensions#Advanced_Vector_Extensions_2
Advanced Vector Extensions 2 (AVX2), also known as Haswell New Instructions,[2] is an expansion of the AVX instruction set introduced in Intel's Haswell microarchitecture. AVX2 makes the following additions:
- expansion of most vector integer SSE and AVX instructions to 256 bits
- three-operand general-purpose bit manipulation and multiply
- three-operand fused multiply-accumulate support (FMA3)
- Gather support, enabling vector elements to be loaded from non-contiguous memory locations
- DWORD- and QWORD-granularity any-to-any permutes
- vector shifts.
FMA3 实际上是一个单独的功能; AMD Piledriver/Steamroller 有,但 AVX2 没有。
不过,如果 int 值范围适合 24 位,那么您可以改用 float
。但是请注意,如果您需要精确结果 或结果的低位,则必须将float
转换为double
,因为 24x24 乘法将产生 48 位结果,只能精确存储在 double
中。那时每个 vector 仍然只有 4 个元素,使用 int32
的 XMM vector 可能会更好。 (但请注意,FMA 吞吐量通常优于整数乘法吞吐量。)
AVX1 具有 128 位整数运算的 VEX 编码,因此您可以在与 256 位 FP 内在函数相同的函数中使用它们,而不会导致 SSE-AVX 转换停滞。 (在 C 语言中,您通常不必担心这一点;您的编译器会在需要时负责使用 vzeroupper
。)
您可以尝试使用 AVX 按位指令(如 VANDPS 和 VXORPS)模拟整数加法,但如果 ymm vector 没有按位左移,它将无法工作。
如果您确定未设置 FTZ/DAZ,则可以使用小整数作为非正规/次正规float
值,其中尾数之外的位均为零.那么FP加法和整数加法是同一个位运算。 (当输入和结果都是非正规的时,VADDPS 不需要 Intel 硬件上的微码辅助。)
关于c - C中的整数SIMD指令AVX,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24399754/
我正在尝试优化一些矩阵计算,我想知道是否可以在编译时检测 SSE/SSE2/AVX/AVX2/AVX-512/AVX-128-FMA/KCVI[ 1] 是否由编译器启用?非常适合 GCC 和 Clan
我想仅使用avx而不是avx2来实现64位转置操作。它应该这样做: // in = Hh Hl Lh Ll // | X | // out = Hh Lh Hl Ll 这就是使
如果我有一个 AVX 寄存器,里面有 4 个 double 值,我想将它的反向存储在另一个寄存器中,是否可以用一个内部命令来实现? 例如:如果我在 SSE 寄存器中有 4 个 float ,我可以使用
最初我试图重现 Agner Fog 的微体系结构指南部分“YMM 和 ZMM 向量指令的预热期”中描述的效果,它说: The processor turns off the upper parts o
我的 C++ 代码使用 SSE,现在我想改进它以支持 AVX(当它可用时)。因此,我检测 AVX 何时可用并调用使用 AVX 命令的函数。我使用 Win7 SP1 + VS2010 SP1 和带有 A
我有一大块内存,比如说 256 KiB 或更长。我想计算整个 block 中 1 位的数量,或者换句话说:将所有字节的“总体计数”值相加。 我知道 AVX-512 有一个 VPOPCNTDQ inst
有多快 tensorflow-gpu与没有 AVX 和 AVX2 相比,有 AVX 和 AVX2 吗? 我试图使用谷歌找到答案,但没有成功。很难重新编译tensorflow-gpu对于 Windows
为什么avx sqrt(非压缩)指令有三个操作数? vsqrtsd xmm1, xmm2, xmm3 这是否意味着类似于 xmm1=xmm2=sqrt(xmm3)? 编辑:下面的详细答案但总之流水线的
我正在研究Intel intrinsics guide的展开和压缩操作。我对这两个概念感到困惑: 对于__m128d _mm_mask_expand_pd (__m128d src, __mmask8
我在 Intel Intrinsic Guide v2.7 中找不到它们。您知道 AVX 或 AVX2 指令集是否支持它们吗? 最佳答案 原始 AVX 指令集中没有分散或收集指令。 AVX2 添加了收
我正在尝试将函数转换为 AVX 版本。函数本身基本上只是比较浮点数并返回真/假取决于计算。 这是原始函数: bool testSingle(float* thisFloat, float* other
我遇到了 AVX 内部指令 _mm256_testc_pd() 的一个非常奇怪的行为。在这里你可以看到这个功能的描述 https://software.intel.com/sites/landingp
我有一个 256 位 AVX 寄存器,其中包含 4 个单精度复数,存储为实数、虚数、实数、虚数等。我目前正在将整个 256 位寄存器写回内存并在那里求和,但这似乎效率低下. 如何使用 AVX(或 AV
#include "stdio.h" #include "math.h" #include "stdlib.h" #include "x86intrin.h" void dd_m(double *cl
有没有办法对 AVX 寄存器进行水平异或——特别是对 256 位寄存器的四个 64 位组件进行异或? 目标是获得 AVX 寄存器的所有 4 个 64 位组件的异或。它本质上与水平添加( _mm256_
当我尝试使用 AVX 获取数据时,出现运行时错误 - 段错误: int i = 0; const int sz = 9; size_t *src1 = (size_t *)_mm_malloc(sz*
当我尝试使用 AVX 展开最简单的循环时,出现运行时错误 - 段错误: const int sz = 9; float *src = (float *)_mm_malloc(sz*
我想将两个 256 位 vector (__m256d) 合并为一个 256位 vector ,通过省略每个 64 位 double 的上半部分。 所以,如果在下面,a_i, b_i, ... 是 3
我测试了以下简单的功能 void mul(double *a, double *b) { for (int i = 0; i #include #include #include #defi
_mm_i32gather_epi32() 的当前英特尔内在函数指南将每个子词的计算地址描述为: addr := base_addr + SignExtend64(vindex[m+31:m]) *
我是一名优秀的程序员,十分优秀!