- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我想将 4 个长整数(64 位)的寄存器转换/打包为 4 个整数(32 位)。换句话说,将 int64 的 __m256i 转换为 int32 的 __m128i。
我没有 avx-512 可供我使用,所以本质上是:
__m256i n;
__m128i r128i = _mm256_cvtepi64_epi32( n );
对我不可用。还有比下面更好的选择吗?
__m256i n;
alignas(32) int64_t temp[4];
_mm256_store_si256((__m256i*)temp, n);
int32_t a = (int32_t)temp[0];
int32_t b = (int32_t)temp[1];
int32_t c = (int32_t)temp[2];
int32_t d = (int32_t)temp[3];
__m128i r128i = _mm_set_epi32(a, b, c, d);
这将打包成 16 位整数而不是 32 位
__m128i lo_lane = _mm256_castsi256_si128(n);
__m128i hi_lane = _mm256_extracti128_si256(n, 1);
__m128i r128i = _mm_packus_epi32(lo_lane, hi_lane);
最佳答案
所以只是截断,而不是有符号(或无符号)饱和? (我问是因为 AVX-512 提供 signed and unsigned saturation versions 以及截断。像 _mm_packus_epi32
( packusdw
)这样的非 AVX512 包你使用的总是做饱和,如果你想打包,你必须使用普通的 shuffle 指令AVX-512 之前的截断。但如果任何一个都很好,因为上半部分已知为零,那么是的,打包说明可能很有用。)
单向量 __m256i
-> __m128i
对于单个向量,产生更窄的输出,您可以使用 vextracti128
与 vshufps
包单__m256i
成__m128i
.在 AVX-512 之前,vshufps
是仅有的具有任何控制输入的 2-input shuffle 之一,而不仅仅是一个固定的交错,例如。
在带有内在函数的 C 中,您需要 _mm_castsi128_ps
并返回使用 _mm_shuffle_ps
让编译器满意在整数向量上,但现代 CPU 没有在整数 SIMD 指令之间使用 FP shuffle 的旁路延迟。或者,如果您只是要存储它,则可以将结果保留为 __m128
并使用 _mm_store_ps((float*)p, vec);
(是的,将整数指针强制转换为 float*
仍然是严格别名安全的,因为 deref 发生在内部函数中,而不是纯 C 中)。
#include <immintrin.h>
__m128 cvtepi64_epi32_avx(__m256i v)
{
__m256 vf = _mm256_castsi256_ps( v ); // free
__m128 hi = _mm256_extractf128_ps(vf, 1); // vextractf128
__m128 lo = _mm256_castps256_ps128( vf ); // also free
// take the bottom 32 bits of each 64-bit chunk in lo and hi
__m128 packed = _mm_shuffle_ps(lo, hi, _MM_SHUFFLE(2, 0, 2, 0)); // shufps
//return _mm_castps_si128(packed); // if you want
return packed;
}
这是每 128 位输出数据 2 次混洗。我们可以做得更好:每 256 位输出数据 2 次 shuffle。 (如果我们可以很好地安排我们的输入,甚至只是 1)。
__m256i
输入产生
__m256i
输出
vpermd
+
vpblendd
可以做到这一点,将一个向量中每个元素的 low32 改组到底部 channel 或另一 channel 的顶部 channel 。 (使用
set_epi32(6,4,2,0, 6,4,2,0)
随机播放控件)。
vshufps
将我们想要的所有元素放入一个向量中,然后
vpermpd
(相当于
vpermq
)使它们按正确顺序排列。 (这通常是一个很好的策略,我自己应该想到这一点。:P 同样,它利用
vshufps
作为 2-input shuffle。)
// 2x 256 -> 1x 256-bit result
__m256i pack64to32(__m256i a, __m256i b)
{
// grab the 32-bit low halves of 64-bit elements into one vector
__m256 combined = _mm256_shuffle_ps(_mm256_castsi256_ps(a),
_mm256_castsi256_ps(b), _MM_SHUFFLE(2,0,2,0));
// {b3,b2, a3,a2 | b1,b0, a1,a0} from high to low
// re-arrange pairs of 32-bit elements with vpermpd (or vpermq if you want)
__m256d ordered = _mm256_permute4x64_pd(_mm256_castps_pd(combined), _MM_SHUFFLE(3,1,2,0));
return _mm256_castpd_si256(ordered);
}
它仅编译为 2 条指令,带有即时随机控制,没有向量常量。源代码看起来很冗长,但它主要是为了让编译器对类型感到满意。
# clang -O3 -march=haswell
pack64to32: # @pack64to32
vshufps ymm0, ymm0, ymm1, 136 # ymm0 = ymm0[0,2],ymm1[0,2],ymm0[4,6],ymm1[4,6]
vpermpd ymm0, ymm0, 216 # ymm0 = ymm0[0,2,1,3]
ret
vshufps
如果您可以排列输入向量对,使它们在
{a0, a1 | a4, a5}
中具有 64 位元素和
{a2, a3 | a6, a7}
顺序,你只需要一个 in-lane shuffle:低 4x 32 位元素来自每个 256 位输入的低半部分,等等。你可以用一个
_mm256_shuffle_ps
来完成工作。 . (完全如上,不需要
_mm256_permute4x64_pd
)。在此建议的问题下的评论中归功于@chtz。
__m256i
具有 64 位元素排列的向量。
{0,1,2,3}
和
{4,5,6,7}
并使用
_mm256_add_epi64
与
set1_epi64(8)
要增加,您可以改为从
{0,1,4,5}
开始和
{2,3,6,7}
一切都应该相同。 (除非您正在做其他事情,否则您的元素的顺序很重要?)
关于simd - 如何使用avx(但没有avx-512)将int 64转换为int 32,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/69408063/
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?将问题更新为 on-topic对于堆栈溢出。 7年前关闭。 Improve this qu
我有一个代码库,我可以在我的 mac 上编译和运行,但不能在我的远程 linux 机器上编译和运行,我不确定为什么。 编译时出现错误 fatal error: simd/simd.h: No such
我需要了解如何编写一些可并行化问题的 C++ 跨平台实现,以便在可用的情况下利用 SIMD(SSE、SPU 等)。以及我希望能够在运行时在 SIMD 和非 SIMD 之间切换。 您建议我如何解决这个问
我正在使用 AVX 内在 _mm256_extract_epi32() . 不过,我不完全确定我是否正确使用它,因为 gcc 不喜欢我的代码,而 clang 编译它并运行它没有问题。 我根据整数变量的
当我可以使用 SSE3 或 AVX 时,SSE2 或 MMX 等较旧的 SSE 版本是否可用 - 还是我还需要单独检查它们? 最佳答案 一般来说,这些都是附加的,但请记住,多年来英特尔和 AMD 对这
在 godbolt.org 使用 gcc 7.2 我可以看到以下内容 code在汇编程序中翻译得非常好。我看到 1 次加载、1 次添加和 1 次存储。 #include __attribute__(
假设我们有一个函数将两个数组相乘,每个数组有 1000000 个 double 值。在 C/C++ 中,该函数如下所示: void mul_c(double* a, double* b) {
我有一个 A = a1 a2 a3 a4 b1 b2 b3 b4 c1 c2 c3 c4 d1 d2 d3 d4 我有两排, float32x2_t a = a1 a2 flo
我正在考虑编写一个 SIMD vector 数学库,因此作为一个快速基准,我编写了一个程序,该程序执行 1 亿(4 个 float ) vector 元素乘法并将它们加到累积总数中。对于我的经典非 S
我正在开发带有英特尔编译器 OpenMP 4.0 的英特尔 E5(6 核、12 线程) 为什么这段代码 SIMD 编译比并行 SIMD 编译更快? for (int suppv = 0; suppv
OpenMP 4.0 引入了 SIMD 结构以利用 CPU 的 SIMD 指令。根据规范http://www.openmp.org/mp-documents/OpenMP4.0.0.pdf ,有两种结
英特尔编译器允许我们通过以下方式对循环进行矢量化 #pragma simd for ( ... ) 但是,您也可以选择使用 OpenMP 4 的指令执行此操作: #pragma omp simd fo
关注我的 x86 question ,我想知道如何在 Arm-v8 上有效地矢量化以下代码: static inline uint64_t Compress8x7bit(uint64_t x) {
Intel 提供了几个 SIMD 命令,它们似乎都对 128 位数据执行按位异或: _mm_xor_pd(__m128d, __m128d) _mm_xor_ps(__m128, __m128) _m
可以使用“位打包”技术压缩无符号整数:在一个无符号整数 block 中,只存储有效位,当一个 block 中的所有整数都“小”时,会导致数据压缩。该方法称为 FOR (引用框架)。 有SIMD lib
SSE 寄存器是否在逻辑处理器(超线程)之间共享或复制? 对于 SSE 繁重的程序,我能否期望从并行化中获得与普通程序相同的加速(英特尔声称具有超线程的处理器为 30%)? 最佳答案 从英特尔的文档中
我正在编写一个使用 SSE 指令来乘法和相加整数值的程序。我用浮点数做了同样的程序,但我的整数版本缺少一个指令。 使用浮点数,在完成所有操作后,我将 de 值返回到常规浮点数数组,执行以下操作: _m
我正在开发基于Intel指令集(AVX,FMA等)的高性能算法。当数据按顺序存储时,我的算法(内核)运行良好。但是,现在我面临一个大问题,但没有找到解决方法或解决方案: see 2D Matrix i
大家好 :) 我正在尝试了解有关浮点、SIMD/数学内在函数和 gcc 的快速数学标志的一些概念。更具体地说,我在 x86 cpu 上使用 MinGW 和 gcc v4.5.0。 我已经搜索了一段时间
根据https://sourceware.org/glibc/wiki/libmvec GCC 具有数学函数的向量实现。它们可以被编译器用于优化,可以在这个例子中看到:https://godbolt.
我是一名优秀的程序员,十分优秀!