gpt4 book ai didi

sse - SSE-不存在的hardsub固有的吗?

转载 作者:行者123 更新时间:2023-12-02 08:09:08 29 4
gpt4 key购买 nike

在浏览可用的内在函数时,我注意到没有地方可以看到水平的addsub / subadd指令可用。在过时的3DNow中可用!扩展名,但是出于明显的原因,它的使用是不实际的。是什么原因导致SSE3扩展中无法执行此类“基本”操作以及类似的水平操作和addsub操作?

顺便问一下,现代指令集(SSE3,SSE4,AVX等)中最快的替代方法是什么? (每个值2倍,即__m128d)

最佳答案

通常,您首先要避免将代码设计为使用水平操作。尝试对多个数据并行执行相同的操作,而不是对具有不同元素的不同操作。但是有时局部优化仍然值得,水平填充可能比纯标量更好。

英特尔尝试在SSE3中添加水平操作,但从未添加支持它们的专用硬件。它们在支持它们的所有CPU(包括AMD)上解码为2个混洗+ 1个垂直操作。参见Agner Fog's instruction tables。除SSE4.1 dpps / dppd (相对于手动改组通常不值得使用)以外,最新的ISA扩展大多不包含更多的水平操作。

SSSE3 pmaddubsw 很有意义,因为element-width已经是扩大乘法的问题,而且SSE4.1 phminposuw 立即获得了专用的硬件支持,使其值得使用(并且如果不做同样的事情,将花费大量的操作,并且对视频特别有用)编码)。但是AVX / AVX2 / AVX512水平操作非常稀缺。 AVX512确实引入了一些不错的混洗功能,因此,如果需要,您可以使用功能强大的2输入通道交叉混洗功能构建自己的水平操作。

如果最有效的解决方案已经包括以两种不同的方式将两个输入混在一起并将其馈送到加法或减法,那么haddpd是一种有效的编码方式;尤其是在没有AVX的情况下,准备输入可能也需要movaps指令,因为shufpd是破坏性的(使用内在函数时编译器会静默发出,但仍会消耗前端带宽,并且在Sandybridge等早期版本的CPU上的延迟无法消除reg-reg动作)。

但是,如果您打算两次使用相同的输入,那么haddpd是错误的选择。另请参见Fastest way to do horizontal float vector sum on x86hadd / hsub只是两个不同输入的好主意,例如作为即时转置的一部分,作为矩阵上其他操作的一部分。

无论如何,关键是,如果需要,可以在两个混洗+ SSE3 haddsub_pd 中构建自己的addsubpd(在支持该功能的CPU上确实具有单-uop硬件支持。)使用AVX,它的速度将与一样快假设的haddsubpd指令,并且没有AVX通常会花费一个额外的movaps,因为编译器需要将两个输入都保留到第一个shuffle中。 (代码大小会更大,但是我在谈论的是前端的成本,后端的执行端口压力。)

 // Requires SSE3 (for addsubpd)

// inputs: a=[a1 a0] b=[b1 b0]
// output: [b1+b0, a1-a0], like haddpd for b and hsubpd for a
static inline
__m128d haddsub_pd(__m128d a, __m128d b) {
__m128d lows = _mm_unpacklo_pd(a,b); // [b0, a0]
__m128d highs = _mm_unpackhi_pd(a,b); // [b1, a1]
return _mm_addsub_pd(highs, lows); // [b1+b0, a1-a0]
}

With gcc -msse3 and clang (on Godbolt)我们得到了预期的结果:
    movapd  xmm2, xmm0          # ICC saves a code byte here with movaps, but gcc/clang use movapd on double vectors for no advantage on any CPU.
unpckhpd xmm0, xmm1
unpcklpd xmm2, xmm1
addsubpd xmm0, xmm2
ret

内联时这通常无关紧要,但是作为独立函数,gcc和clang在需要使用b起始的同一寄存器中而不是a的返回值时会遇到麻烦。 (例如,如果args反向,则为haddsub(b,a))。
# gcc for  haddsub_pd_reverseargs(__m128d b, __m128d a) 
movapd xmm2, xmm1 # copy b
unpckhpd xmm1, xmm0
unpcklpd xmm2, xmm0
movapd xmm0, xmm1 # extra copy to put the result in the right register
addsubpd xmm0, xmm2
ret

clang实际上做得更好,使用另一种shuffle(movhlps而不是unpckhpd)仍然只使用一个寄存器副本:
# clang5.0
movapd xmm2, xmm1 # clangs comments go in least-significant-element first order, unlike my comments in the source which follow Intel's convention in docs / diagrams / set_pd() args order
unpcklpd xmm2, xmm0 # xmm2 = xmm2[0],xmm0[0]
movhlps xmm0, xmm1 # xmm0 = xmm1[1],xmm0[1]
addsubpd xmm0, xmm2
ret

对于具有__m256d vector 的AVX版本,实际上想要的是_mm256_unpacklo/hi_pd的行内行为,对于而言,它是一次获得偶数/奇数元素的功能。
static inline
__m256d haddsub256_pd(__m256d b, __m256d a) {
__m256d lows = _mm256_unpacklo_pd(a,b); // [b2, a2 | b0, a0]
__m256d highs = _mm256_unpackhi_pd(a,b); // [b3, a3 | b1, a1]
return _mm256_addsub_pd(highs, lows); // [b3+b2, a3-a2 | b1+b0, a1-a0]
}

# clang and gcc both have an easy time avoiding wasted mov instructions
vunpcklpd ymm2, ymm1, ymm0 # ymm2 = ymm1[0],ymm0[0],ymm1[2],ymm0[2]
vunpckhpd ymm0, ymm1, ymm0 # ymm0 = ymm1[1],ymm0[1],ymm1[3],ymm0[3]
vaddsubpd ymm0, ymm0, ymm2

当然,如果您有两次相同的输入,即您想要 vector 的两个元素之间的总和和差,则只需要一个shuffle即可输入addsubpd
// returns [a1+a0  a1-a0]
static inline
__m128d sumdiff(__m128d a) {
__m128d swapped = _mm_shuffle_pd(a,a, 0b01);
return _mm_addsub_pd(swapped, a);
}

实际上,这对于gcc和clang都是很笨拙的:
    movapd  xmm1, xmm0
shufpd xmm1, xmm0, 1
addsubpd xmm1, xmm0
movapd xmm0, xmm1
ret

但是,如果编译器不需要在开始时使用的同一寄存器中的结果,则第二个movapd在内联时应该消失。我认为gcc和clang都在这里缺少优化:它们可以在复制后交换xmm0:
     # compilers should do this, but don't
movapd xmm1, xmm0 # a = xmm1 now
shufpd xmm0, xmm0, 1 # swapped = xmm0
addsubpd xmm0, xmm1 # swapped +- a
ret

大概他们基于SSA的寄存器分配器不会考虑使用第二个寄存器来获得相同的a值来释放xmm0来获取swapped。通常,在另一个寄存器中产生结果是很好的(甚至更好的选择),因此,仅当查看函数的独立版本时,内联时这几乎不是问题

关于sse - SSE-不存在的hardsub固有的吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48757458/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com