gpt4 book ai didi

x86 - 使用 AVX512 生成蒙版的 BMI

转载 作者:行者123 更新时间:2023-12-04 17:42:57 71 4
gpt4 key购买 nike

我受到这个链接的启发
https://www.sigarch.org/simd-instructions-considered-harmful/查看 AVX512 的性能。我的想法是可以使用 AVX512 掩码操作删除循环后的清理循环。

这是我正在使用的代码

void daxpy2(int n, double a, const double x[], double y[]) {
__m512d av = _mm512_set1_pd(a);
int r = n&7, n2 = n - r;
for(int i=-n2; i<0; i+=8) {
__m512d yv = _mm512_loadu_pd(&y[i+n2]);
__m512d xv = _mm512_loadu_pd(&x[i+n2]);
yv = _mm512_fmadd_pd(av, xv, yv);
_mm512_storeu_pd(&y[i+n2], yv);
}
__m512d yv = _mm512_loadu_pd(&y[n2]);
__m512d xv = _mm512_loadu_pd(&x[n2]);
yv = _mm512_fmadd_pd(av, xv, yv);
__mmask8 mask = (1 << r) -1;
//__mmask8 mask = _bextr_u32(-1, 0, r);
_mm512_mask_storeu_pd(&y[n2], mask, yv);
}

我认为使用 BMI1 和/或 BMI2 指令可以生成指令更少的掩码。然而,
__mmask8 mask = _bextr_u32(-1, 0, r)

并不比(在指令数量上)更好
__mmask8 mask = (1 << r) -1;

https://godbolt.org/z/BFQCM3https://godbolt.org/z/tesmB_ .

这似乎是因为 _bextr_u32 无论如何都会移位 8。

是否可以使用更少的指令(例如使用 BMI 或其他方法)或更优化地生成掩码?

我已经用我的 AVX512 结果扩充了链接中的表格。
ISA                           | MIPS-32 | AVX2  | RV32V | AVX512 |
******************************|*********|****** |*******|******* |
Instructions(static) | 22 | 29 | 13 | 28 |
Instructions per Main Loop | 7 | 6* | 10 | 5*|
Bookkeeping Instructions | 15 | 23 | 3 | 23 |
Results per Main Loop | 2 | 4 | 64 | 8 |
Instructions (dynamic n=1000) | 3511 | 1517**| 163 | 645 |

*macro-op fusion will reduce the number of uops in the main loop by 1
** without the unnecessary cmp instructions it would only be 1250+ instructions.

我想如果链接的作者从 -n 算起高达 0而不是来自 0n他们本可以跳过 cmp我在主循环中拥有的指令(请参阅下面的程序集),因此对于 AVX,主循环中应该有 5 条指令。

这是带有 ICC19 和 -O3 -xCOMMON-AVX512 的组件
daxpy2(int, double, double const*, double*):
mov eax, edi #6.13
and eax, 7 #6.13
movsxd r9, edi #6.25
sub r9, rax #6.21
mov ecx, r9d #7.14
neg ecx #7.14
movsxd rcx, ecx #7.14
vbroadcastsd zmm16, xmm0 #5.16
lea rdi, QWORD PTR [rsi+r9*8] #9.35
lea r8, QWORD PTR [rdx+r9*8] #8.35
test rcx, rcx #7.20
jge ..B1.5 # Prob 36% #7.20
..B1.3: # Preds ..B1.1 ..B1.3
vmovups zmm17, ZMMWORD PTR [rdi+rcx*8] #10.10
vfmadd213pd zmm17, zmm16, ZMMWORD PTR [r8+rcx*8] #10.10
vmovups ZMMWORD PTR [r8+rcx*8], zmm17 #11.23
add rcx, 8 #7.23
js ..B1.3 # Prob 82% #7.20
..B1.5: # Preds ..B1.3 ..B1.1
vmovups zmm17, ZMMWORD PTR [rsi+r9*8] #15.8
vfmadd213pd zmm16, zmm17, ZMMWORD PTR [rdx+r9*8] #15.8
mov edx, -1 #17.19
shl eax, 8 #17.19
bextr eax, edx, eax #17.19
kmovw k1, eax #18.3
vmovupd ZMMWORD PTR [r8]{k1}, zmm16 #18.3
vzeroupper #19.1
ret #19.1

在哪里
    add       r8, 8
js ..B1.3

宏操作应该熔断到一条指令。但是,正如 Peter Cordes 所指出的那样 in this answer js 无法熔断 .编译器可能已经生成 jl相反,它会融合。

我用的是 Agner Fog 的 testp用于获取核心时钟(不是引用时钟)、指令、uop 退役的实用程序。我为 SSE2(实际上是带有 FMA 但带有 128 位向量的 AVX2)、AVX2 和 AVX512 执行此操作,用于三种不同的循环变体
v1 = for(int64_t i=0;   i<n;  i+=vec_size) // generates cmp instruction
v2 = for(int64_t i=-n2; i<0; i+=vec_size) // no cmp but uses js
v3 = for(int64_t i=-n2; i!=0; i+=vec_size) // no cmp and uses jne

vec_size = 2 for SSE, 4 for AVX2, and 8 for AVX512

vec_size version core cycle instructions uops
2 v1 895 3014 3524
2 v2 900 2518 3535
2 v3 870 2518 3035
4 v1 527 1513 1777
4 v2 520 1270 1777
4 v3 517 1270 1541
8 v1 285 765 910
8 v2 285 645 910
8 v3 285 645 790

请注意,核心时钟实际上并不是循环版本的函数。它只取决于循环的迭代。它与 2*n/vec_size 成正比.
SSE     2*1000/2=1000
AVX2 2*1000/4=500
AVX512 2*1000/8=250

指令数量确实从 v1 更改为 v2,但不会在 v2 和 v3 之间更改。对于 v1,它与 6*n/vec_size 成正比对于 v2 和 v3 5*n/vec_size
最后,v1 和 v2 的 uops 数量或多或少相同,但 v3 下降。对于 v1 和 v2,它与 7*n/vec_size 成正比对于 v3 6*n/vec_size .

这是 IACA3 的结果,vec_size=2
Throughput Analysis Report
--------------------------
Block Throughput: 1.49 Cycles Throughput Bottleneck: FrontEnd
Loop Count: 50
Port Binding In Cycles Per Iteration:
--------------------------------------------------------------------------------------------------
| Port | 0 - DV | 1 | 2 - D | 3 - D | 4 | 5 | 6 | 7 |
--------------------------------------------------------------------------------------------------
| Cycles | 0.5 0.0 | 0.5 | 1.5 1.0 | 1.5 1.0 | 1.0 | 0.0 | 0.0 | 0.0 |
--------------------------------------------------------------------------------------------------

DV - Divider pipe (on port 0)
D - Data fetch pipe (on ports 2 and 3)
F - Macro Fusion with the previous instruction occurred
* - instruction micro-ops not bound to a port
^ - Micro Fusion occurred
# - ESP Tracking sync uop was issued
@ - SSE instruction followed an AVX256/AVX512 instruction, dozens of cycles penalty is expected
X - instruction not supported, was not accounted in Analysis

| Num Of | Ports pressure in cycles | |
| Uops | 0 - DV | 1 | 2 - D | 3 - D | 4 | 5 | 6 | 7 |
-----------------------------------------------------------------------------------------
| 1 | | | 0.5 0.5 | 0.5 0.5 | | | | | vmovupd xmm1, xmmword ptr [r8+rax*8]
| 2 | 0.5 | 0.5 | 0.5 0.5 | 0.5 0.5 | | | | | vfmadd213pd xmm1, xmm2, xmmword ptr [rcx+rax*8]
| 2 | | | 0.5 | 0.5 | 1.0 | | | | vmovups xmmword ptr [rcx+rax*8], xmm1
| 1* | | | | | | | | | add rax, 0x2
| 0*F | | | | | | | | | js 0xffffffffffffffe3
Total Num Of Uops: 6

IACA 声称 jsadd 的宏 fuse 这不同意阿格纳和来自 testp 的性能计数器公用事业。见上,v2 正比于 7*n/vec_size和 v3 与 6*n/vec_size 成正比我推断这意味着 js没有宏熔断器。

我认为除了指令数量之外,链接的作者还应该考虑核心周期和微指令。

最佳答案

如果您使用以下 BMI2 内在函数,则可以保存一条指令:

  __mmask8 mask = _bzhi_u32(-1, r);

而不是 __mmask8 mask = (1 << r) -1; .见 Godbolt link .

bzhi instruction从指定位置开始将高位清零。使用寄存器操作数, bzhi具有 1 个周期的延迟和每个周期 2 个的吞吐量。

关于x86 - 使用 AVX512 生成蒙版的 BMI,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54809132/

71 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com