gpt4 book ai didi

c++ - Intel 汇编与 Intrinsics、AVX

转载 作者:行者123 更新时间:2023-12-01 23:11:22 27 4
gpt4 key购买 nike

我有一个简单的 vector - vector 加法算法(c = a + b * lambda),使用 AVX 指令用 intel 汇编编写。这是我的代码:

;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
;; Dense to dense
;; Uses cache
;; AVX
;; Without tolerances
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;

global _denseToDenseAddAVX_cache_64_linux
_denseToDenseAddAVX_cache_64_linux:

push rbp
mov rbp, rsp

; rdi: address1
; rsi: address2
; rdx: address3
; rcx: count
; xmm0: lambda

mov rax, rcx
shr rcx, 3
and rax, 0x07

vzeroupper

vmovupd ymm5, [abs_mask]

sub rsp, 8
vmovlpd [rbp - 8], xmm0
vbroadcastsd ymm7, [rbp - 8]
vmovapd ymm6, ymm7

cmp rcx, 0
je after_loop_denseToDenseAddAVX_cache_64_linux

start_denseToDenseAddAVX_cache_64_linux:

vmovapd ymm0, [rdi] ; a
vmovapd ymm1, ymm7
vmulpd ymm1, [rsi] ; b
vaddpd ymm0, ymm1 ; ymm0 = c = a + b * lambda
vmovapd [rdx], ymm0

vmovapd ymm2, [rdi + 32] ; a
vmovapd ymm3, ymm6
vmulpd ymm3, [rsi + 32] ; b
vaddpd ymm2, ymm3 ; ymm2 = c = a + b * lambda
vmovapd [rdx + 32], ymm2

add rdi, 64
add rsi, 64
add rdx, 64

loop start_denseToDenseAddAVX_cache_64_linux

after_loop_denseToDenseAddAVX_cache_64_linux:

cmp rax, 0
je end_denseToDenseAddAVX_cache_64_linux

mov rcx, rax

last_loop_denseToDenseAddAVX_cache_64_linux:

vmovlpd xmm0, [rdi] ; a
vmovapd xmm1, xmm7
vmulsd xmm1, [rsi] ; b
vaddsd xmm0, xmm1 ; xmm0 = c = a + b * lambda
vmovlpd [rdx], xmm0

add rdi, 8
add rsi, 8
add rdx, 8

loop last_loop_denseToDenseAddAVX_cache_64_linux

end_denseToDenseAddAVX_cache_64_linux:

mov rsp, rbp
pop rbp
ret

人们经常建议我使用英特尔内在函数,因为它更好、更安全。现在我已经实现了这个算法:

void denseToDenseAddAVX_cache(const double * __restrict__ a, 
const double * __restrict__ b,
double * __restrict__ c,
size_t count, double lambda) {
const size_t firstCount = count / 8;
const size_t rem1 = count % 8;
int i;
__m256d mul = _mm256_broadcast_sd(&lambda);
for (i = 0; i < firstCount; i++) {
// c = a + b * lambda
__m256d dataA1 = _mm256_load_pd(&a[i * 8]);
__m256d dataC1 = _mm256_add_pd(dataA1, _mm256_mul_pd(_mm256_load_pd(&b[i * 8]), mul ));
_mm256_store_pd(&c[i * 8], dataC1);

__m256d dataA2 = _mm256_load_pd(&a[i * 8 + 4]);
__m256d dataC2 = _mm256_add_pd(dataA2, _mm256_mul_pd(_mm256_load_pd(&b[i * 8 + 4]), mul ));
_mm256_store_pd(&c[i * 8 + 4], dataC2);
}
const size_t secondCount = rem1 / 4;
const size_t rem2 = rem1 % 4;
if (secondCount) {
__m256d dataA = _mm256_load_pd(&a[i * 8]);
__m256d dataC = _mm256_add_pd(dataA, _mm256_mul_pd(_mm256_load_pd(&b[i * 8]), mul ));
_mm256_store_pd(&c[i * 8], dataC);
i += 4;
}
for (; i < count; i++) {
c[i] = a[i] + b[i] * lambda;
}
}

我的问题是汇编版本比第二个版本快两倍。 c++版本有什么问题?

最佳答案

一些事情。

  1. 我认为这是最重要的。汇编代码使用指针算术。你的 C++ 代码则不然,你首先计算索引,然后获取地址。编译器通常会针对指针数学进行优化,但这并不可靠,您最好在 C++ 中使用相同的指针数学。更糟糕的是,像 &a[i * 8 + 4] 这样的东西需要多个整数指令。以字节为单位的结果是 a+i*64+32,而 x86 指令只能按因子 2、4 或 8 自由缩放整数。因此编译器必须先发出左移,然后再发出加法来计算地址。此问题使循环体中的指令数增加了一倍。

  2. C++ 使用有符号 32 位整数作为循环计数器,汇编代码使用无符号 64 位整数。对于性能关键型代码,使用 size_t 通常是一个好主意。在 C++ 中 for 循环计数器。顺便说一句,如果您在 C++ 编译器中设置了“警告为错误”设置,它会拒绝编译,并显示“有符号/无符号不匹配”之类的内容。

  3. 您在 C++ 中存在冗余负载。 CPU 可以用一条指令完成数学运算和一次加载。要执行与汇编相同的操作,请勿使用 _mm256_load_pd ,从 const double * 转换指针进入const __m256d*

这是稍微简化的示例:

void denseToDenseAddAVX( const double *a, const double *b, double *c, size_t count, double lambda )
{
assert( 0 == (size_t)( a ) % 32 );
assert( 0 == (size_t)( b ) % 32 );
assert( 0 == (size_t)( c ) % 32 );

const double* const aEnd = a + count;
const double* const aEndAligned = a + ( ( count / 4 ) * 4 );
const __m256d mul = _mm256_set1_pd( lambda );
while( a < aEndAligned )
{
const __m256d* const av = ( const __m256d* )a;
const __m256d* const bv = ( const __m256d* )b;
const __m256d cv = _mm256_add_pd( *av, _mm256_mul_pd( *bv, mul ) );
_mm256_store_pd( c, cv );
a += 4;
b += 4;
c += 4;
}
while( a < aEnd )
{
*c = ( *a ) + ( *b ) * lambda;
a++;
b++;
c++;
}
}

关于c++ - Intel 汇编与 Intrinsics、AVX,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59041364/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com