gpt4 book ai didi

c - 与 SSE 的并行前缀(累积)总和

转载 作者:太空狗 更新时间:2023-10-29 16:48:09 26 4
gpt4 key购买 nike

我正在寻找有关如何使用 SSE 进行并行前缀和的一些建议。我有兴趣在整数、 float 或 double 组上执行此操作。

我想出了两个解决方案。特例和一般情况。在这两种情况下,解决方案都与 OpenMP 并行地分两次遍历阵列。对于特殊情况,我在两次通过时都使用 SSE。对于一般情况,我只在第二次通过时使用它。

我的主要问题是在一般情况下如何在第一次通过时使用 SSE? 以下链接 simd-prefix-sum-on-intel-cpu显示字节的改进,但不是 32 位数据类型。

特殊情况之所以称为特殊是因为它要求数组采用特殊格式。例如,我们假设 float 组a只有 16 个元素。那么如果数组像这样重新排列(结构数组到数组结构):

a[0] a[1] ...a[15] -> a[0] a[4] a[8] a[12] a[1] a[5] a[9] a[13]...a[3] a[7] a[11] a[15]

SSE 垂直和可用于两个 channel 。但是,只有当数组已经是特殊格式并且输出可以以特殊格式使用时,这才会有效。否则,必须对输入和输出都进行昂贵的重新排列,这将使其比一般情况慢得多。

也许我应该考虑使用不同的前缀和算法(例如二叉树)?

一般情况的代码:

void prefix_sum_omp_sse(double a[], double s[], int n) {
double *suma;
#pragma omp parallel
{
const int ithread = omp_get_thread_num();
const int nthreads = omp_get_num_threads();
#pragma omp single
{
suma = new double[nthreads + 1];
suma[0] = 0;
}
double sum = 0;
#pragma omp for schedule(static) nowait //first parallel pass
for (int i = 0; i<n; i++) {
sum += a[i];
s[i] = sum;
}
suma[ithread + 1] = sum;
#pragma omp barrier
#pragma omp single
{
double tmp = 0;
for (int i = 0; i<(nthreads + 1); i++) {
tmp += suma[i];
suma[i] = tmp;
}
}
__m128d offset = _mm_set1_pd(suma[ithread]);
#pragma omp for schedule(static) //second parallel pass with SSE as well
for (int i = 0; i<n/4; i++) {
__m128d tmp1 = _mm_load_pd(&s[4*i]);
tmp1 = _mm_add_pd(tmp1, offset);
__m128d tmp2 = _mm_load_pd(&s[4*i+2]);
tmp2 = _mm_add_pd(tmp2, offset);
_mm_store_pd(&s[4*i], tmp1);
_mm_store_pd(&s[4*i+2], tmp2);
}
}
delete[] suma;
}

最佳答案

这是我第一次回答我自己的问题,但这似乎很合适。基于 hirschhornsalz16 字节前缀和的答案 simd-prefix-sum-on-intel-cpu我想出了一个解决方案,可以在第一遍中对 4、8 和 16 个 32 位字使用 SIMD。

一般理论如下。对于 n 单词的顺序扫描,它需要 n 加法(n-1 扫描 n 个单词,再从上一组扫描的单词中进行加法)。然而,使用 SIMD n 个单词可以在 log2(n) 次加法和相等数量的移位中进行扫描,再加上一次加法和广播,以携带上一次 SIMD 扫描的结果。因此对于 n 的某些值,SIMD 方法将获胜。

让我们看看 SSE、AVX 和 AVX-512 的 32 位字:

4 32-bit words (SSE):      2 shifts, 3 adds, 1 broadcast       sequential: 4 adds
8 32-bit words (AVX): 3 shifts, 4 adds, 1 broadcast sequential: 8 adds
16 32 bit-words (AVX-512): 4 shifts, 5 adds, 1 broadcast sequential: 16 adds

基于此,在 AVX-512 之前,SIMD 似乎无法用于扫描 32 位字。这还假设轮类和广播只能在一条指令中完成。这对 SSE 来说是正确的,但 not for AVX and maybe not even for AVX2 .

在任何情况下,我都将一些工作和测试代码放在一起,这些代码使用 SSE 进行前缀和。

inline __m128 scan_SSE(__m128 x) {
x = _mm_add_ps(x, _mm_castsi128_ps(_mm_slli_si128(_mm_castps_si128(x), 4)));
x = _mm_add_ps(x, _mm_castsi128_ps(_mm_slli_si128(_mm_castps_si128(x), 8)));
return x;
}

void prefix_sum_SSE(float *a, float *s, const int n) {
__m128 offset = _mm_setzero_ps();
for (int i = 0; i < n; i+=4) {
__m128 x = _mm_load_ps(&a[i]);
__m128 out = scan_SSE(x);
out = _mm_add_ps(out, offset);
_mm_store_ps(&s[i], out);
offset = _mm_shuffle_ps(out, out, _MM_SHUFFLE(3, 3, 3, 3));
}

请注意,scan_SSE 函数有两个加法 (_mm_add_ps) 和两个移位 (_mm_slli_si128)。强制转换仅用于使编译器满意,不会转换为指令。然后在 prefix_sum_SSE 中数组的主循环内,使用另一个添加和一个洗牌。与只有 4 个相加的顺序总和相比,总共有 6 个操作。

这是 AVX 的工作解决方案:

inline __m256 scan_AVX(__m256 x) {
__m256 t0, t1;
//shift1_AVX + add
t0 = _mm256_permute_ps(x, _MM_SHUFFLE(2, 1, 0, 3));
t1 = _mm256_permute2f128_ps(t0, t0, 41);
x = _mm256_add_ps(x, _mm256_blend_ps(t0, t1, 0x11));
//shift2_AVX + add
t0 = _mm256_permute_ps(x, _MM_SHUFFLE(1, 0, 3, 2));
t1 = _mm256_permute2f128_ps(t0, t0, 41);
x = _mm256_add_ps(x, _mm256_blend_ps(t0, t1, 0x33));
//shift3_AVX + add
x = _mm256_add_ps(x,_mm256_permute2f128_ps(x, x, 41));
return x;
}

void prefix_sum_AVX(float *a, float *s, const int n) {
__m256 offset = _mm256_setzero_ps();
for (int i = 0; i < n; i += 8) {
__m256 x = _mm256_loadu_ps(&a[i]);
__m256 out = scan_AVX(x);
out = _mm256_add_ps(out, offset);
_mm256_storeu_ps(&s[i], out);
//broadcast last element
__m256 t0 = _mm256_permute2f128_ps(out, out, 0x11);
offset = _mm256_permute_ps(t0, 0xff);
}
}

三个类次需要 7 个内在函数。广播需要 2 个内在函数。所以加上 4 个加法就是 13 个内在函数。对于 AVX2,移位只需要 5 个内在函数,因此总共需要 11 个内在函数。顺序和只需要8次加法。因此,AVX 和 AVX2 都可能对第一遍没有用。

编辑:

所以我最终对此进行了基准测试,结果出乎意料。 SSE 和 AVX 代码的速度大约是以下顺序代码的两倍:

void scan(float a[], float s[], int n) {
float sum = 0;
for (int i = 0; i<n; i++) {
sum += a[i];
s[i] = sum;
}
}

我猜这是由于指令级并行。

这样就回答了我自己的问题。在一般情况下,我成功地将 SIMD 用于 pass1。当我在我的 4 核 ivy 桥接系统上将它与 OpenMP 结合使用时,对于 512k float ,总加速约为 7。

关于c - 与 SSE 的并行前缀(累积)总和,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19494114/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com