gpt4 book ai didi

c++11 - 使用基于掩码的 simd 从大向量加载向量

转载 作者:行者123 更新时间:2023-12-02 03:26:07 33 4
gpt4 key购买 nike

我希望有人能在这里提供帮助。

我有一个大字节向量,我从中创建一个小字节向量(基于掩码),然后我用 simd 处理它。

当前掩码是 baseOffset + submask (byte[256]) 的数组,针对存储进行了优化,因为有 > 10^8 。我创建了一个 maxsize 子向量,然后遍历掩码数组,将 baseOffsset 乘以 256 并为掩码中的每个位偏移从大向量加载,并将这些值按顺序放入较小的向量中。然后通过多个 VPMADDUBSW 处理较小的向量并进行累加。我可以改变这个结构。例如,将位遍历一次以使用 8K 位数组缓冲区,然后创建小向量。

有没有更快的方法可以创建子数组?

我将应用程序中的代码提取到测试程序中,但原始代码处于不断变化的状态(移动到 AVX2 并从 C# 中提取更多)

#include "stdafx.h"
#include<stdio.h>
#include <mmintrin.h>
#include <emmintrin.h>
#include <tmmintrin.h>
#include <smmintrin.h>
#include <immintrin.h>


//from
char N[4096] = { 9, 5, 5, 5, 9, 5, 5, 5, 5, 5 };
//W
char W[4096] = { 1, 2, -3, 5, 5, 5, 5, 5, 5, 5 };

char buffer[4096] ;





__declspec(align(2))
struct packed_destination{
char blockOffset;
__int8 bitMask[32];

};

__m128i sum = _mm_setzero_si128();
packed_destination packed_destinations[10];



void process128(__m128i u, __m128i s)
{
__m128i calc = _mm_maddubs_epi16(u, s); // pmaddubsw
__m128i loints = _mm_cvtepi16_epi32(calc);
__m128i hiints = _mm_cvtepi16_epi32(_mm_shuffle_epi32(calc, 0x4e));
sum = _mm_add_epi32(_mm_add_epi32(loints, hiints), sum);
}

void process_array(char n[], char w[], int length)
{
sum = _mm_setzero_si128();
int length128th = length >> 7;
for (int i = 0; i < length128th; i++)
{
__m128i u = _mm_load_si128((__m128i*)&n[i * 128]);
__m128i s = _mm_load_si128((__m128i*)&w[i * 128]);
process128(u, s);
}
}


void populate_buffer_from_vector(packed_destination packed_destinations[], char n[] , int dest_length)
{
int buffer_dest_index = 0;
for (int i = 0; i < dest_length; i++)
{
int blockOffset = packed_destinations[i].blockOffset <<8 ;
// go through mask and copy to buffer
for (int j = 0; j < 32; j++)
{
int joffset = blockOffset + j << 3;
int mask = packed_destinations[i].bitMask[j];
if (mask & 1 << 0)
buffer[buffer_dest_index++] = n[joffset + 1<<0 ];
if (mask & 1 << 1)
buffer[buffer_dest_index++] = n[joffset + 1<<1];
if (mask & 1 << 2)
buffer[buffer_dest_index++] = n[joffset + 1<<2];
if (mask & 1 << 3)
buffer[buffer_dest_index++] = n[joffset + 1<<3];
if (mask & 1 << 4)
buffer[buffer_dest_index++] = n[joffset + 1<<4];
if (mask & 1 << 5)
buffer[buffer_dest_index++] = n[joffset + 1<<5];
if (mask & 1 << 6)
buffer[buffer_dest_index++] = n[joffset + 1<<6];
if (mask & 1 << 7)
buffer[buffer_dest_index++] = n[joffset + 1<<7];
};

}


}

int _tmain(int argc, _TCHAR* argv[])
{
for (int i = 0; i < 32; ++i)
{
packed_destinations[0].bitMask[i] = 0x0f;
packed_destinations[1].bitMask[i] = 0x04;
}
packed_destinations[1].blockOffset = 1;

populate_buffer_from_vector(packed_destinations, N, 1);
process_array(buffer, W, 256);

int val = sum.m128i_i32[0] +
sum.m128i_i32[1] +
sum.m128i_i32[2] +
sum.m128i_i32[3];
printf("sum is %d" , val);
printf("Press Any Key to Continue\n");
getchar();
return 0;
}

正常情况下,对于某些工作负载, mask 使用率为 5-15%,而实际使用率为 25-100%。

MASKMOVDQU 很接近,但我们必须在保存之前根据掩码重新打包/swl..

最佳答案

对您现有代码的一些优化:

如果您的数据稀疏,那么在测试其他位之前添加对每个 8 位掩码值的额外测试可能是个好主意,即

        int mask = packed_destinations[i].bitMask[j];
if (mask != 0)
{
if (mask & 1 << 0)
buffer[buffer_dest_index++] = n[joffset + 1<<0 ];
if (mask & 1 << 1)
buffer[buffer_dest_index++] = n[joffset + 1<<1];
...

其次,您的 process128 函数可以得到显着优化:

inline __m128i process128(const __m128i u, const __m128i s, const __m128i sum)
{
const __m128i vk1 = _mm_set1_epi16(1);
__m128i calc = _mm_maddubs_epi16(u, s);
calc = _mm_madd_epi16(v, vk1);
return _mm_add_epi32(sum, calc);
}

请注意,除了将 SSE 指令数从 6 条减少到 3 条外,我还使 sum 成为一个参数,以摆脱对全局变量的任何依赖(最好是避免全局变量,不仅是为了好的软件工程,而且因为它们会抑制某些编译器优化)。

查看您的代码的配置文件(使用像样的采样分析器,而不是通过检测)会很有趣,因为这将有助于确定任何进一步优化工作的优先级。

关于c++11 - 使用基于掩码的 simd 从大向量加载向量,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30204590/

33 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com