- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有两个 vector 。一个为a
大小的N
的double的 vector 和一个为b
大小的无符号字符ceil(N/8)
的 vector 。目的是计算a
的某些值的乘积。将逐位读取b
,其中每个位指示是否要在产品中考虑double
中给定的a
。
// Let's create some data
unsigned nbBits = 1e7;
unsigned nbBytes = nbBits / 8;
unsigned char nbBitsInLastByte = nbBits % 8;
assert(nbBits == nbBytes * 8 + nbBitsInLastByte);
std::vector<double> a(nbBits, 0.999999); // In practice a values will vary. It is just an easy to build example I am showing here
std::vector<unsigned char> b(nbBytes, false); // I am not using `vector<bool>` nor `bitset`. I've got my reasons!
assert(a.size() == b.size() * 8);
// Set a few bits to true
for (unsigned byte = 0 ; byte < (nbBytes-1) ; byte+=2)
{
b[byte] |= 1 << 2; // set second (zero-based counting) bit to 'true'
b[byte] |= 1 << 7; // set last bit to 'true'
// ^ This is the bit index
}
a
为true时计算
b
中值的乘积。这可以用
// Initialize the variable we want to compute
double product = 1.0;
// Product for the first nbByts-1 bytes
for (unsigned byte = 0 ; byte < (nbBytes-1) ; ++byte)
{
for (unsigned bit = 0 ; bit < 8 ; ++bit) // inner loop could be manually unrolled
{
if((b[byte] >> bit) & 1) // gets the bit value
product *= a[byte*8+bit];
}
}
// Product for the last byte
for (unsigned bit = 0 ; bit < nbBitsInLastByte ; ++bit)
{
if((b[nbBytes-1] >> bit) & 1) // gets the bit value
product *= a[(nbBytes-1)*8+bit];
}
最佳答案
如果您不关心乘法顺序,那很容易。关键是来自SSE 4.1 set的_mm_blendv_pd
指令。这使您可以完全无分支。
// Load 2 double values from source pointer, and conditionally multiply with the product.
// Returns the new product.
template<int startIdx>
inline __m128d product2( const double* pSource, __m128i mask, __m128d oldProduct )
{
// Multiply values unconditionally
const __m128d source = _mm_loadu_pd( pSource + startIdx );
const __m128d newProduct = _mm_mul_pd( source, oldProduct );
// We only calling product2 with 4 different template arguments.
// There are 16 vector registers in total, enough for all 4 different `maskAndBits` values.
constexpr int64_t bit1 = 1 << startIdx;
constexpr int64_t bit2 = 1 << ( startIdx + 1 );
const __m128i maskAndBits = _mm_setr_epi64x( bit1, bit2 );
mask = _mm_and_si128( mask, maskAndBits );
// NAN if the mask is 0 after the above AND i.e. the bit was not set, 0.0 if the bit was set
const __m128d maskDouble = _mm_castsi128_pd( _mm_cmpeq_epi64( mask, _mm_setzero_si128() ) );
// This instruction actually does the masking, it's from SSE 4.1
return _mm_blendv_pd( newProduct, oldProduct, maskDouble );
}
double conditionalProducts( const double* ptr, const uint8_t* masks, size_t size )
{
// Round down the size of your input vector, and multiply last couple values the old way.
assert( 0 == size % 8 );
__m128d prod = _mm_set1_pd( 1.0 );
const double* const end = ptr + size;
while( ptr < end )
{
// Broadcast the mask byte into 64-bit integer lanes
const __m128i mask = _mm_set1_epi64x( *masks );
// Compute the conditional products of 8 values
prod = product2<0>( ptr, mask, prod );
prod = product2<2>( ptr, mask, prod );
prod = product2<4>( ptr, mask, prod );
prod = product2<6>( ptr, mask, prod );
// Advance the pointers
ptr += 8;
masks++;
}
// Multiply two lanes together
prod = _mm_mul_sd( prod, _mm_shuffle_pd( prod, prod, 0b11 ) );
return _mm_cvtsd_f64( prod );
}
关于c++ - 使用SIMD根据另一个 vector 位值计算值的乘积,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58753959/
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?将问题更新为 on-topic对于堆栈溢出。 7年前关闭。 Improve this qu
我有一个代码库,我可以在我的 mac 上编译和运行,但不能在我的远程 linux 机器上编译和运行,我不确定为什么。 编译时出现错误 fatal error: simd/simd.h: No such
我需要了解如何编写一些可并行化问题的 C++ 跨平台实现,以便在可用的情况下利用 SIMD(SSE、SPU 等)。以及我希望能够在运行时在 SIMD 和非 SIMD 之间切换。 您建议我如何解决这个问
我正在使用 AVX 内在 _mm256_extract_epi32() . 不过,我不完全确定我是否正确使用它,因为 gcc 不喜欢我的代码,而 clang 编译它并运行它没有问题。 我根据整数变量的
当我可以使用 SSE3 或 AVX 时,SSE2 或 MMX 等较旧的 SSE 版本是否可用 - 还是我还需要单独检查它们? 最佳答案 一般来说,这些都是附加的,但请记住,多年来英特尔和 AMD 对这
在 godbolt.org 使用 gcc 7.2 我可以看到以下内容 code在汇编程序中翻译得非常好。我看到 1 次加载、1 次添加和 1 次存储。 #include __attribute__(
假设我们有一个函数将两个数组相乘,每个数组有 1000000 个 double 值。在 C/C++ 中,该函数如下所示: void mul_c(double* a, double* b) {
我有一个 A = a1 a2 a3 a4 b1 b2 b3 b4 c1 c2 c3 c4 d1 d2 d3 d4 我有两排, float32x2_t a = a1 a2 flo
我正在考虑编写一个 SIMD vector 数学库,因此作为一个快速基准,我编写了一个程序,该程序执行 1 亿(4 个 float ) vector 元素乘法并将它们加到累积总数中。对于我的经典非 S
我正在开发带有英特尔编译器 OpenMP 4.0 的英特尔 E5(6 核、12 线程) 为什么这段代码 SIMD 编译比并行 SIMD 编译更快? for (int suppv = 0; suppv
OpenMP 4.0 引入了 SIMD 结构以利用 CPU 的 SIMD 指令。根据规范http://www.openmp.org/mp-documents/OpenMP4.0.0.pdf ,有两种结
英特尔编译器允许我们通过以下方式对循环进行矢量化 #pragma simd for ( ... ) 但是,您也可以选择使用 OpenMP 4 的指令执行此操作: #pragma omp simd fo
关注我的 x86 question ,我想知道如何在 Arm-v8 上有效地矢量化以下代码: static inline uint64_t Compress8x7bit(uint64_t x) {
Intel 提供了几个 SIMD 命令,它们似乎都对 128 位数据执行按位异或: _mm_xor_pd(__m128d, __m128d) _mm_xor_ps(__m128, __m128) _m
可以使用“位打包”技术压缩无符号整数:在一个无符号整数 block 中,只存储有效位,当一个 block 中的所有整数都“小”时,会导致数据压缩。该方法称为 FOR (引用框架)。 有SIMD lib
SSE 寄存器是否在逻辑处理器(超线程)之间共享或复制? 对于 SSE 繁重的程序,我能否期望从并行化中获得与普通程序相同的加速(英特尔声称具有超线程的处理器为 30%)? 最佳答案 从英特尔的文档中
我正在编写一个使用 SSE 指令来乘法和相加整数值的程序。我用浮点数做了同样的程序,但我的整数版本缺少一个指令。 使用浮点数,在完成所有操作后,我将 de 值返回到常规浮点数数组,执行以下操作: _m
我正在开发基于Intel指令集(AVX,FMA等)的高性能算法。当数据按顺序存储时,我的算法(内核)运行良好。但是,现在我面临一个大问题,但没有找到解决方法或解决方案: see 2D Matrix i
大家好 :) 我正在尝试了解有关浮点、SIMD/数学内在函数和 gcc 的快速数学标志的一些概念。更具体地说,我在 x86 cpu 上使用 MinGW 和 gcc v4.5.0。 我已经搜索了一段时间
根据https://sourceware.org/glibc/wiki/libmvec GCC 具有数学函数的向量实现。它们可以被编译器用于优化,可以在这个例子中看到:https://godbolt.
我是一名优秀的程序员,十分优秀!