- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
在玩超频和运行刻录测试时,我注意到 LINPACK 的 AVX 优化版本在启用超线程时测量的多线程浮点吞吐量低于禁用它。这是在 Ivy Bridge i7 (3770k) 上。我还注意到,在禁用超线程的情况下,LINPACK 会导致更高的核心温度,尽管我以较低的核心电压运行 CPU。所有这一切让我相信,如果没有超线程,管道利用率实际上会更高。
我很好奇:这只是 LINPACK 算法的内在因素,它会导致流水线停顿或 SMT 分配效率低下,还是当两个线程都发出宽 SIMD 指令时,英特尔的 SMT 实现是否在调度流水线时遇到了问题?如果是这样,这是 Haswell 已经解决的问题,还是将在 future 的英特尔架构中解决?这是AVX512容易出现的问题吗?
最后,在使用面向英特尔系统的 AVX 进行编程时,是否可以采取任何好的步骤来避免使用 SMT 进行低效的流水线分配?
最佳答案
超线程在两个硬件线程之间共享无序执行资源,而不是将它们全部交给一个线程。通常,如果一个线程已经可以使管道保持满载,那么您最坏的情况是不会看到加速。无论哪种方式,执行单元都应该通过 4 微指令/时钟需要运行的指令进行咀嚼。
如果每个线程都在自己的内存块上工作,那么 CPU 内核就会尝试同时处理更多的实时数据。 L1/L2 缓存的竞争性共享意味着这最终可能比没有 HT 更糟糕。
此外,一些工作负载需要并行化。只有令人尴尬的并行问题(比如做许多独立的 matmul,而不是并行化一个大的)对于协调线程的开销可以忽略不计。
正如 Agner Fog 在他的 Optimizing Assembly 中提到的那样手动,如果任何竞争共享或分区的 CPU 资源是瓶颈,超线程将无济于事,而且可能会造成伤害。当代码在分支错误预测或缓存未命中上花费大量时间时,这是非常好的,因为另一个线程可以防止饥饿的管道处于空闲状态。
矩阵数学具有足够可预测的访问模式,缓存未命中和错误预测很少见。 (尤其是在为缓存大小而仔细阻止的代码中。)
如何避免 HT 无济于事:使您的代码变慢,因此单个线程无法有效地执行它以保持管道满。 >.<.不过说真的,如果有一种算法具有缓存未命中或分支错误预测,其性能与蛮力方法相同,那么使用它可能会有所帮助。例如考虑到单个线程上的分支错误预测的开销,提前测试可能几乎是一次清洗,但是当您的代码在同一核心的两个硬件线程上运行时可能会快得多,因此蛮力方法是坏处。
关于multithreading - 超线程对 AVX 有问题吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30330013/
我正在尝试优化一些矩阵计算,我想知道是否可以在编译时检测 SSE/SSE2/AVX/AVX2/AVX-512/AVX-128-FMA/KCVI[ 1] 是否由编译器启用?非常适合 GCC 和 Clan
我想仅使用avx而不是avx2来实现64位转置操作。它应该这样做: // in = Hh Hl Lh Ll // | X | // out = Hh Lh Hl Ll 这就是使
如果我有一个 AVX 寄存器,里面有 4 个 double 值,我想将它的反向存储在另一个寄存器中,是否可以用一个内部命令来实现? 例如:如果我在 SSE 寄存器中有 4 个 float ,我可以使用
最初我试图重现 Agner Fog 的微体系结构指南部分“YMM 和 ZMM 向量指令的预热期”中描述的效果,它说: The processor turns off the upper parts o
我的 C++ 代码使用 SSE,现在我想改进它以支持 AVX(当它可用时)。因此,我检测 AVX 何时可用并调用使用 AVX 命令的函数。我使用 Win7 SP1 + VS2010 SP1 和带有 A
我有一大块内存,比如说 256 KiB 或更长。我想计算整个 block 中 1 位的数量,或者换句话说:将所有字节的“总体计数”值相加。 我知道 AVX-512 有一个 VPOPCNTDQ inst
有多快 tensorflow-gpu与没有 AVX 和 AVX2 相比,有 AVX 和 AVX2 吗? 我试图使用谷歌找到答案,但没有成功。很难重新编译tensorflow-gpu对于 Windows
为什么avx sqrt(非压缩)指令有三个操作数? vsqrtsd xmm1, xmm2, xmm3 这是否意味着类似于 xmm1=xmm2=sqrt(xmm3)? 编辑:下面的详细答案但总之流水线的
我正在研究Intel intrinsics guide的展开和压缩操作。我对这两个概念感到困惑: 对于__m128d _mm_mask_expand_pd (__m128d src, __mmask8
我在 Intel Intrinsic Guide v2.7 中找不到它们。您知道 AVX 或 AVX2 指令集是否支持它们吗? 最佳答案 原始 AVX 指令集中没有分散或收集指令。 AVX2 添加了收
我正在尝试将函数转换为 AVX 版本。函数本身基本上只是比较浮点数并返回真/假取决于计算。 这是原始函数: bool testSingle(float* thisFloat, float* other
我遇到了 AVX 内部指令 _mm256_testc_pd() 的一个非常奇怪的行为。在这里你可以看到这个功能的描述 https://software.intel.com/sites/landingp
我有一个 256 位 AVX 寄存器,其中包含 4 个单精度复数,存储为实数、虚数、实数、虚数等。我目前正在将整个 256 位寄存器写回内存并在那里求和,但这似乎效率低下. 如何使用 AVX(或 AV
#include "stdio.h" #include "math.h" #include "stdlib.h" #include "x86intrin.h" void dd_m(double *cl
有没有办法对 AVX 寄存器进行水平异或——特别是对 256 位寄存器的四个 64 位组件进行异或? 目标是获得 AVX 寄存器的所有 4 个 64 位组件的异或。它本质上与水平添加( _mm256_
当我尝试使用 AVX 获取数据时,出现运行时错误 - 段错误: int i = 0; const int sz = 9; size_t *src1 = (size_t *)_mm_malloc(sz*
当我尝试使用 AVX 展开最简单的循环时,出现运行时错误 - 段错误: const int sz = 9; float *src = (float *)_mm_malloc(sz*
我想将两个 256 位 vector (__m256d) 合并为一个 256位 vector ,通过省略每个 64 位 double 的上半部分。 所以,如果在下面,a_i, b_i, ... 是 3
我测试了以下简单的功能 void mul(double *a, double *b) { for (int i = 0; i #include #include #include #defi
_mm_i32gather_epi32() 的当前英特尔内在函数指南将每个子词的计算地址描述为: addr := base_addr + SignExtend64(vindex[m+31:m]) *
我是一名优秀的程序员,十分优秀!