- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
关闭。这个问题是opinion-based .它目前不接受答案。
想改善这个问题吗?更新问题,以便可以通过 editing this post 用事实和引文回答问题.
7年前关闭。
Improve this question
既然我们拥有 GPGPU 和 CUDA 和 OpenCL 等语言,那么多媒体 SIMD 扩展(SSE/AVX/NEON)还有用吗?
我最近阅读了一篇关于如何使用 SSE 指令来加速排序网络的文章。我认为这很简洁,但是当我告诉我的计算机首席教授时,他笑着说在 GPU 上运行类似的代码会破坏 SIMD 版本。我不怀疑这一点,因为 SSE 非常简单,而且 GPU 是具有更多并行性的大型高度复杂的加速器,但它让我思考,是否有许多场景中多媒体 SIMD 扩展比使用 GPU 更有用?
如果 GPGPU 使 SIMD 变得多余,英特尔为什么要增加对 SIMD 的支持? SSE 是 128 位,现在 AVX 是 256 位,明年将是 512 位。如果 GPGPU 能够更好地处理具有数据并行性的代码,那么英特尔为什么要插入这些 SIMD 扩展?他们可能能够将等效资源(研究和领域)放入更大的缓存和分支预测器中,从而提高串行性能。
为什么使用 SIMD 而不是 GPGPU?
最佳答案
绝对 SIMD 仍然相关。
首先,SIMD 可以更容易地与标量代码互操作,因为它可以直接读写相同的内存,而 GPU 要求数据上传到 GPU 内存才能访问。例如,通过 SIMD 向量化像 memcmp() 这样的函数很简单,但是通过将数据上传到 GPU 并在那里运行来实现 memcmp() 是荒谬的。延迟将是毁灭性的。
其次,SIMD 和 GPU 都不擅长处理高度分支的代码,但 SIMD 的糟糕程度要低一些。这是因为 GPU 在单个指令调度程序下将多个线程(“warp”)分组。那么当线程需要采取不同的路径时会发生什么:在一个线程中采用 if 分支,而在另一个线程中采用 else 分支?这被称为“分支分歧”并且它很慢:所有“if”线程在“else”线程等待时执行,然后“else”线程在“if”线程等待时执行。当然,CPU 内核没有这个限制。
结果是 SIMD 更适合可能被称为“中间工作负载”的工作负载:直到中等大小的工作负载,具有一些数据并行性,访问模式中的一些不可预测性,一些分支。 GPU 更适合具有可预测执行流和访问模式的超大型工作负载。
(还有一些外围原因,例如更好地支持 CPU 中的 double 浮点。)
关于cuda - 如果我们有 GPGPU,为什么要使用 SIMD?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25630209/
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?将问题更新为 on-topic对于堆栈溢出。 7年前关闭。 Improve this qu
我有一个代码库,我可以在我的 mac 上编译和运行,但不能在我的远程 linux 机器上编译和运行,我不确定为什么。 编译时出现错误 fatal error: simd/simd.h: No such
我需要了解如何编写一些可并行化问题的 C++ 跨平台实现,以便在可用的情况下利用 SIMD(SSE、SPU 等)。以及我希望能够在运行时在 SIMD 和非 SIMD 之间切换。 您建议我如何解决这个问
我正在使用 AVX 内在 _mm256_extract_epi32() . 不过,我不完全确定我是否正确使用它,因为 gcc 不喜欢我的代码,而 clang 编译它并运行它没有问题。 我根据整数变量的
当我可以使用 SSE3 或 AVX 时,SSE2 或 MMX 等较旧的 SSE 版本是否可用 - 还是我还需要单独检查它们? 最佳答案 一般来说,这些都是附加的,但请记住,多年来英特尔和 AMD 对这
在 godbolt.org 使用 gcc 7.2 我可以看到以下内容 code在汇编程序中翻译得非常好。我看到 1 次加载、1 次添加和 1 次存储。 #include __attribute__(
假设我们有一个函数将两个数组相乘,每个数组有 1000000 个 double 值。在 C/C++ 中,该函数如下所示: void mul_c(double* a, double* b) {
我有一个 A = a1 a2 a3 a4 b1 b2 b3 b4 c1 c2 c3 c4 d1 d2 d3 d4 我有两排, float32x2_t a = a1 a2 flo
我正在考虑编写一个 SIMD vector 数学库,因此作为一个快速基准,我编写了一个程序,该程序执行 1 亿(4 个 float ) vector 元素乘法并将它们加到累积总数中。对于我的经典非 S
我正在开发带有英特尔编译器 OpenMP 4.0 的英特尔 E5(6 核、12 线程) 为什么这段代码 SIMD 编译比并行 SIMD 编译更快? for (int suppv = 0; suppv
OpenMP 4.0 引入了 SIMD 结构以利用 CPU 的 SIMD 指令。根据规范http://www.openmp.org/mp-documents/OpenMP4.0.0.pdf ,有两种结
英特尔编译器允许我们通过以下方式对循环进行矢量化 #pragma simd for ( ... ) 但是,您也可以选择使用 OpenMP 4 的指令执行此操作: #pragma omp simd fo
关注我的 x86 question ,我想知道如何在 Arm-v8 上有效地矢量化以下代码: static inline uint64_t Compress8x7bit(uint64_t x) {
Intel 提供了几个 SIMD 命令,它们似乎都对 128 位数据执行按位异或: _mm_xor_pd(__m128d, __m128d) _mm_xor_ps(__m128, __m128) _m
可以使用“位打包”技术压缩无符号整数:在一个无符号整数 block 中,只存储有效位,当一个 block 中的所有整数都“小”时,会导致数据压缩。该方法称为 FOR (引用框架)。 有SIMD lib
SSE 寄存器是否在逻辑处理器(超线程)之间共享或复制? 对于 SSE 繁重的程序,我能否期望从并行化中获得与普通程序相同的加速(英特尔声称具有超线程的处理器为 30%)? 最佳答案 从英特尔的文档中
我正在编写一个使用 SSE 指令来乘法和相加整数值的程序。我用浮点数做了同样的程序,但我的整数版本缺少一个指令。 使用浮点数,在完成所有操作后,我将 de 值返回到常规浮点数数组,执行以下操作: _m
我正在开发基于Intel指令集(AVX,FMA等)的高性能算法。当数据按顺序存储时,我的算法(内核)运行良好。但是,现在我面临一个大问题,但没有找到解决方法或解决方案: see 2D Matrix i
大家好 :) 我正在尝试了解有关浮点、SIMD/数学内在函数和 gcc 的快速数学标志的一些概念。更具体地说,我在 x86 cpu 上使用 MinGW 和 gcc v4.5.0。 我已经搜索了一段时间
根据https://sourceware.org/glibc/wiki/libmvec GCC 具有数学函数的向量实现。它们可以被编译器用于优化,可以在这个例子中看到:https://godbolt.
我是一名优秀的程序员,十分优秀!