- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
是否有依赖于隐式矢量化的编程语言或语言扩展?
我需要一些东西来做出积极的假设,以从标量 C 代码为 SSE4.1、AVX、AVX2(带或不带 FMA3/4)以单/ double 生成良好的 DLP/矢量化代码。
在过去的 10 年里,我很高兴依靠英特尔的内在函数来编写我的 HPC 内核,并进行了显式矢量化。同时,我经常对 C/C++ 编译器(GCC、clang、LLVM 等)生成的 DLP 代码的质量感到失望,如果你问的话,我可以发布具体示例。
来自Intrinsics Guide ,很明显,为现代平台“手动”编写具有内在函数的 HPC 内核不再是可持续的选择,除非我有一群程序员。版本和组合太多:SSE4.1、AVX、AVX2、AVX512+flavors、FMA、SP、DP、半精度?如果我的目标平台是自 2012 年以来最广泛使用的平台,那是不可持续的。
我最近试用了面向 OpenCL (CPU) 的英特尔离线编译器。我编写了“a la CUDA”内核(即标量代码、隐式矢量化),令我惊讶的是,生成的程序集矢量化得非常好! (Skylake,SP 中的 AVX2 + FMA)我遇到的唯一限制是缺少不依赖共享内存的数据缩减/交互项通信的内置函数(这将转化为 CPU 水平添加,或洗牌 + 最小/最大操作) .
正如 clemens and sschuberth 指出的那样除非我不完全接受 OpenCL,否则离线编译器并不是真正的解决方案。或者我破解我的调用者代码以遵守生成的程序集的调用约定,其中包括我不需要的参数,例如 ndrange。完全采用 OpenCL 对我来说也不是一个选择,因为对于 TLP,我依赖 OpenMP 和 Pthreads(对于 ILP,我依赖硬件)。
首先,值得记住的是,隐式矢量化和自动矢量化不是一回事。事实上,我对自动矢量化失去了希望(如上所述)。不在隐式矢量化中。
下面的答案之一是要求提供一些代码示例。 Here我提供了一个内核代码示例,该内核为 3D 结构 block 上的 NSE 的对流项实现了三阶逆风方案。值得一提的是,这代表了一个简单的例子,因为不需要 SIMD channel 间合作/通信。
最佳答案
目前,最好的选择是 Intel SPMD Program Compiler . ISPC 是一个开源编译器,其编程模型依赖于隐式矢量化(从英特尔 OpenCL SDK 文档中借用的术语)来输出矢量化汇编代码。 ISPC 将源代码映射到 SP/DP 的 SSE4.1、AVX、AVX2、KNC 和 KNL 的 AVX512 指令。 ISPC 的后端是 LLVM。
对于 CFD 内核,它可以提供无与伦比的性能。对于必须是标量的代码部分,只需将“uniform”关键字添加到相关变量即可。内置了用于 channel 间通信的函数,例如 shuffle、broadcast 和 reduce_add 等。
为什么 ISPC 与其他 C++ 编译器相比如此之快?我的猜测是因为 C/C++ 编译器假设除非有相反的明确证据,否则什么都不能矢量化。 ISPC 假定每一行代码都由所有 SIMD channel (独立地)执行,除非另有说明。
我想知道为什么 ISPC 还没有被广泛接受。也许是因为他的少年阶段,但它已经在 CG/科学可视化社区中显示出强大的能力( Embree , OSPray )。ISPC 是编写 HPC 内核的一个很好的选择,因为它似乎很好地弥合了性能与生产力之间的差距。
对于trivial kernel example在问题中引用,使用 GCC 4.9.X 和 ISPC 1.8.2 获得以下结果。性能以每个周期的 FLOP 数来报告。
此处未报告 ICC 结果(就可访问性而言,针对免费和开源编译器报告 ICC 是否 100% 公平?)。尽管如此,在这种情况下,ICC 相对于 GCC 报告的最大增益约为 4 倍,因此并未损害 ISPC 的优势。
关于c - 基于隐式矢量化的 HPC 编程语言,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35127888/
我如何才能在我的本地机器(显然是非 Windows Server 2012)上测试我使用 HPC Pack 2012R 的 Microsoft HPC SOA 服务 API 开发的 SOA 服务,然后
我想知道是否有集群可供出租。 设想: 我们有一个程序,它将花费我们估计的一周时间(优化后)在给定文件上运行。可能更长一些。不幸的是,我们还需要处理大约300多个不同的文件,从而导致大约300周的计算时
我在 SLURM 上运行以下作业数组: #!/bin/bash #SBATCH --array=1-1000 #SBATCH --partition=scavenge #SBATCH --mem=2g
我在高性能计算系统上运行批处理作业来对对齐的读取进行排序,并使用 GNU parallel 来加速我的工作,但我的作业失败了,原因如下: parallel: Error: Output is inco
我没有很多信息,所以请让我知道我可以做些什么来诊断这个。 我的 HPC 有几个计算节点,我昨晚提交的一项作业在运行几个小时后暂停。我今天早上检查了qstat,发现自从我昨天上次检查以来,它没有任何进展
我用 #SBATCH --mail-type=end #SBATCH --mail-user=myemail@gmail.com 在我的 script.sh 中向我发送有关该工作的有效信息。但是我收到
在sbatch脚本中,您可以直接启动程序或脚本(例如,可执行文件myapp),但是在许多教程中,人们改用srun myapp。 尽管阅读了有关该主题的一些文档,但我不了解它们的区别以及何时使用每种语法
我有以下教堂代码。 proc update(x: int(32)) { return 2*x; } proc dynamics(x: int(32)) { return update(x);
我有一个非常简单的snakemake接受输入文件的管道会执行三个后续步骤来生成一个输出。每个单独的工作都非常快。现在我想将此管道应用于 SGE 集群上超过 10k 个文件。即使我使用 group要为每
我发现 hpc 真的很令人困惑,即使在阅读了一些解释并玩了很多之后。 我有一个图书馆 HML , 和两个测试套件 fileio-test和 types-test , 使用 HTF (我打算搬到 tas
是否有任何命令可以让我查询正在运行/排队的 PBS 作业的描述,了解其属性,例如 RAM、处理器数量、GPU 等? 最佳答案 使用qstat命令: qstat -f job_id 关于hpc - 获取
我正在使用我部门的计算集群和 Sun Grid Engine。 当我必须运行多个 R 作业时,我通常编写名称为 s01.sh、s02.sh、...、s50.sh 的 shell 脚本文件,其中包含“R
是否有任何命令可以让我查询正在运行/排队的 PBS 作业的描述,了解其属性,例如 RAM、处理器数量、GPU 等? 最佳答案 使用qstat命令: qstat -f job_id 关于hpc - 获取
我正在使用我部门的计算集群和 Sun Grid Engine。 当我必须运行多个 R 作业时,我通常编写名称为 s01.sh、s02.sh、...、s50.sh 的 shell 脚本文件,其中包含“R
我正在使用读取 CSV 的循环填充 Chapel 中的稀疏数组。 我想知道最好的模式是什么。 var dnsDom = {1..n_dims, 1..n_dims}; var spsDom: spar
#!/bin/bash #$ -N para_three #$ -q all.q #$ -pe mpi 30 /home/abhishekb/netlogo/netlogo-5.2.0/netlogo
除了使用目标机器拥有的多核之外,我正在寻找某种方法来使用 GPU 的数字运算能力(也许是 Java?)。我将致力于实现(目前)A* 算法,但将来我希望用某种遗传算法代替它。我看过 Project Fo
用于高性能计算的 boost::intrusive 库有多好?我想为不可复制的不可分配类使用一个容器。我打算用带有 shared_ptr 的普通 STL。我发现 boost::intrusive 也可
是否有依赖于隐式矢量化的编程语言或语言扩展? 我需要一些东西来做出积极的假设,以从标量 C 代码为 SSE4.1、AVX、AVX2(带或不带 FMA3/4)以单/ double 生成良好的 DLP/矢
每个人都迁移到 MPI(消息传递接口(interface))还是 PVM 仍然广泛用于 super 计算机和 HPC? 最佳答案 我的经验是 PVM 在高性能计算中没有被广泛使用。 MPI 似乎被广泛
我是一名优秀的程序员,十分优秀!