- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试为我的一个项目实现类似的功能,我想知道它是如何工作的。
例如,我想知道从编译器/处理器的角度来看,#pragma omp parallel default(shared) private(iam, np)
如何在以下示例中工作?我正在引用编译器,因为我已经读到 #pragma
宏将向编译器提供辅助信息。如果我考虑到所有宏都由预处理器处理,我真的会感到困惑。
宏是如何扩展的以及 OpenMP 库如何访问这些宏中的信息? OpenMP 是否使用特定的编译器扩展来为其支持的每个编译器获取这些信息,或者它只是简单的宏调用?
#include <stdio.h>
#include <mpi.h>
#include <omp.h>
int main(int argc, char *argv[])
{
int numprocs, rank, namelen;
char processor_name[MPI_MAX_PROCESSOR_NAME];
int iam = 0, np = 1;
MPI_Init(&argc, &argv);
MPI_Comm_size(MPI_COMM_WORLD, &numprocs);
MPI_Comm_rank(MPI_COMM_WORLD, &rank);
MPI_Get_processor_name(processor_name, &namelen);
#pragma omp parallel default(shared) private(iam, np)
{
np = omp_get_num_threads();
iam = omp_get_thread_num();
printf("Hybrid: Hello from thread %d out of %d from process %d out of %d on %s\n",
iam, np, rank, numprocs, processor_name);
}
MPI_Finalize();
return 0;
}
我从 here 得到这个例子.
最佳答案
For example, I was wondering how #pragma omp parallel default(shared) private(iam, np) works in the following example from the compiler's/proprocessor's perspective?
这强烈依赖于编译器的实现。实际上,对于 Clang 和 GCC(可能还有 ICC),pragma 注释为编译器步骤提供信息,使其能够在前端传递中转换代码。简单来说,编译器的前端是预处理、标记化、句法分析和语义分析,而后端是优化和代码生成。
对于大多数步骤,主流编译器能够让您获得临时输出的中间代码。例如,Clang 和 GCC 有用于预处理器的 -E
标志和用于代码生成的 -S
。低级中间表示 (IR) 更依赖于编译器实现,因此标志不相同(优化和中间语言也不相同)。 GCC 使用 GENERIC/GIMPLE 语言作为高级 IR,而 Clang 使用 LLVM IR 语言。 AFAIK,可以使用 -fdump-*
标志转储 GIMPLE 代码。对于 Clang,-emit-llvm
可用于转储 IR 代码。
在 Clang 中,转换是在 AST 生成之后,但在第一次 IR 生成之前完成的。请注意,其他一些编译器会执行 AST 转换,而其他一些编译器会在后面的步骤中执行此操作。启用 OpenMP 时(使用 -fopenmp
),Clang 将 pragma 区域替换为 __kmpc_fork_call
并为传递给 KMP 函数的区域生成一个函数。 KMP 是 Clang 和 ICC 共享的 IOMP 运行时的前缀。 GCC 有自己的运行时,称为 GOMP。还有很多其他运行时,但主流的是 GOMP 和 IOMP。另请注意,GCC 通过使用运行时提供的生成函数调用 GOMP_parallel
使用类似的策略。 IOMP/GOMP 运行时负责在调用编译器生成的函数之前初始化区域和 ICV。
请注意,处理器并不知道 OpenMP 的使用(至少不是我所知道的所有 OpenMP 实现)。
How is the macro expanded and how the OpenMP library gets access to the information in those macros?
请注意,pragma 注释不是宏,还有比宏更强大的:它们向编译器提供信息,可以在任何编译步骤中执行重要的更改。例如,pragma 可以改变代码生成的执行方式,这对于预处理器宏是不可能的(例如 #pragma GCC unroll n
用于 GCC 中的循环展开和 #pragma ivdep
用于告诉 ICC 没有启用自动矢量化的循环携带依赖项)。
信息像编译器生成的用户函数一样作为参数传递给主运行时 fork 函数(即__kmpc_fork_call
和GOMP_parallel
) .
Is there a specific compiler extension that OpenMP uses to fetch those information for every compiler that it supports or is it just simple macros invocation?
这不仅仅是简单的宏调用,据我所知,没有用于 GCC 和 Clang 的外部模块。它们直接集成到编译器中(尽管它可能是模块化的,尤其是对于 Clang)。这很重要,因为编译器需要在编译时分析 pragma 注释。 pragma 不仅仅是一种自动生成运行时调用并使用标准语言/接口(interface)抽象它们的方法,它们还会影响编译器步骤。例如,#pragma omp simd
应该会影响编译器的自动矢量化优化步骤(后端步骤)。
AFAIK,有一些(研究)OpenMP 实现基于源到源编译,因此独立于编译器,但我不确定它们是否支持所有 OpenMP 功能(尤其是 SIMD 功能)。
关于compilation - OpenMP 宏如何在幕后与预处理器/编译器和库本身协作?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/73069566/
OpenMP 中的高斯消除。我是 openmp 的新手,想知道我是否在正确的地方使用了我的编译指示和屏障。我的 x 值每次都不同。他们应该是一样的吗?? #include int num; doub
给定一个示例函数(示例在下面给出),for 循环可以使用 OpenMP 并行化或使用矢量化进行矢量化(假设编译器执行矢量化)。 示例 void function(float* a, float* b,
OpenMP 中原子和关键之间有什么区别? 我能做到 #pragma omp atomic g_qCount++; 但这和不一样吗 #pragma omp critical g_qCount++; ?
我有一个关于如何在您考虑特定依赖关系图时生成 OpenMP 伪代码的问题。 所以假设我们有这个特定的图表: 解决方案可能是这样的: #pragma omp parallel {
我正在尝试使用 openmp 计算二维矩阵的平均值。这个二维矩阵实际上是一个图像。 我正在对数据进行线程分割。例如,如果我有 N线程比我处理行/N thread0 的行数, 等等。 我的问题是:我可以
我想统计测量与 OpenMP 并行化的程序的性能。我选择在执行并行算法的测试应用程序中编写循环 MAX_EXPERIMENTS次并将时间测量报告到文件中。 问题解决方案似乎比提取外部循环上方的并行编译
我找到了 Intel's performance suggestion on Xeon Phi关于 OpenMP 中的 Collapse 子句。 #pragma omp parallel for co
如何使用 OpenMP 并行化数组移位? 我尝试了一些方法,但在以下示例中没有得到任何准确的结果(该示例旋转 Carteira 对象数组的元素,用于排列算法): void rotaciona(int
我有一系列对几个独立函数的调用。 func1(arg); func2(arg); func3(arg); 我想并行执行它们,而不是串行执行它们。我目前正在使用 #pragma omp parallel
我正在尝试使用 openmp 任务来安排基本 jacobi2d 计算的平铺执行。在 jacobi2d 中,依赖于 A(i,j) 从 A(i, j) A(i-1, j) A(i+1, j) A(i, j
我在 3 天前开始使用 OpenMP。我想知道如何使用#pragma使每个内核运行一个线程。详细信息:- int ncores = omp_get_num_procs();for(i = 0; i <
我有一段代码(它是应用程序的一部分),我正在尝试使用 OpenMP 对其进行优化,正在尝试各种调度策略。就我而言,我注意到 schedule(RUNTIME)条款比其他条款有优势(我没有指定 chun
我有一个数字运算 C/C++ 应用程序。它基本上是不同数据集的主循环。我们可以使用 openmp 和 mpi 访问一个 100 节点的集群。我想加速应用程序,但我是 mpi 和 openmp 的绝对新
在 OpenMP 中使用ompsections时,线程会被分配到sections内的 block ,还是每个线程会被分配到每个section? 当nthreads == 3时: #pragma omp
我正在尝试在 cython 中使用 openmp。我需要在 cython 中做两件事: i) 在我的 cython 代码中使用 #pragma omp single{} 作用域。 ii) 使用#pra
我正在尝试通过将循环的每次迭代作为 OpenMP 部分来并行化 OpenMP 中基于范围的 for 循环。我想这样做: #pragma omp parallel sections { for ( au
我正在尝试在 cython 中使用 openmp。我需要在 cython 中做两件事: i) 在我的 cython 代码中使用 #pragma omp single{} 作用域。 ii) 使用#pra
我想编写一个代码转换器,它采用基于 OpenMP 的并行程序并在集群上运行它。 我该如何解决这个问题?我使用哪些库?如何为此设置小型集群? 我发现很难在 Internet 上找到有关集群计算的好 Ma
我是 OpenMP 的新手。我正在尝试为 for 循环使用多个内核,但出现此编译错误: “错误 C3016:'x':OpenMP 'for' 语句中的索引变量必须具有带符号的整数类型”。 我知道 Op
如果我使用 VS 2010 编译器从 Qt Creator 构建项目,我如何启用 OpenMP(从 Visual Studio 构建时,您只需启用该功能)谢谢 最佳答案 在 .pro 文件中尝试下一步
我是一名优秀的程序员,十分优秀!