- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在编写一个带有循环的 C++ 程序,我试图使用 OpenMP 对其进行并行化。我正在编写的循环具有以下结构:
#pragma omp parallel for
for (int i = 0; i < N; i++)
result[i] = work_func(left[i], right[i], largeObject);
largeObject
参数被标记为常量引用。我的问题是,当我从单个线程转移到多个线程(~40)时,内存使用量会急剧增加。
left
和
right
参数都很小,这意味着即使将它们完全复制到所有线程也不会导致内存增加。
largeObject
到所有线程本地缓存,而不是强制它使用单个全局拷贝。有没有办法做到这一点?这似乎与 OpenMP 性能问题更常见的无错误共享优化背道而驰。我不太关心运行时减速,而不是这个程序的大量内存开销。
最佳答案
int
const
largeObject
-declaration 指令应提倡编译阶段以避免任何 分享 主要是不可变对象(immutable对象)的附加机制和/或同步策略(因为没有出现任何需要访问声明的不可变 const largeObject
的写入尝试的竞争条件。正如@Gilles 所提到的,使用 volatile
指令使用另一种编译器注入(inject)的值访问策略机制,该机制与 OpenMP 没有直接关系,但受到相应的 omp
-section(s) 的尊重。
#include <iostream>
#include <omp.h>
#define anIndeedLargeSIZE 2
int main()
{
int largeObject[anIndeedLargeSIZE] = {0};
#pragma omp const largeObject
std::cout << "largeObject address " << largeObject << std::endl;
#pragma omp parallel for num_threads(2)
for (int i = 0; i < 2; i++)
{
int tid = omp_get_thread_num();
std::cout << "tid: " << tid << " :: " << largeObject << std::endl;
if (i == tid)
{
// largeObject[i] = tid; // const .... un-mutable mode
std::cout << "tid: " << tid << " :: now reading and using a const largeObject[" << (int)i << "] == " << largeObject[i] << std::endl;
}
}
std::cout << "largeObject processing FINISHED." << std::endl;
return 0;
}
(base) Wed Jan 08 00:00:00 @64FX:~/$ g++ -o largeObject_const_OMP -O3 -fopenmp largeObject_const_OMP.c
largeObject_const_OMP.c: In function ‘int main()’:
largeObject_const_OMP.c:65:30: error: expected ‘#pragma omp’ clause before ‘const’
#pragma omp parallel for const (largeObject) num_threads(2)
<--------------------code-revised-as-desired-by-parsing-error:65:30:expected ‘#pragma omp’ clause ADDED before ‘const’-->
(base) Wed Jan 08 00:00:00 @64FX:~/$ g++ -o largeObject_const_OMP -O3 -fopenmp largeObject_const_OMP.c
<--------------------no-error-message|warning-from-parse|compile|link-phases-HERE->
(base) Wed Jan 08 00:00:00 @64FX:~/$ ./largeObject_const_OMP
largeObject address 0x7fff81b97d58
tid: tid: 0 :: 10x7fff81b97d58 ::
tid: 0 :: now reading and using a const largeObject[0] == 0
0x7fff81b97d58
tid: 1 :: now reading and using a const largeObject[1] == 0
largeObject processing FINISHED.
int const
v/s
int volatile
largeObject
:
#include <iostream> // >>> https://gcc.godbolt.org/z/NRQSQ_
#include <omp.h> // >>> https://stackoverflow.com/questions/59637163/force-openmp-to-not-cache-a-large-object-in-each-thread/59638455?noredirect=1#comment105445758_59638455
#include <chrono>
#include <thread>
#define anIndeedLargeSIZE 2
int main()
{
//
int const largeObject[anIndeedLargeSIZE] = {0};
// #pragma omp const largeObject // largeObject_const_OMP.c:46:0: warning: ignoring #pragma omp const [-Wunknown-pragmas]
std::cout << "int const largeObject address[_" << largeObject << "_]" << std::endl;
#pragma omp parallel for num_threads(2)
for (int i = 0; i < 2; i++)
{
int tid = omp_get_thread_num();
std::this_thread::sleep_for( std::chrono::milliseconds( 100 * tid ) );
std::cout << "tid: " << (int)tid << " ::[_" << largeObject << "_]" << std::endl;
if (i == tid)
{
// largeObject[i] = tid; // const .... un-mutable mode
std::cout << "tid: " << (int)tid << " :: now reading and using an int const largeObject[" << (int)i << "] == " << largeObject[i] << std::endl;
}
}
std::cout << "int const largeObject[] processing FINISHED." << std::endl;
/*////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////
>>> ~/$ ./largeObject_const_OMP
* int const largeObject address[_0x7fff3ed0db28_]
* tid: 0 ::[_0x7fff3ed0db28_]
* tid: 0 :: now reading and using an int const largeObject[0] == 0
* tid: 1 ::[_0x7fff3ed0db28_]
* tid: 1 :: now reading and using an int const largeObject[1] == 0
* int const largeObject[] processing FINISHED.
*
* */
/*
int volatile largeObject[anIndeedLargeSIZE] = {0};
std::cout << "int volatile largeObject address[_" << largeObject << "_]" << std::endl;
#pragma omp parallel for num_threads(2)
for (int i = 0; i < 2; i++)
{
int tid = omp_get_thread_num();
std::this_thread::sleep_for( std::chrono::milliseconds( 100 * tid ) );
std::cout << "tid: " << (int)tid << " ::[_" << largeObject << "_]" << std::endl;
if (i == tid)
{
// largeObject[i] = tid; // const .... un-mutable mode
std::cout << "tid: " << (int)tid << " :: now reading and using an int volatile largeObject[" << (int)i << "] == " << largeObject[i] << std::endl;
}
}
std::cout << "int volatile largeObject[] processing FINISHED." << std::endl;
//////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////
>>> ~/$ ./largeObject_const_OMP
* int volatile largeObject address[_1_]
* tid: 0 ::[_1_]
* tid: 0 :: now reading and using an int volatile largeObject[0] == 0
* tid: 1 ::[_1_]
* tid: 1 :: now reading and using an int volatile largeObject[1] == 0
* int volatile largeObject[] processing FINISHED.
* */
return 0;
}
关于c++ - 强制 OpenMP 不在每个线程中缓存大对象,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59637163/
OpenMP 中的高斯消除。我是 openmp 的新手,想知道我是否在正确的地方使用了我的编译指示和屏障。我的 x 值每次都不同。他们应该是一样的吗?? #include int num; doub
给定一个示例函数(示例在下面给出),for 循环可以使用 OpenMP 并行化或使用矢量化进行矢量化(假设编译器执行矢量化)。 示例 void function(float* a, float* b,
OpenMP 中原子和关键之间有什么区别? 我能做到 #pragma omp atomic g_qCount++; 但这和不一样吗 #pragma omp critical g_qCount++; ?
我有一个关于如何在您考虑特定依赖关系图时生成 OpenMP 伪代码的问题。 所以假设我们有这个特定的图表: 解决方案可能是这样的: #pragma omp parallel {
我正在尝试使用 openmp 计算二维矩阵的平均值。这个二维矩阵实际上是一个图像。 我正在对数据进行线程分割。例如,如果我有 N线程比我处理行/N thread0 的行数, 等等。 我的问题是:我可以
我想统计测量与 OpenMP 并行化的程序的性能。我选择在执行并行算法的测试应用程序中编写循环 MAX_EXPERIMENTS次并将时间测量报告到文件中。 问题解决方案似乎比提取外部循环上方的并行编译
我找到了 Intel's performance suggestion on Xeon Phi关于 OpenMP 中的 Collapse 子句。 #pragma omp parallel for co
如何使用 OpenMP 并行化数组移位? 我尝试了一些方法,但在以下示例中没有得到任何准确的结果(该示例旋转 Carteira 对象数组的元素,用于排列算法): void rotaciona(int
我有一系列对几个独立函数的调用。 func1(arg); func2(arg); func3(arg); 我想并行执行它们,而不是串行执行它们。我目前正在使用 #pragma omp parallel
我正在尝试使用 openmp 任务来安排基本 jacobi2d 计算的平铺执行。在 jacobi2d 中,依赖于 A(i,j) 从 A(i, j) A(i-1, j) A(i+1, j) A(i, j
我在 3 天前开始使用 OpenMP。我想知道如何使用#pragma使每个内核运行一个线程。详细信息:- int ncores = omp_get_num_procs();for(i = 0; i <
我有一段代码(它是应用程序的一部分),我正在尝试使用 OpenMP 对其进行优化,正在尝试各种调度策略。就我而言,我注意到 schedule(RUNTIME)条款比其他条款有优势(我没有指定 chun
我有一个数字运算 C/C++ 应用程序。它基本上是不同数据集的主循环。我们可以使用 openmp 和 mpi 访问一个 100 节点的集群。我想加速应用程序,但我是 mpi 和 openmp 的绝对新
在 OpenMP 中使用ompsections时,线程会被分配到sections内的 block ,还是每个线程会被分配到每个section? 当nthreads == 3时: #pragma omp
我正在尝试在 cython 中使用 openmp。我需要在 cython 中做两件事: i) 在我的 cython 代码中使用 #pragma omp single{} 作用域。 ii) 使用#pra
我正在尝试通过将循环的每次迭代作为 OpenMP 部分来并行化 OpenMP 中基于范围的 for 循环。我想这样做: #pragma omp parallel sections { for ( au
我正在尝试在 cython 中使用 openmp。我需要在 cython 中做两件事: i) 在我的 cython 代码中使用 #pragma omp single{} 作用域。 ii) 使用#pra
我想编写一个代码转换器,它采用基于 OpenMP 的并行程序并在集群上运行它。 我该如何解决这个问题?我使用哪些库?如何为此设置小型集群? 我发现很难在 Internet 上找到有关集群计算的好 Ma
我是 OpenMP 的新手。我正在尝试为 for 循环使用多个内核,但出现此编译错误: “错误 C3016:'x':OpenMP 'for' 语句中的索引变量必须具有带符号的整数类型”。 我知道 Op
如果我使用 VS 2010 编译器从 Qt Creator 构建项目,我如何启用 OpenMP(从 Visual Studio 构建时,您只需启用该功能)谢谢 最佳答案 在 .pro 文件中尝试下一步
我是一名优秀的程序员,十分优秀!