gpt4 book ai didi

c++ - map 和 openMP 并行调度

转载 作者:行者123 更新时间:2023-11-30 03:42:46 25 4
gpt4 key购买 nike

我正在尝试并行化一段代码,但存在一些问题,共享映射中插入的关键部分在我的执行中造成了瓶颈。有没有办法并行化插入?

第二个问题是关于如何使用 openMP 在 map 上迭代预定义的次数。这是代码,我在 Clion 上使用 g++-5。

else if (PERF_ROWS <= MAX_ROWS && function_switch == false)
{
int array_dist_perf[PERF_ROWS];
int array_dist[MAX_ROWS];

multimap<float, int> temp_map;

#pragma omp parallel for schedule(dynamic) private(array_dist_perf) shared(temp_map)
for (int i = 0; i < MAX_COLUMNS; i++)
{
if (i % PERF_CLMN == 1) continue;

for (int j = 0; j < PERF_ROWS; j++) //truncation perforation
{
array_dist_perf[j] = abs(input[j] - input_matrix[j][i]);
}

float av = mean(PERF_ROWS, array_dist_perf);

float temp_score = score_func(av);

#pragma omp critical(map_update)
temp_map.insert({temp_score, i});
}

map<float,int>::reverse_iterator rit;

int iter = 0;

#pragma omp parallel for schedule(dynamic) private(array_dist) shared(iter)
for (rit=temp_map.rbegin(); rit!=temp_map.rend(); rit++)
{
int s = rit->second;

for (int k = 0; k < MAX_ROWS; k++)
{
array_dist[k] = abs(input[k] - input_matrix[k][s]);
}

float av_real = mean(MAX_ROWS, array_dist);

float score_real = score_func(av_real);

rank_function(score_real, s);

#pragma omp atomic
iter++;

if (iter == THRESHOLD_NUM)

break;
}
}

最佳答案

在 Open MP 4(应该由 g++5 支持)中,可以定义您自己的缩减。我不想做一些不必要的重复,所以请看这个答案:C++ OpenMP Parallel For Loop - Alternatives to std::vector

如果我理解你的问题是正确的,你可以使用 order 和 schedule(static, chuncksize),其中 chunksize 是线程获得的迭代次数。

关于c++ - map 和 openMP 并行调度,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36622300/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com