gpt4 book ai didi

c++ - MPI_Scatter 减慢了代码?

转载 作者:搜寻专家 更新时间:2023-10-31 01:39:51 26 4
gpt4 key购买 nike

伙计们!我写了一段代码,用 MPI 计算两个巨大 vector 的标量积。首先,等级为 0 的进程创建两个随机 vector ,并通过 MPI_Scatter 将其发送给其余进程。之后,他们计算部分和并将其发送回秩为 0 的进程。主要问题是 MPI_Scatter 需要花费大量时间将数据发送到其他进程,因此我的程序随着额外的进程而变慢。我用 MPI_Wtime() 测量了它,而 MPI_Scatter() 函数在某些情况下占用了 80% 的计算时间。我的串行代码比我尝试过的任何 MPI 设置都快。

这些是我在双核上使用不同进程数的结果:

处理时间

序列号 0,3275

1 0,3453

2 0,4522

4 3,4755

8 5,8645

10 8,9112

20 24,4612

40 63,2633

你知道如何避免这样的瓶颈吗?不要介意 MPI_Allgather()...这是作业的一部分:)

int main(int argc, char* argv[])
{
srand(time(NULL));
int size, len, whoAmI, i, j, k;
int N = 10000000;
double start, elapsed_time, end;
double *Vec1, *Vec2;

MPI_Init(&argc, &argv);
start = MPI_Wtime();

MPI_Comm_size(MPI_COMM_WORLD, &size);
MPI_Comm_rank(MPI_COMM_WORLD, &whoAmI);

if(N%size != 0){
printf("choose a number that can be divided through 10000000\n");
exit(1);
}

int chunk = N/size;

double *buf1 = malloc(chunk * sizeof(double)); // Recv_Buf for MPI_scatter
double *buf2 = malloc(chunk * sizeof(double));
double *gatherResult = malloc(size*(sizeof(double))); //Recv_Buf for MPI_Allgather
double result, FinalResult = 0;

if(whoAmI == 0){

Vec1 = malloc(N * sizeof(double));
Vec2 = malloc(N * sizeof(double));
random_Vector(Vec1, N);
random_Vector(Vec2, N);
}

/* sends the divided array to the other processes */
MPI_Scatter(Vec1, chunk, MPI_DOUBLE, buf1, chunk, MPI_DOUBLE, 0, MPI_COMM_WORLD);
MPI_Scatter(Vec2, chunk, MPI_DOUBLE, buf2, chunk, MPI_DOUBLE, 0, MPI_COMM_WORLD);

if(whoAmI == 0){
end = MPI_Wtime();
elapsed_time = end - start;
printf("Time taken %.4f seconds\n", elapsed_time);
}

for(i = 0; i < chunk; i ++){
result += buf1[i] * buf2[i];
}

printf("The sub result: #%d, %.2f\n",whoAmI, result);

/* Allgather: (sendBuf, number of Elements in SendBuf, Type of Send, Number of Elements Recv, Recv Type, Comm)*/
MPI_Allgather(&result, 1 , MPI_DOUBLE, gatherResult, 1, MPI_DOUBLE , MPI_COMM_WORLD);

for(i = 0; i < size; i++){
FinalResult += gatherResult[i];
}

MPI_Barrier(MPI_COMM_WORLD);
end = MPI_Wtime();
elapsed_time = end - start;

if(whoAmI == 0){
printf("FinalResult is: %.2f\n", FinalResult);
printf("Time taken %.4f seconds\n", elapsed_time);
VecVec_Test(N, Vec1, Vec2, FinalResult); // Test if the Result is correct
}

MPI_Barrier(MPI_COMM_WORLD);

return 0;
}

最佳答案

只有当 vector 已经以分布式方式存储时,标量积的分布式计算才有意义,否则每次通过网络(或任何其他 IPC 机制)将大 vector 的内容从根推送到与单线程进程完成所有工作相比,其他进程将花费更多时间。标量积是一个内存限制问题,这意味着当前的 CPU 内核速度如此之快,以至于当数据来自主内存而不是 CPU 缓存时,它很可能以比 CPU 内核能够处理的速度慢的速度到达.

为了演示 MPI 在这种情况下如何提供帮助,您可以做的是修改算法,以便首先分散 vector ,然后多次计算分布式标量积:

MPI_Scatter(Vec1, buf1);
MPI_Scatter(Vec2, buf2);

// Always a good idea to sync the processes before benchmarking
MPI_Barrier();

start = MPI_Wtime();

for (i = 1; i <= 1000; i++) {
local_result = dotprod(buf1, buf2);
MPI_Reduce(&local_result, &result, MPI_SUM);
}

end = MPI_Wtime();

printf("Time per iteration: %f\n", (end - start) / 1000);

(伪代码,不是真正的 C++)

您现在应该看到每次迭代的时间随着 MPI 进程的数量而减少,但前提是添加更多 MPI 进程意味着更多的 CPU 插槽,因此聚合内存带宽更高。请注意使用 MPI_Reduce 而不是 MPI_Gather 后跟 sum。

关于c++ - MPI_Scatter 减慢了代码?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30560540/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com