- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我需要做一些类似 MPI_Gather 的事情,但我需要按照不同于进程等级的顺序存储收集到的数据。我以为我可以做这样的事情:
int i;
int gathervals[10];
int my_val, my_place_in_storage;
/* init MPI etc ... then ... */
my_val = some_fcn_of_rank(my_rank, ...)
my_place_in_storage = some_other_fcn(my_val, my_rank, ...)
if (my_rank == 0){
/* my_val on proc 0 does go in gathervals[0], which simplifies
things */
gathervals[0] = my_val;
for (i=1; i<num_procs; i++){
MPI_Recv(&gathervals[i], 1, MPI_INT, MPI_ANY_SOURCE,
i, MPI_COMM_WORLD, stat_mpi);
}
}else{
MPI_Send(&mv_val, 1, MPI_INT, 0, my_place_in_storage,
MPI_COMM_WORLD);
}
我的想法是 proc 0 将启动循环并等待直到从 my_place_in_storage
为 1 的 proc 发送发送,然后 proc 0 将接收该消息并将值放入 gathervals[1]
。然后它将迭代并等待,直到它看到 my_place_in_storage
为 2 的 proc 的帖子,等等。
这应该有效吗?我在 proc 0 上遇到段错误,我想找出原因。我认为这段代码可能有点非正统,但可以作为起点。我已经验证了所有 my_place_in_storage
值的正确性。
最佳答案
另一种选择是使用 MPI_Comm_split 创建一个新的通信器,它包含与 MPI_COMM_WORLD 所有相同的进程,但排列成基于“my_place_in_storage”的新顺序。如果每个人都提供相同的“颜色”值,那么他们都属于同一个通信器,但使用“my_place_in_storage”作为“键”,您就可以这样做。
Communicator 创建有一些开销,但如果您使用相同的“my_place_in_storage”值多次执行此操作,这可能比使用两次收集更有效。请注意,在新的通信器中,您也可以只使用 gather,它也应该比 gatherv 更快。
关于c - 在 MPI 中收集,但不使用 MPI_Gather,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37954588/
我在每个处理器(假设 3 个处理器)的本地数组(名为 lvotes)上都有一个值,每个处理器的第一个元素都存储一个值,即: P0 : 4 P1 : 6 p2 : 7 现在,使用 MPI_Gather,
我正在使用 MPI_Scatter 和 MPI_Gather 实现矩阵乘法。如果进程数平均分为矩阵行数和列数,我的代码就可以正常工作。但是,当它们不均匀划分时,它会在 MPI_Gather 上崩溃。这
#include #include int main(int argc,char * argv[]) { int rank,size,m; int ar
我是第一次使用 MPI_Gather 并遵循了一些示例,但出于某种原因,我每次调用它时都会遇到段错误。相关代码在这里: //Get the top N matches for each nod
我有两个 MPI 进程。每个进程都有一个相同大小的数组。我想将两个数组合并为一个双倍大小的数组。我应该使用哪个 mpi 接口(interface)? 例如,我有两个数组: 我想让他们进入排名 0: 我
我需要在我的矩阵乘法程序中使用 MPI_Gather 函数,但最近几天遇到了问题。 因此,我单独使用 gather 函数编写了一个简单的 MPI 程序,并一直试图让它运行……为此,我引用了“Peter
N 是 4,N_glob 也是。它恰好大小相同。 p 为 4。 下面是一小部分代码: float **global_grid; float **gridPtr; lengthSubN = N/pSqr
我有这个并行高斯消除代码。调用 MPI_Gather 函数调用时会发生段错误。我知道如果没有为两个缓冲区正确分配内存,这样的错误可能会增加。但是我看不出内存管理代码有什么问题。 有人可以帮忙吗? 谢谢
这是来自 MPI_Gather 2D array 的后续问题.这是情况: id = 0 has this submatrix |16.000000| |11.000000| |12.000000| |
我尝试使用 MPI_Gather 发送以下数据结构: struct set { int nbits; char bits[]; }; 问题是我无法收集上述结构的所有项目,只能收集第一
我正在尝试使用 MPI_Gather 收集结构数组。我使用 MPI_Type_contigulous 创建了一个结构“Final”的派生数据类型“mystruct”(每个元素都是 double )。然
我有一个主进程和更多从进程。我希望每个从进程向主进程发送一个整数,所以我想我应该使用 MPI_Gather 收集它们。但不知怎的,它不起作用,我开始认为 MPI_Gather 与 MPI_Send 不
我正在尝试编写 MPI C 代码,该代码重复执行计算并将其结果保存到单个数组中,以降低输出频率。下面的示例代码(var 的大小,200,足以满足正在使用的 CPU 数量): #include #in
我尝试编写“查找素数”代码。但是 MPI_Gather 函数无法获取“c”的值(素数)。即使我声明其他数组也不起作用。我的代码源有什么问题?当我删除 MPI_Gather 函数的部分时,效果很好。我是
所以我想做的是将输入字符串“HELO”打印为“HEELLLOOOO”到目前为止,我已经想出了这段代码 #include #include #include int main(int argc,
我试图让每个进程计算总和,然后将总和发送回根进程。 但是, printf("\nSUMS[%d] = %d",i,sums[i]); 行打印出的总和与 printf("中打印的总和不同\n我是进程 %
我正在尝试将数据传递给MPI_Gather。我按如下方式分配内存: float *phie, *phitemp; MPI_Comm_size(MPI_COMM_WORLD, &size); MPI_C
我正在尝试使用 OpenMPI 为我的本科高级项目构建一个多进程光线追踪器,以便我可以在我学校的 super 计算机上运行它。 我已经到了代码可以正常编译和运行的地步,直到我到达该行 MPI_Gath
我在 C 语言的 MPI 代码中遇到问题。 我想我创建了一个很好的算法来处理二维数组的双循环。但是,当我尝试使用 MPI_Gather 从进程中收集数据时,出现段错误。这是代码: #define NN
在 MPI 聚集和分散中,发送和接收有两个计数。我检查了文档,发现两者应该具有相同的值。 Ex:- 在 MPI_Gather() 中,send_count 和 receive_count 的大小都应该
我是一名优秀的程序员,十分优秀!