- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我有一个存储数组的数组(称为 sendbuff),我想通过使用 MPI::Scatter 将这些数组发送到其他线程。
sendbuff
##### ###############################
p # 0 # -> # -1 # -1 # -1 # -1 # -1 # -1 # (values)
o ##### ###############################
s # 1 # -> # -1 # -1 # -1 # -1 # -1 # -1 # (values)
##### ###############################
可以看出,sendbuff[0]
包含一个大小为 6 的数组,该数组有 6 个值(全部为 -1),而 sendbuff[1]
具有相同的大小事物。我想将那些 -1 的数组发送到其他线程,并将它们保存在一个名为 recvbuff 的数组中,该数组用 0 填充:
recvbuff
#########################
# 0 # 0 # 0 # 0 # 0 # 0 #
#########################
我研究了操作系统的答案并找到了一些,但他们使用 MPI_Datatype 但我想避免它。为了尝试实现这个目标,我编写了以下不起作用的代码:
int main( int argc, char *argv[]){
//variable innitialization
int taskid, ntasks, buffsize, **sendbuff, *recvbuff;
MPI::Init(argc, argv);
taskid = MPI::COMM_WORLD.Get_rank();
ntasks = MPI::COMM_WORLD.Get_size();
buffsize = 6;
//memory innitialization
recvbuff = new int[buffsize];
sendbuff = new int*[ntasks];
for(int i = 0; i < ntasks; i++){
sendbuff[i] = new int[buffsize];
}
//array innitialization
for(int i = 0; i < buffsize; i++){
recvbuff[i] = 0;
}
for(int i = 0; i < ntasks; i++){
for(int j = 0; j < buffsize; j++){
sendbuff[i][j] = -1;
}
}
//communication
MPI::COMM_WORLD.Scatter(sendbuff[0], buffsize, MPI::INT, recvbuff, buffsize,
MPI::INT, 0);
//output
for(int i = 0; i < buffsize; i++){
cout<<"Task"<<taskid<<" recvbuff["<<i<<"] = "<<recvbuff[i] << endl;
}
//cleaning
for(int i = 0; i < ntasks; i++){
delete[] sendbuff[i];
}
delete[] sendbuff;
delete[] recvbuff;
MPI::Finalize();
return EXIT_SUCCESS;
}
在使用分散后,我希望他的 recvbuff
变量填充有 -1 值,但是我得到了 -1 和垃圾的混合,如下所示:
$ mpirun -np 3 a.out
Task0 recvbuff[0] = -1
Task0 recvbuff[1] = -1
Task0 recvbuff[2] = -1
Task0 recvbuff[3] = -1
Task0 recvbuff[4] = -1
Task0 recvbuff[5] = -1
Task1 recvbuff[0] = 33
Task1 recvbuff[1] = 0
Task1 recvbuff[2] = -1
Task1 recvbuff[3] = -1
Task1 recvbuff[4] = -1
Task1 recvbuff[5] = -1
Task2 recvbuff[0] = -1
Task2 recvbuff[1] = -1
Task2 recvbuff[2] = 33
Task2 recvbuff[3] = 0
Task2 recvbuff[4] = 1768975727
Task2 recvbuff[5] = 7496543
我做错了什么?提前致谢,佩德罗。
最佳答案
分散和聚集的描述比较详细in this answer . Scatter 拆分数据并将碎片分散到其他任务,但数据必须存储在连续的内存中 - MPI_Scatter 无法知道它需要跟随指针,如果需要,有多少 - 以及你分配 sendbuff 的方式:
sendbuff = new int*[ntasks];
for(int i = 0; i < ntasks; i++){
sendbuff[i] = new int[buffsize];
}
sendbuff 的不同行可能分散在整个系统内存中。如果您连续分配数据,您就差不多了:
sendbuff = new int*[ntasks];
sendbuff[0] = new int[ntasks * 6];
for(int i = 1; i < ntasks; i++){
sendbuff[i] = &(sendbuff[0][i*6];
}
现在您应该可以分散了,但要注意第 0 行将进入第 0 行;也就是说,分散到通信器中的所有进程。如果您只是想发送给您的非零秩任务,最简单的做法是在 sendbuff 中为秩 0 保留一行虚拟数据,以便正常的分散工作正常进行:
#include <iostream>
#include <mpi.h>
int main(int argc, char **argv)
{
int rank, size;
const int nelem = 6;
MPI_Init(&argc, &argv);
MPI_Comm_rank(MPI_COMM_WORLD, &rank);
MPI_Comm_size(MPI_COMM_WORLD, &size);
int **sendbuff = new int*[size];
int *recvbuff = new int[nelem];
if (rank == 0) {
sendbuff[0] = new int[nelem * size];
for (int i=0; i<size; i++)
sendbuff[i] = &(sendbuff[0][nelem*i]);
for (int i=0; i<size; i++)
for (int j=0; j<nelem; j++)
sendbuff[i][j] = i-1;
}
MPI_Scatter(sendbuff[0], nelem, MPI_INT, recvbuff, nelem, MPI_INT, 0, MPI_COMM_WORLD);
if (rank != 0) {
std::cout << "Scatter: [ " << rank << "]: ";
for (int i=0; i<nelem; i++)
std::cout << recvbuff[i] << " ";
std::cout << std::endl;
for (int i=0; i<nelem; i++)
recvbuff[i] *= recvbuff[i];
}
MPI_Gather(recvbuff, nelem, MPI_INT, sendbuff[0], nelem, MPI_INT, 0, MPI_COMM_WORLD);
if (rank == 0) {
for (int j=1; j<size; j++) {
std::cout << "Gather: [ " << j << "]: ";
for (int i=0; i<nelem; i++)
std::cout << sendbuff[j][i] << " ";
std::cout << std::endl;
}
}
delete [] recvbuff;
if (rank == 0)
delete [] sendbuff[0];
delete [] sendbuff;
MPI_Finalize();
}
请注意,我们正在分散数据,工作人员正在对数字进行平方,而主服务器将其收集回来。编译运行给出:
$ mpic++ -o intercomm intercomm.cxx
$ mpirun -np 4 ./intercomm
Scatter: [ 2]: 1 1 1 1 1 1
Scatter: [ 1]: 0 0 0 0 0 0
Scatter: [ 3]: 2 2 2 2 2 2
Gather: [ 1]: 0 0 0 0 0 0
Gather: [ 2]: 1 1 1 1 1 1
Gather: [ 3]: 4 4 4 4 4 4
如果您宁愿避免排名 0 的虚拟数据——可能很大——您可以将任务分成两组,主任务和工作任务,并设置一个 intercommunicator这允许它们之间的集体通信。这是一个简单的程序,它就是这样做的:
#include <iostream>
#include <mpi.h>
int main(int argc, char **argv)
{
MPI_Comm localComm; /* intra-communicator of local sub-group */
MPI_Comm interComm; /* inter-communicator */
int masterworker;
int rank, size;
const int nelem = 6;
int rootrank;
MPI_Init(&argc, &argv);
MPI_Comm_rank(MPI_COMM_WORLD, &rank);
MPI_Comm_size(MPI_COMM_WORLD, &size);
masterworker = (rank == 0 ? 0 : 1);
MPI_Comm_split(MPI_COMM_WORLD, masterworker, rank, &localComm);
if (masterworker == 0)
{
MPI_Intercomm_create( localComm, 0, MPI_COMM_WORLD, 1, 1, &interComm);
rootrank = ( rank == 0 ? MPI_ROOT : MPI_PROC_NULL );
}
else {
MPI_Intercomm_create( localComm, 0, MPI_COMM_WORLD, 0, 1, &interComm);
rootrank = 0;
}
int **sendbuff = new int*[size-1];
int *recvbuff = new int[nelem];
if (rank == 0) {
sendbuff[0] = new int[nelem * (size-1)];
for (int i=1; i<size-1; i++)
sendbuff[i] = &(sendbuff[0][nelem*i]);
for (int i=0; i<size-1; i++)
for (int j=0; j<nelem; j++)
sendbuff[i][j] = i;
}
MPI_Scatter(sendbuff[0], nelem, MPI_INT, recvbuff, nelem, MPI_INT, rootrank, interComm);
if (masterworker == 1) {
std::cout << "Scatter: [ " << rank << "]: ";
for (int i=0; i<nelem; i++)
std::cout << recvbuff[i] << " ";
std::cout << std::endl;
for (int i=0; i<nelem; i++)
recvbuff[i] *= recvbuff[i];
}
MPI_Gather(recvbuff, nelem, MPI_INT, sendbuff[0], nelem, MPI_INT, rootrank, interComm);
if (masterworker == 0) {
for (int j=0; j<size-1; j++) {
std::cout << "Gather: [ " << j << "]: ";
for (int i=0; i<nelem; i++)
std::cout << sendbuff[j][i] << " ";
std::cout << std::endl;
}
}
MPI_Comm_free(&interComm);
MPI_Comm_free(&localComm);
delete [] recvbuff;
if (rank == 0)
delete [] sendbuff[0];
delete [] sendbuff;
MPI_Finalize();
}
同样,编译和运行给出:
$ mpic++ -o intercomm intercomm.cxx
$ mpirun -np 4 ./intercomm
Scatter: [ 1]: 0 0 0 0 0 0
Scatter: [ 2]: 1 1 1 1 1 1
Scatter: [ 3]: 2 2 2 2 2 2
Gather: [ 0]: 0 0 0 0 0 0
Gather: [ 1]: 1 1 1 1 1 1
Gather: [ 2]: 4 4 4 4 4 4
或者,如果您不想弄乱内部通信器,只需在 sendbuff 中为等级 0 保留一行虚拟数据,以便正常的散布正常工作:
#include <iostream>
#include <mpi.h>
int main(int argc, char **argv)
{
int rank, size;
const int nelem = 6;
MPI_Init(&argc, &argv);
MPI_Comm_rank(MPI_COMM_WORLD, &rank);
MPI_Comm_size(MPI_COMM_WORLD, &size);
int **sendbuff = new int*[size];
int *recvbuff = new int[nelem];
if (rank == 0) {
sendbuff[0] = new int[nelem * size];
for (int i=0; i<size; i++)
sendbuff[i] = &(sendbuff[0][nelem*i]);
for (int i=0; i<size; i++)
for (int j=0; j<nelem; j++)
sendbuff[i][j] = i-1;
}
MPI_Scatter(sendbuff[0], nelem, MPI_INT, recvbuff, nelem, MPI_INT, 0, MPI_COMM_WORLD);
if (rank != 0) {
std::cout << "Scatter: [ " << rank << "]: ";
for (int i=0; i<nelem; i++)
std::cout << recvbuff[i] << " ";
std::cout << std::endl;
for (int i=0; i<nelem; i++)
recvbuff[i] *= recvbuff[i];
}
MPI_Gather(recvbuff, nelem, MPI_INT, sendbuff[0], nelem, MPI_INT, 0, MPI_COMM_WORLD);
if (rank == 0) {
for (int j=1; j<size; j++) {
std::cout << "Gather: [ " << j << "]: ";
for (int i=0; i<nelem; i++)
std::cout << sendbuff[j][i] << " ";
std::cout << std::endl;
}
}
delete [] recvbuff;
if (rank == 0)
delete [] sendbuff[0];
delete [] sendbuff;
MPI_Finalize();
}
再次编译运行得到:
$ mpic++ -o intercomm intercomm.cxx
$ mpirun -np 4 ./intercomm
Scatter: [ 2]: 1 1 1 1 1 1
Scatter: [ 1]: 0 0 0 0 0 0
Scatter: [ 3]: 2 2 2 2 2 2
Gather: [ 1]: 0 0 0 0 0 0
Gather: [ 2]: 1 1 1 1 1 1
Gather: [ 3]: 4 4 4 4 4 4
关于c++ - 将数组分散到仅工作任务,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15589000/
TL;DR:问题:是否有一种快速方法可以在特定坐标处插入分散的二维数据集? 如果是的话,有人可以提供一个示例,其中包含“当前解决方案”中使用的示例数据和变量(因为我自己实现它显然很愚蠢)。 问题:
我正在使用 n = 2 运行我的代码。我一直在尝试研究,但我不明白为什么当我尝试多次运行我的代码时会获得不同的输出。 在下面,您可以看到当我使用 n = 2 运行时的输出,并且我的 txt.file
我正在处理 BML 自动机的 MPI 版本,但 MPI_Scatter() 不会像我预期的那样工作。我读了here对于集体通信功能,每个进程都需要它的数组副本,只是没有初始化的分配空间。在我的代码中,
已关闭。此问题不符合Stack Overflow guidelines 。目前不接受答案。 这个问题似乎与 help center 中定义的范围内的编程无关。 . 已关闭 6 年前。 Improve
我需要将输入字符串拆分为输出字符串(按一定顺序)通过在输入字符串上应用一组正则表达式。我想实现这个功能与 akka Actor 集群一起使用,我将其分散正则表达式和输入字符串并收集字符串。不过我想知道
我在使用 MPI4Py Python 模块中的 Scatter 函数时遇到问题。我的假设是我应该能够向它传递发送缓冲区的单个列表。但是,当我这样做时,或者确实添加其他两个参数,recvbuf 和 ro
我的问题是,我想用与所有其他点不同的颜色绘制此结构的 0,0,0 点。但是绘图只显示所选颜色的轮廓,而这个球的内部仍然是相同的颜色其他的。我不明白这是怎么回事。 from mpl_toolkits.m
我正在尝试使用克隆调用两个端点并收集它们的信息以通过聚合发送,我必须将其与分散收集中介器一起使用。每个端点返回一个 json 字符串。但我一直遇到“期望 SOAP Envelope 的实现作为父级”错
我正在构建一个 Angular 元素,我在其中使用预先设计的 html 模板。我在加载页面时使用延迟加载,我不完全知道如何描述这个问题,我只能说当我加载页面时,css 得到分散,如我附上的 gif 所
plotly.js 新手(我处于 Angular 环境中) 我想将痕迹放在多选下拉菜单中。所有 y 轴都相同。能够切换这些的可见性。建议...简单/正确的方法。 我尝试用 css 影响 svg 容器,
我一直在尝试弄清楚我们应该如何使用 AVX512 中的分散指令来分散 16 位整数。我所拥有的是 8 x 16 位整数,存储在 __m256i 的每个 32 位整数中。我会使用 _mm512_i32e
我正在编写一个FUSE覆盖文件系统(notifyfs),它可以是一个数据库客户端可以从中获取数据通过查询。我的目的是使其成为缓存/overlayfs/数据库,客户端可以在显示条目及其属性(属性以及 m
我已经搜索了一段时间,但似乎无法在文档或 SO 上找到任何有用的信息。 This question并没有真正帮助我,因为它引用了修改程序集,而我正在用 C 语言编写。 我有一些代码进行间接访问,我想对
我正在通过分散模型、蓝图来重构我的 Flask 应用程序,但我遇到了运行时错误。 def create_app(): app = flask.Flask("app") app.conf
大多数 pyplot 示例都使用线性数据,但如果数据是分散的呢? x = 3,7,9 y = 1,4,5 z = 20,3,7 更好的 contourf 网格 xi = np.linspace(min
我可以合并 Mono> 的列表吗?数据源整合为单个Mono>包含所有项目而不阻塞? 在我的带有 Lombok 分散收集应用程序的 JDK 9 Spring Boot 2 中,此阻塞版本有效:
我正在使用 FFCalender .在那个 MonthView 中分散了 在模拟器 iPad 2 8.0、iPad 2 7.0、iPad Retina 7.0 和 iPad Retina 8.0 中没
我是一名优秀的程序员,十分优秀!