- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个使用 openmpi 编译和运行的代码。最近,我想使用 Intel MPI 运行同样的代码。但是我的代码没有按预期工作。我深入研究了代码,发现 MPI_Send 在两个实现中的行为不同。
我从不同的论坛得到了使用 MPI_Isend 而不是来自不同论坛的 MPi_Send 的建议。但这需要大量工作来修改代码。英特尔 MPI 中是否有任何变通方法可以使其像在 OpenMPI 中一样工作。可能是一些标志或增加缓冲区或其他东西。预先感谢您的回答。
int main(int argc, char **argv) {
int numRanks;
int rank;
char cmd[] = "Hello world";
MPI_Status status;
MPI_Init (&argc, &argv);
MPI_Comm_size (MPI_COMM_WORLD, &numRanks);
MPI_Comm_rank (MPI_COMM_WORLD, &rank);
if(rank == 0) {
for (int i=0; i< numRanks; i++) {
printf("Calling MPI_Send() from rank %d to %d\n", rank, i);
MPI_Send(&cmd,sizeof(cmd),MPI_CHAR,i,MPI_TAG,MPI_COMM_WORLD);
printf("Returned from MPI_Send()\n");
}
}
MPI_Recv(&cmd,sizeof(cmd),MPI_CHAR,0,MPI_TAG,MPI_COMM_WORLD,&status);
printf("%d receieved from 0 %s\n", rank, cmd);
MPI_Finalize();
}
# mpirun --allow-run-as-root -n 2 helloworld_openmpi
Calling MPI_Send() from rank 0 to 0
Returned from MPI_Send()
Calling MPI_Send() from rank 0 to 1
Returned from MPI_Send()
0 receieved from 0 Hello world
1 receieved from 0 Hello world
# mpiexec.hydra -n 2 /root/helloworld_intel
Calling MPI_Send() from rank 0 to 0
卡在 MPI_Send。
最佳答案
假定 MPI_Send()
会在匹配的接收被发布之前返回是不正确的,所以你的代码对于 MPI 标准是不正确的,你很幸运它没有挂起 Open MPI .
MPI 实现通常急于发送 small 消息,因此 MPI_Send()
可以立即返回,但这是标准和“小”消息未强制要求的实现选择取决于库版本、您使用的互连和其他因素。
这里唯一安全且可移植的选择是编写正确的代码。
FWIW,MPI_Bcast(cmd, ...)
更适合这里,假设所有等级都已经知道字符串长度加上 NUL 终止符。
最后但同样重要的是,缓冲区参数是 cmd
而不是 &cmd
。
关于c++ - OpenMPI MPI_Send 与 Intel MPI MPI_Send,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54682472/
我有一组需要在集群中执行的计算操作(可能像 512 MPI 进程)。现在,我让集群上的根节点打开一个套接字并在计算操作之间将数据传输到我的本地计算机,但我想知道是否可以只创建两个 MPI 组,其中一个
我的 Linux 机器上有一个可执行文件,我知道它是使用 OpenMPI 或 MPICH 库编译的。 问题:如何确定是哪一个? 最佳答案 以下诊断过程假设 MPICH/MPICH2 和 Open MP
我有一个为 gcc 编写的用于并行计算的 C 代码,我想在集群上编译它,这显然是通过 mpicc opal_wrapper -rwxr-xr-x /usr/bin/opal_wrapper 如果我能
我正在具有OpenMPI的服务器上编译我的代码,但是我需要知道我使用的版本,以便阅读正确的文档。我可以打印中的常量来显示当前版本吗? 最佳答案 使用OpenMPI,最简单的方法是运行ompi_info
例如,我使用mpirun -n 4 启动4个进程。进程 0 接收来自进程 1、进程 2 和进程 3 的消息。进程1按照message0, message1, message2的顺序发送消息。当进程0收
在阻塞和非阻塞操作(在 OpenMPI 中)的上下文中,我对同步的概念有点混淆 - 从这里开始: link 1 :MPI_Isend是 不一定异步(所以它可以同步?) link 2 :MPI_Isen
有人可以详细说明 MPI 的 OpenMPI 和 MPICH 实现之间的区别吗? 两者中哪一个是更好的实现? 最佳答案 目的 首先,重要的是要认识到 MPICH 和 Open-MPI 的不同之处,即它
我正在用 C 语言学习 OpenMPI。我在用这个程序做矩阵乘法时遇到了一些麻烦,结果是错误的。程序编译通过了,但是我觉得我的矩阵乘法算法哪里有问题。 我解决这个问题的方法是使用 MPI_Scatte
在MPI中,启动后是否可以添加新节点?例如,我有 2 台计算机已经在运行并行 MPI 应用程序。我在第三台计算机上启动此应用程序的另一个实例,并将其添加到现有的通信器中。所有计算机都在本地网络中。 最
我已成功在服务器和我的计算机之间设置无密码 ssh。有一个简单的openMPI程序,在单机上运行良好。但是,不幸的是,当我在集群上尝试此操作时,我既没有收到密码提示(因为我已经设置了 ssh 授权),
我一直在使用 OpenMPI,但在需要从我的过程中获得排名时,我没有得到预期的行为。 我有一个简单的 C 程序,应该打印每个进程的排名: minimal.c: #include #include "
我正在尝试并行化 BMP 图像的灰度过滤器,当尝试从像素数组发送数据时,我的函数卡住了。 #include #include #include #include #include "mpi.h
我希望使用此代码执行以下操作: 将文件读入缓冲区(效果很好!)(并且不希望更改我读取文件的方式或存储文件的方式)。 使用MPI_Scatter跨多个“节点”发送该缓冲区,因此每个节点都可以计算空白的次
我正在努力了解 OpenMPI 中的信号处理。我读到“Open MPI 会将 SIGUSR1 和 SIGUSR2 从 mpiexec 转发到其他进程”。我的问题是默认安装时启用此功能。 场景是一个 M
几天以来,我一直在努力解决这个问题。我有一个混合 OpenMPI + Pthreads 程序。这意味着,程序在多台机器上运行,每台机器运行一组 pthreads。 为了简化问题,让我们假设有 3 台机
我有一些使用 OpenMPI 的 *.cpp 文件。我还有 *.h 文件,其中包含指定给我的函数(其中一些)和它们的实现: void Show(std::string s); void ShowLin
目前,我有一个很好的 c++ 图算法,它是用链表或链表数组的自定义结构定义编写的(我应该将其转换为模板定义,但目前不是)。这个算法很容易分发,我想测试一下。但是,除了了解一些基本的 MPI 示例之外,
我包含一个静态头文件 utils.h 和一个函数 linspace。我的main.cpp文件如下: #include #include #include using namespace std;
我目前正在构建一个小型实用程序库,作为一个较大项目的一部分。OpenMPI 有一个记录良好的 API 库,但当涉及到节点之间的低级通信时,我有点困惑。我知道在编写你的算法时,你将它分布在所有预期进行计
你好:我正在为我设置一个 OpenMPI 环境,我在其中设置了三个使用无密码身份验证等的虚拟机。我有一个简单的“Hello World”样式程序已成功编译/链接: #include #include
我是一名优秀的程序员,十分优秀!