- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我一直在使用 OpenMPI,但在需要从我的过程中获得排名时,我没有得到预期的行为。
我有一个简单的 C 程序,应该打印每个进程的排名:
minimal.c:
#include <stdio.h>
#include "mpi.h"
int
main (int argc, char *argv[])
{
unsigned int procs;
unsigned int self;
MPI_Comm com;
/* MPI ini */
MPI_Init (&argc, &argv);
com = MPI_COMM_WORLD;
MPI_Comm_size (com, &procs);
MPI_Comm_rank (com, &self);
printf("My rank is %d\n", self);
/* MPI Finalize */
MPI_Finalize();
return 0;
}
我用它编译:
mpicc minimal.c -o minimal
<小时/>
现在,如果我在自己的计算机上运行以下命令:
mpirun -np 2 minimal
我得到以下跟踪:
$ mpirun -np 2 minimal
My rank is 0
My rank is 0
我觉得这很令人不安。
<小时/>所以,我继续挖掘 mpirun 手册,并最终使用 -display-devel-map 和 -report-bindings 打印附加信息,这就是跟踪我得到:
$ mpirun -np 2 -display-devel-map -report-bindings minimal
Data for JOB [53858,1] offset 0
Mapper requested: NULL Last mapper: round_robin Mapping policy: BYCORE Ranking policy: SLOT
Binding policy: CORE:IF-SUPPORTED Cpu set: NULL PPR: NULL Cpus-per-rank: 1
Num new daemons: 0 New daemon starting vpid INVALID
Num nodes: 1
Data for node: UX31A Launch id: -1 State: 2
Daemon: [[53858,0],0] Daemon launched: True
Num slots: 2 Slots in use: 2 Oversubscribed: FALSE
Num slots allocated: 2 Max slots: 0
Username on node: NULL
Num procs: 2 Next node_rank: 2
Data for proc: [[53858,1],0]
Pid: 0 Local rank: 0 Node rank: 0 App rank: 0
State: INITIALIZED App_context: 0
Locale: [BB/..]
Binding: [BB/..]
Data for proc: [[53858,1],1]
Pid: 0 Local rank: 1 Node rank: 1 App rank: 1
State: INITIALIZED App_context: 0
Locale: [../BB]
Binding: [../BB]
[UX31A:04861] MCW rank 1 bound to socket 0[core 1[hwt 0-1]]: [../BB]
[UX31A:04861] MCW rank 0 bound to socket 0[core 0[hwt 0-1]]: [BB/..]
My rank is 0
My rank is 0
这让我很困惑。
我正在使用 Ubuntu 16.04 和 apt 存储库中的 OpenMPI 软件包。我的电脑是华硕 UX31a。
如果有人能给我一些关于这里发生的事情的见解,我将非常感激。
谢谢!
最佳答案
感谢 Gilles Gouaillardet,我终于找到了发生的事情!
结果我安装了 mpich
库和 openmpi
bins!
这就是我所做的:
检查我的二进制文件中使用了哪个库:
$ ldd 最小
...
libmpich.so.12 =>/usr/lib/x86_64-linux-gnu/libmpich.so.12
...
$ dpkg -S/usr/lib/x86_64-linux-gnu/libmpich.so.12
libmpich12:amd64:/usr/lib/x86_64-linux-gnu/libmpich.so.12.1.0
检查哪个软件包提供了我的 mpicc
和 mpirun
二进制文件:
$ 哪个 mpirun
/usr/bin/mpirun
$ dpkg -S mpirun
openmpi-bin:/usr/bin/mpirun.openmpi
...
我删除了已安装的 mpich
软件包
sudo apt-get 删除 libmpich12 libmpich-dev
我安装了所需的 openmpi
库
sudo apt-get install libopenmpi-dev
完成后我再次编译:
$ mpicc minimal.c -o minimal
$ mpirun -np 2 minimal
My rank is 0
My rank is 1
万岁!
关于c - OpenMPI - 不同进程上的相同排名,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49261093/
我有一组需要在集群中执行的计算操作(可能像 512 MPI 进程)。现在,我让集群上的根节点打开一个套接字并在计算操作之间将数据传输到我的本地计算机,但我想知道是否可以只创建两个 MPI 组,其中一个
我的 Linux 机器上有一个可执行文件,我知道它是使用 OpenMPI 或 MPICH 库编译的。 问题:如何确定是哪一个? 最佳答案 以下诊断过程假设 MPICH/MPICH2 和 Open MP
我有一个为 gcc 编写的用于并行计算的 C 代码,我想在集群上编译它,这显然是通过 mpicc opal_wrapper -rwxr-xr-x /usr/bin/opal_wrapper 如果我能
我正在具有OpenMPI的服务器上编译我的代码,但是我需要知道我使用的版本,以便阅读正确的文档。我可以打印中的常量来显示当前版本吗? 最佳答案 使用OpenMPI,最简单的方法是运行ompi_info
例如,我使用mpirun -n 4 启动4个进程。进程 0 接收来自进程 1、进程 2 和进程 3 的消息。进程1按照message0, message1, message2的顺序发送消息。当进程0收
在阻塞和非阻塞操作(在 OpenMPI 中)的上下文中,我对同步的概念有点混淆 - 从这里开始: link 1 :MPI_Isend是 不一定异步(所以它可以同步?) link 2 :MPI_Isen
有人可以详细说明 MPI 的 OpenMPI 和 MPICH 实现之间的区别吗? 两者中哪一个是更好的实现? 最佳答案 目的 首先,重要的是要认识到 MPICH 和 Open-MPI 的不同之处,即它
我正在用 C 语言学习 OpenMPI。我在用这个程序做矩阵乘法时遇到了一些麻烦,结果是错误的。程序编译通过了,但是我觉得我的矩阵乘法算法哪里有问题。 我解决这个问题的方法是使用 MPI_Scatte
在MPI中,启动后是否可以添加新节点?例如,我有 2 台计算机已经在运行并行 MPI 应用程序。我在第三台计算机上启动此应用程序的另一个实例,并将其添加到现有的通信器中。所有计算机都在本地网络中。 最
我已成功在服务器和我的计算机之间设置无密码 ssh。有一个简单的openMPI程序,在单机上运行良好。但是,不幸的是,当我在集群上尝试此操作时,我既没有收到密码提示(因为我已经设置了 ssh 授权),
我一直在使用 OpenMPI,但在需要从我的过程中获得排名时,我没有得到预期的行为。 我有一个简单的 C 程序,应该打印每个进程的排名: minimal.c: #include #include "
我正在尝试并行化 BMP 图像的灰度过滤器,当尝试从像素数组发送数据时,我的函数卡住了。 #include #include #include #include #include "mpi.h
我希望使用此代码执行以下操作: 将文件读入缓冲区(效果很好!)(并且不希望更改我读取文件的方式或存储文件的方式)。 使用MPI_Scatter跨多个“节点”发送该缓冲区,因此每个节点都可以计算空白的次
我正在努力了解 OpenMPI 中的信号处理。我读到“Open MPI 会将 SIGUSR1 和 SIGUSR2 从 mpiexec 转发到其他进程”。我的问题是默认安装时启用此功能。 场景是一个 M
几天以来,我一直在努力解决这个问题。我有一个混合 OpenMPI + Pthreads 程序。这意味着,程序在多台机器上运行,每台机器运行一组 pthreads。 为了简化问题,让我们假设有 3 台机
我有一些使用 OpenMPI 的 *.cpp 文件。我还有 *.h 文件,其中包含指定给我的函数(其中一些)和它们的实现: void Show(std::string s); void ShowLin
目前,我有一个很好的 c++ 图算法,它是用链表或链表数组的自定义结构定义编写的(我应该将其转换为模板定义,但目前不是)。这个算法很容易分发,我想测试一下。但是,除了了解一些基本的 MPI 示例之外,
我包含一个静态头文件 utils.h 和一个函数 linspace。我的main.cpp文件如下: #include #include #include using namespace std;
我目前正在构建一个小型实用程序库,作为一个较大项目的一部分。OpenMPI 有一个记录良好的 API 库,但当涉及到节点之间的低级通信时,我有点困惑。我知道在编写你的算法时,你将它分布在所有预期进行计
你好:我正在为我设置一个 OpenMPI 环境,我在其中设置了三个使用无密码身份验证等的虚拟机。我有一个简单的“Hello World”样式程序已成功编译/链接: #include #include
我是一名优秀的程序员,十分优秀!