- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在运行一个具有 mpirun 和 2 个核心的进程,当我在两个进程之间混合值时,它会被终止。两个进程都使用大约 15% 的机器内存,尽管混合时内存会增加,但仍然应该有足够的内存剩余。因此,我假设用于在进程之间传递消息的内存量存在限制。 如何查明此限制是什么以及如何删除它?
当 mpirun 死掉时我收到的错误消息是这样的:
File "Comm.pyx", line 864, in mpi4py.MPI.Comm.bcast (src/mpi4py.MPI.c:67787)
File "pickled.pxi", line 564, in mpi4py.MPI.PyMPI_bcast (src/mpi4py.MPI.c:31462)
File "pickled.pxi", line 93, in mpi4py.MPI._p_Pickle.alloc (src/mpi4py.MPI.c:26327)
SystemError: Negative size passed to PyBytes_FromStringAndSize
这是导致错误的代码:
sum_updates_j_k = numpy.zeros((self.col.J_total, self.K), dtype=numpy.float64))
comm.Reduce(self.updates_j_k, sum_updates_j_k, op=MPI.SUM)
sum_updates_j_k = comm.bcast(sum_updates_j_k, root=0)
代码通常可以工作,只会遇到大量数据的问题,这使得我在进程之间交换的矩阵的大小增加
最佳答案
罪魁祸首可能是在PyMPI_bcast()
代码中找到的以下几行:
cdef int count = 0
...
if dosend: smsg = pickle.dump(obj, &buf, &count) # <----- (1)
with nogil: CHKERR( MPI_Bcast(&count, 1, MPI_INT, # <----- (2)
root, comm) )
cdef object rmsg = None
if dorecv and dosend: rmsg = smsg
elif dorecv: rmsg = pickle.alloc(&buf, count)
...
这里发生的是,首先使用 pickle.dump()
在 (1)
序列化该对象,然后在 广播 pickle 流的长度>(2)
.
这里有两个问题,它们都与使用 int
作为长度有关。第一个问题是pickle.dump 内部的整数转换,另一个问题是MPI_INT 用于传输pickle 流的长度。这会将矩阵中的数据量限制为一定大小 - 即导致 pickle 对象不大于 2 GiB(231-1 字节)的大小。任何更大的对象都会导致整数溢出,从而导致 count
中出现负值。
这显然不是 MPI 问题,而是 mpi4py
中的错误(或功能?)。
关于python - 如何取消 openmpi 进程的内存限制?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20023742/
我有一组需要在集群中执行的计算操作(可能像 512 MPI 进程)。现在,我让集群上的根节点打开一个套接字并在计算操作之间将数据传输到我的本地计算机,但我想知道是否可以只创建两个 MPI 组,其中一个
我的 Linux 机器上有一个可执行文件,我知道它是使用 OpenMPI 或 MPICH 库编译的。 问题:如何确定是哪一个? 最佳答案 以下诊断过程假设 MPICH/MPICH2 和 Open MP
我有一个为 gcc 编写的用于并行计算的 C 代码,我想在集群上编译它,这显然是通过 mpicc opal_wrapper -rwxr-xr-x /usr/bin/opal_wrapper 如果我能
我正在具有OpenMPI的服务器上编译我的代码,但是我需要知道我使用的版本,以便阅读正确的文档。我可以打印中的常量来显示当前版本吗? 最佳答案 使用OpenMPI,最简单的方法是运行ompi_info
例如,我使用mpirun -n 4 启动4个进程。进程 0 接收来自进程 1、进程 2 和进程 3 的消息。进程1按照message0, message1, message2的顺序发送消息。当进程0收
在阻塞和非阻塞操作(在 OpenMPI 中)的上下文中,我对同步的概念有点混淆 - 从这里开始: link 1 :MPI_Isend是 不一定异步(所以它可以同步?) link 2 :MPI_Isen
有人可以详细说明 MPI 的 OpenMPI 和 MPICH 实现之间的区别吗? 两者中哪一个是更好的实现? 最佳答案 目的 首先,重要的是要认识到 MPICH 和 Open-MPI 的不同之处,即它
我正在用 C 语言学习 OpenMPI。我在用这个程序做矩阵乘法时遇到了一些麻烦,结果是错误的。程序编译通过了,但是我觉得我的矩阵乘法算法哪里有问题。 我解决这个问题的方法是使用 MPI_Scatte
在MPI中,启动后是否可以添加新节点?例如,我有 2 台计算机已经在运行并行 MPI 应用程序。我在第三台计算机上启动此应用程序的另一个实例,并将其添加到现有的通信器中。所有计算机都在本地网络中。 最
我已成功在服务器和我的计算机之间设置无密码 ssh。有一个简单的openMPI程序,在单机上运行良好。但是,不幸的是,当我在集群上尝试此操作时,我既没有收到密码提示(因为我已经设置了 ssh 授权),
我一直在使用 OpenMPI,但在需要从我的过程中获得排名时,我没有得到预期的行为。 我有一个简单的 C 程序,应该打印每个进程的排名: minimal.c: #include #include "
我正在尝试并行化 BMP 图像的灰度过滤器,当尝试从像素数组发送数据时,我的函数卡住了。 #include #include #include #include #include "mpi.h
我希望使用此代码执行以下操作: 将文件读入缓冲区(效果很好!)(并且不希望更改我读取文件的方式或存储文件的方式)。 使用MPI_Scatter跨多个“节点”发送该缓冲区,因此每个节点都可以计算空白的次
我正在努力了解 OpenMPI 中的信号处理。我读到“Open MPI 会将 SIGUSR1 和 SIGUSR2 从 mpiexec 转发到其他进程”。我的问题是默认安装时启用此功能。 场景是一个 M
几天以来,我一直在努力解决这个问题。我有一个混合 OpenMPI + Pthreads 程序。这意味着,程序在多台机器上运行,每台机器运行一组 pthreads。 为了简化问题,让我们假设有 3 台机
我有一些使用 OpenMPI 的 *.cpp 文件。我还有 *.h 文件,其中包含指定给我的函数(其中一些)和它们的实现: void Show(std::string s); void ShowLin
目前,我有一个很好的 c++ 图算法,它是用链表或链表数组的自定义结构定义编写的(我应该将其转换为模板定义,但目前不是)。这个算法很容易分发,我想测试一下。但是,除了了解一些基本的 MPI 示例之外,
我包含一个静态头文件 utils.h 和一个函数 linspace。我的main.cpp文件如下: #include #include #include using namespace std;
我目前正在构建一个小型实用程序库,作为一个较大项目的一部分。OpenMPI 有一个记录良好的 API 库,但当涉及到节点之间的低级通信时,我有点困惑。我知道在编写你的算法时,你将它分布在所有预期进行计
你好:我正在为我设置一个 OpenMPI 环境,我在其中设置了三个使用无密码身份验证等的虚拟机。我有一个简单的“Hello World”样式程序已成功编译/链接: #include #include
我是一名优秀的程序员,十分优秀!