- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
多处理是一个很棒的工具,但使用大内存块并不是那么简单。您可以在每个进程中加载 block 并将结果转储到磁盘上,但有时您需要将结果存储在内存中。最重要的是,使用花哨的 numpy 功能。
我阅读/搜索了很多内容并得出了一些答案:
Use numpy array in shared memory for multiprocessing
Share Large, Read-Only Numpy Array Between Multiprocessing Processes
Python multiprocessing global numpy arrays
How do I pass large numpy arrays between python subprocesses without saving to disk?
等等等等
它们都有缺点:不太主流的库(sharedmem
);全局存储变量;不太容易阅读代码、管道等。
我的目标是在我的工作人员中无缝地使用 numpy,而不必担心转换等问题。
经过多次试验,我想出了 this .它适用于我的 ubuntu 16、python 3.6、16GB、8 核机器。与以前的方法相比,我做了很多“捷径”。没有全局共享状态,没有需要在 worker 内部转换为 numpy 的纯内存指针,作为进程参数传递的大型 numpy 数组等。
Pastebin link above , 但我会在这里放一些片段。
一些导入:
import numpy as np
import multiprocessing as mp
import multiprocessing.sharedctypes
import ctypes
分配一些共享内存并将其包装到一个 numpy 数组中:
def create_np_shared_array(shape, dtype, ctype)
. . . .
shared_mem_chunck = mp.sharedctypes.RawArray(ctype, size)
numpy_array_view = np.frombuffer(shared_mem_chunck, dtype).reshape(shape)
return numpy_array_view
创建共享数组并在里面放一些东西
src = np.random.rand(*SHAPE).astype(np.float32)
src_shared = create_np_shared_array(SHAPE,np.float32,ctypes.c_float)
dst_shared = create_np_shared_array(SHAPE,np.float32,ctypes.c_float)
src_shared[:] = src[:] # Some numpy ops accept an 'out' array where to store the results
生成进程:
p = mp.Process(target=lengthly_operation,args=(src_shared, dst_shared, k, k + STEP))
p.start()
p.join()
以下是一些结果(完整引用见 pastebin 代码):
Serial version: allocate mem 2.3741257190704346 exec: 17.092209577560425 total: 19.46633529663086 Succes: True
Parallel with trivial np: allocate mem 2.4535582065582275 spawn process: 0.00015354156494140625 exec: 3.4581971168518066 total: 5.911908864974976 Succes: False
Parallel with shared mem np: allocate mem 4.535916328430176 (pure alloc:4.014216661453247 copy: 0.5216996669769287) spawn process: 0.00015664100646972656 exec: 3.6783478260040283 total: 8.214420795440674 Succes: True
我还做了一个 cProfile
(为什么在分配共享内存时多了 2 秒?)并意识到有一些对 tempfile.py
的调用,{ “_io.BufferedWriter”对象的“写入”方法
。
问题
注意事项
最佳答案
共享数组的分配很慢,因为它显然是先写入磁盘,所以可以通过 mmap 共享。有关引用,请参阅 heap.py和 sharedctypes.py .这就是 tempfile.py
出现在探查器中的原因。我认为这种方法的优点是在发生崩溃时清理共享内存,而 POSIX 共享内存不能保证这一点。
感谢 fork,您的代码不会发生 pickling,正如您所说,内存是继承的。第二次运行不起作用的原因是子进程不允许写入父进程的内存。相反,私有(private)页面是动态分配的,只有在子进程结束时才会被丢弃。
我只有一个建议:您不必自己指定 ctype,可以通过 np.ctypeslib._typecodes
从 numpy dtype 中找出正确的类型。或者只是对所有内容使用 c_byte
并使用 dtype itemsize 来计算缓冲区的大小,无论如何它都会被 numpy 转换。
关于python - 用于多处理的共享内存中的大型 numpy 数组 : Is something wrong with this approach?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46811709/
作为脚本的输出,我有 numpy masked array和标准numpy array .如何在运行脚本时轻松检查数组是否为掩码(具有 data 、 mask 属性)? 最佳答案 您可以通过 isin
我的问题 假设我有 a = np.array([ np.array([1,2]), np.array([3,4]), np.array([5,6]), np.array([7,8]), np.arra
numpy 是否有用于矩阵模幂运算的内置实现? (正如 user2357112 所指出的,我实际上是在寻找元素明智的模块化减少) 对常规数字进行模幂运算的一种方法是使用平方求幂 (https://en
我已经在 Numpy 中实现了这个梯度下降: def gradientDescent(X, y, theta, alpha, iterations): m = len(y) for i
我有一个使用 Numpy 在 CentOS7 上运行的项目。 问题是安装此依赖项需要花费大量时间。 因此,我尝试 yum install pip install 之前的 numpy 库它。 所以我跑:
处理我想要旋转的数据。请注意,我仅限于 numpy,无法使用 pandas。原始数据如下所示: data = [ [ 1, a, [, ] ], [ 1, b, [, ] ], [ 2,
numpy.random.seed(7) 在不同的机器学习和数据分析教程中,我看到这个种子集有不同的数字。选择特定的种子编号真的有区别吗?或者任何数字都可以吗?选择种子数的目标是相同实验的可重复性。
我需要读取存储在内存映射文件中的巨大 numpy 数组的部分内容,处理数据并对数组的另一部分重复。整个 numpy 数组占用大约 50 GB,我的机器有 8 GB RAM。 我最初使用 numpy.m
处理我想要旋转的数据。请注意,我仅限于 numpy,无法使用 pandas。原始数据如下所示: data = [ [ 1, a, [, ] ], [ 1, b, [, ] ], [ 2,
似乎 numpy.empty() 可以做的任何事情都可以使用 numpy.ndarray() 轻松完成,例如: >>> np.empty(shape=(2, 2), dtype=np.dtype('d
我在大型 numpy 数组中有许多不同的形式,我想使用 numpy 和 scipy 计算它们之间的边到边欧氏距离。 注意:我进行了搜索,这与堆栈中之前的其他问题不同,因为我想获得数组中标记 block
我有一个大小为 (2x3) 的 numpy 对象数组。我们称之为M1。在M1中有6个numpy数组。M1 给定行中的数组形状相同,但与 M1 任何其他行中的数组形状不同。 也就是说, M1 = [ [
如何使用爱因斯坦表示法编写以下点积? import numpy as np LHS = np.ones((5,20,2)) RHS = np.ones((20,2)) np.sum([ np.
假设我有 np.array of a = [0, 1, 1, 0, 0, 1] 和 b = [1, 1, 0, 0, 0, 1] 我想要一个新矩阵 c 使得如果 a[i] = 0 和 b[i] = 0
我有一个形状为 (32,5) 的 numpy 数组 batch。批处理的每个元素都包含一个 numpy 数组 batch_elem = [s,_,_,_,_] 其中 s = [img,val1,val
尝试为基于文本的多标签分类问题训练单层神经网络。 model= Sequential() model.add(Dense(20, input_dim=400, kernel_initializer='
首先是一个简单的例子 import numpy as np a = np.ones((2,2)) b = 2*np.ones((2,2)) c = 3*np.ones((2,2)) d = 4*np.
我正在尝试平均二维 numpy 数组。所以,我使用了 numpy.mean 但结果是空数组。 import numpy as np ws1 = np.array(ws1) ws1_I8 = np.ar
import numpy as np x = np.array([[1,2 ,3], [9,8,7]]) y = np.array([[2,1 ,0], [1,0,2]]) x[y] 预期输出: ar
我有两个数组 A (4000,4000),其中只有对角线填充了数据,而 B (4000,5) 填充了数据。有没有比 numpy.dot(a,b) 函数更快的方法来乘(点)这些数组? 到目前为止,我发现
我是一名优秀的程序员,十分优秀!