gpt4 book ai didi

python - 如何将自定义函数应用于并行配对数组的元素?

转载 作者:太空宇宙 更新时间:2023-11-03 23:59:55 27 4
gpt4 key购买 nike

我有一个数组,我想将每个元素与其他所有元素进行比较,并构建一个交叉比较表。它可以通过嵌套 for 循环轻松实现,但它的计算时间随着输入数组大小呈指数增长,因此我想实现一种并行处理方法,以减少较大尺寸时的时间消耗。

我有一个数组,例如 a = [1,2,3],我想应用一个自定义函数,例如:

def add_two_numbers(x,y):
return x+y

一个简单的嵌套 for 循环实现如下:

array = [1,2,3]
matrix = np.zeros([3,3])
for i, one_element in enumerate(array):
for j, other_element in enumerate(array):
matrix[i][j] = add_two_numbers(one_element, other_element)

输出为:

>>> matrix
1 2 3
______________
1 | 2 3 4
2 | 3 4 5
3 | 4 5 6

在 python 中对大型数组应用并行处理的好方法是什么?
我使用 python 多处理库中的进程类为 n 元素数组创建 n 个进程,但是每个进程在后端打开一个文件,在 1024 个并行进程之后我得到一个“打开的文件太多”异常。而且我必须使矩阵成为一个全局变量,以便每个进程更新一个特定的元素。

import multiprocessing as mp

def add_two_numbers_process(one_element, array, i):
global matrix
for j, other_element in enumerate(array):
matrix[i][j] = add_two_numbers(one_element, other_element)
return

processes = []
for i, one_element in enumerate(array):
p = mp.Process(target=add_two_numbers_process, args=(one_element, array, i))
processes.append(p)
p.start()

for process in processes:
process.join()

我也用了Pool类,但是比process类多了1000倍的时间,这似乎不可行。

import multiprocessing as mp

def add_two_numbers_pool(one_element, array, i):
row = [0 for x in range(len(array))]
for j, other_element in enumerate(array):
row[j] = add_two_numbers(one_element, other_element)
return row

pool = mp.Pool(mp.cpu_count())
matrix = [pool.apply(add_two_numbers_pool, args=(one_element, array, i)) for i, one_element in enumerate(array)]
pool.close()

我想不出使用 dask 分布式的方法。 dask 分布式证明在这种情况下有用吗?

最佳答案

作为使用多处理的演示以及向量化与非向量化的区别,我们可以从定义/拉入共享代码开始:

from multiprocessing import Pool

import numpy as np

def add_two_numbers(x,y):
return x+y

# use a large number of values so processing takes some measurable amount of time
values = np.arange(3001)

然后我们可以做你天真的事情:

result = np.empty([len(values)]*2, values.dtype)
for i, x in enumerate(values):
for j, y in enumerate(values):
result[i,j] = add_two_numbers(x, y)

在我的笔记本电脑上大约需要 3.5 秒。然后我们可以将其移动到使用 multiprocessing Poolwith:

def process_row(x):
output = np.empty_like(values)
for i, y in enumerate(values):
output[i] = add_two_numbers(x, y)
return output

with Pool() as pool:
result = np.array(pool.map(process_row, values))

这需要我大约 1 秒钟的时间,然后我们可以在 Pool 中使用以下方法对其进行矢量化处理:

def process_row_vec(x):
return add_two_numbers(values, x)

with Pool() as pool:
result = np.array(pool.map(process_row_vec, values))

这需要 0.25 秒,最后我们可以使用完全矢量化的 numpy 版本:

x, y = np.meshgrid(values, values)
result = add_two_numbers(x, y)

这大约需要 0.09 秒(90 毫秒)。我还意识到,在处理如此大量的元素时,这些中间数组(xy)会占用大量计算时间,并对行进行矢量化更快:

result = np.empty([len(values)]*2, values.dtype)
for i, x in enumerate(values):
result[i,:] = add_two_numbers(x, values)

耗时 0.05 秒(50 毫秒)。

希望这些例子能给你一些关于如何实现你的算法的想法!

关于python - 如何将自定义函数应用于并行配对数组的元素?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56037374/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com