- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
下面的结果是,我有一个尴尬的并行for循环,我试图线程。有一点诡辩来解释这个问题,但是尽管有冗长的冗长,但我认为这应该是一个相当简单的问题,所以多处理模块被设计成容易解决的问题。
我有一个k个不同函数的长n数组,和一个abcissa的长n数组。由于在Efficient algorithm for evaluating a 1-d array of functions on a same-length 1d numpy array中描述的@ SeNeDLE提供了巧妙的解决方案,所以我有一个快速的基于NUMPY的算法,我可以用它来评估AbsiSa中的函数来返回纵列的纵列数组:
def apply_indexed_fast(abcissa, func_indices, func_table):
""" Returns the output of an array of functions evaluated at a set of input points
if the indices of the table storing the required functions are known.
Parameters
----------
func_table : array_like
Length k array of function objects
abcissa : array_like
Length Npts array of points at which to evaluate the functions.
func_indices : array_like
Length Npts array providing the indices to use to choose which function
operates on each abcissa element. Thus func_indices is an array of integers
ranging between 0 and k-1.
Returns
-------
out : array_like
Length Npts array giving the evaluation of the appropriate function on each
abcissa element.
"""
func_argsort = func_indices.argsort()
func_ranges = list(np.searchsorted(func_indices[func_argsort], range(len(func_table))))
func_ranges.append(None)
out = np.zeros_like(abcissa)
for i in range(len(func_table)):
f = func_table[i]
start = func_ranges[i]
end = func_ranges[i+1]
ix = func_argsort[start:end]
out[ix] = f(abcissa[ix])
return out
def trivial_functional(i):
def f(x):
return i*x
return f
k = 250
func_table = np.array([trivial_functional(j) for j in range(k)])
Npts = 1e6
abcissa = np.random.random(Npts)
func_indices = np.random.random_integers(0,len(func_table)-1,Npts)
result = apply_indexed_fast(abcissa, func_indices, func_table)
from multiprocessing import Pool, cpu_count
def apply_indexed_parallelized(abcissa, func_indices, func_table):
func_argsort = func_indices.argsort()
func_ranges = list(np.searchsorted(func_indices[func_argsort], range(len(func_table))))
func_ranges.append(None)
out = np.zeros_like(abcissa)
num_cores = cpu_count()
pool = Pool(num_cores)
def apply_funci(i):
f = func_table[i]
start = func_ranges[i]
end = func_ranges[i+1]
ix = func_argsort[start:end]
out[ix] = f(abcissa[ix])
pool.map(apply_funci, range(len(func_table)))
pool.close()
return out
result = apply_indexed_parallelized(abcissa, func_indices, func_table)
PicklingError: Can't pickle <type 'function'>: attribute lookup __builtin__.function failed
最佳答案
警告/警告:
您可能不想将multiprocessing
应用于此问题。您会发现,在大型数组上操作相对简单,问题将是内存绑定在cc中。瓶颈是将数据从RAM移动到CPU缓存。CPU缺乏数据,因此对这个问题投入更多的CPU并没有多大帮助。此外,您当前的方法将对输入序列中的每个项进行pickle并复制整个数组,这会增加很多开销。
有很多情况下numpy
+numpy
是非常有效的,但是您需要确保您正在处理一个cpu受限的问题。理想情况下,这是一个CPU受限的问题,输入和输出相对较小,以减轻输入和输出的酸洗开销。对于许多multiprocessing
最常用的问题,事实并非如此。
你目前的方法有两个问题
回答你的问题:
您的即时错误是由于传入了一个无法从全局范围访问的函数(即在函数中定义的函数)。
不过,你还有一个问题。您正在处理NUMPY数组,就好像它们是可以被每个进程修改的共享内存一样。相反,当使用cc时,原始数组将被保存(有效地复制)并独立传递给每个进程。原始数组将永远不会被修改。
避免numpy
作为再现错误的最小示例,请考虑以下内容:
import multiprocessing
def apply_parallel(input_sequence):
def func(x):
pass
pool = multiprocessing.Pool()
pool.map(func, input_sequence)
pool.close()
foo = range(100)
apply_parallel(foo)
PicklingError: Can't pickle <type 'function'>: attribute lookup
__builtin__.function failed
multiprocessing
名称空间。但是,在您的数据库中,您需要它引用传入的数据。让我们看一个更接近你所做工作的例子:
import numpy as np
import multiprocessing
def parallel_rolling_mean(data, window):
data = np.pad(data, window, mode='edge')
ind = np.arange(len(data)) + window
def func(i):
return data[i-window:i+window+1].mean()
pool = multiprocessing.Pool()
result = pool.map(func, ind)
pool.close()
return result
foo = np.random.rand(20).cumsum()
result = parallel_rolling_mean(foo, 10)
import numpy as np
import multiprocessing
class RollingMean(object):
def __init__(self, data, window):
self.data = np.pad(data, window, mode='edge')
self.window = window
def __call__(self, i):
start = i - self.window
stop = i + self.window + 1
return self.data[start:stop].mean()
def parallel_rolling_mean(data, window):
func = RollingMean(data, window)
ind = np.arange(len(data)) + window
pool = multiprocessing.Pool()
result = pool.map(func, ind)
pool.close()
return result
foo = np.random.rand(20).cumsum()
result = parallel_rolling_mean(foo, 10)
PicklingError
调用中增加
__main__
来加速),要么您将很快耗尽ram(一旦您增加
chunksize
)。
pool.map
操作的整个数组做一个拷贝。
chunksize
在进程之间不共享内存
multiprocessing
模块通过对输入进行酸洗并将它们传递给独立进程来工作。这意味着,如果在一个过程中修改某个过程,则另一个进程将不会看到修改。
i
也提供了
primitives that live in shared memory,可以通过子进程访问和修改。使用共享内存
multiprocessing
有
few different ways的
adapting numpy arrays。不过,我建议一开始就避免这些(如果你不熟悉,请阅读
false sharing)。有些情况非常有用,但通常是为了节省内存,而不是提高性能。
multiprocessing
函数接受一个输出数组来存储内容。一个有用的模式类似于下面的内容。注意迭代器的使用和仅在主进程中修改输出:
import numpy as np
import multiprocessing
def parallel_rolling_mean(data, window, output):
def windows(data, window):
padded = np.pad(data, window, mode='edge')
for i in xrange(len(data)):
yield padded[i:i + 2*window + 1]
pool = multiprocessing.Pool()
results = pool.imap(np.mean, windows(data, window))
for i, result in enumerate(results):
output[i] = result
pool.close()
foo = np.random.rand(20000000).cumsum()
output = np.zeros_like(foo)
parallel_rolling_mean(foo, 10, output)
print output
multiprocessing
和性能
multiprocessing.Array
/
parallel_rolling_mean
),您可能会注意到大部分时间都处于空闲状态。
import numpy as np
import multiprocessing
def parallel_rolling_mean(data, window, output):
def windows(data, window):
padded = np.pad(data, window, mode='edge')
for i in xrange(len(data)):
yield padded[i:i + 2*window + 1]
pool = multiprocessing.Pool()
results = pool.imap(np.mean, windows(data, window), chunksize=1000)
for i, result in enumerate(results):
output[i] = result
pool.close()
foo = np.random.rand(2000000).cumsum()
output = np.zeros_like(foo)
parallel_rolling_mean(foo, 10, output)
print output
chunksize
,处理2百万个元素数组需要21秒:
python ~/parallel_rolling_mean.py 83.53s user 1.12s system 401% cpu 21.087 total
top
(默认值)大约需要八倍长(2分钟,41秒)。
python ~/parallel_rolling_mean.py 358.26s user 53.40s system 246% cpu 2:47.09 total
python ~/sequential_rolling_mean.py 45.11s user 0.06s system 99% cpu 45.187 total
关于python - 用于评估相同长度的1d numpy数组上的1-d函数数组的并行算法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32669916/
我正在尝试创建一个包含 int[][] 项的数组 即 int version0Indexes[][4] = { {1,2,3,4}, {5,6,7,8} }; int version1Indexes[
我有一个整数数组: private int array[]; 如果我还有一个名为 add 的方法,那么以下有什么区别: public void add(int value) { array[va
当您尝试在 JavaScript 中将一个数组添加到另一个数组时,它会将其转换为一个字符串。通常,当以另一种语言执行此操作时,列表会合并。 JavaScript [1, 2] + [3, 4] = "
根据我正在阅读的教程,如果您想创建一个包含 5 列和 3 行的表格来表示这样的数据... 45 4 34 99 56 3 23 99 43 2 1 1 0 43 67 ...它说你可以使用下
我通常使用 python 编写脚本/程序,但最近开始使用 JavaScript 进行编程,并且在使用数组时遇到了一些问题。 在 python 中,当我创建一个数组并使用 for x in y 时,我得
我有一个这样的数组: temp = [ 'data1', ['data1_a','data1_b'], ['data2_a','data2_b','data2_c'] ]; // 我想使用 toStr
rent_property (table name) id fullName propertyName 1 A House Name1 2 B
这个问题在这里已经有了答案: 关闭13年前。 Possible Duplicate: In C arrays why is this true? a[5] == 5[a] array[index] 和
使用 Excel 2013。经过多年的寻找和适应,我的第一篇文章。 我正在尝试将当前 App 用户(即“John Smith”)与他的电子邮件地址“jsmith@work.com”进行匹配。 使用两个
当仅在一个边距上操作时,apply 似乎不会重新组装 3D 数组。考虑: arr 1),但对我来说仍然很奇怪,如果一个函数返回一个具有尺寸的对象,那么它们基本上会被忽略。 最佳答案 这是一个不太理
我有一个包含 GPS 坐标的 MySQL 数据库。这是我检索坐标的部分 PHP 代码; $sql = "SELECT lat, lon FROM gps_data"; $stmt=$db->query
我需要找到一种方法来执行这个操作,我有一个形状数组 [批量大小, 150, 1] 代表 batch_size 整数序列,每个序列有 150 个元素长,但在每个序列中都有很多添加的零,以使所有序列具有相
我必须通过 url 中的 json 获取文本。 层次结构如下: 对象>数组>对象>数组>对象。 我想用这段代码获取文本。但是我收到错误 :org.json.JSONException: No valu
enter code here- (void)viewDidLoad { NSMutableArray *imageViewArray= [[NSMutableArray alloc] init];
知道如何对二维字符串数组执行修剪操作,例如使用 Java 流 API 进行 3x3 并将其收集回相同维度的 3x3 数组? 重点是避免使用显式的 for 循环。 当前的解决方案只是简单地执行一个 fo
已关闭。此问题需要 debugging details 。目前不接受答案。 编辑问题以包含 desired behavior, a specific problem or error, and the
我有来自 ASP.NET Web 服务的以下 XML 输出: 1710 1711 1712 1713
如果我有一个对象todo作为您状态的一部分,并且该对象包含数组列表,则列表内部有对象,在这些对象内部还有另一个数组listItems。如何更新数组 listItems 中 id 为“poi098”的对
我想将最大长度为 8 的 bool 数组打包成一个字节,通过网络发送它,然后将其解压回 bool 数组。已经在这里尝试了一些解决方案,但没有用。我正在使用单声道。 我制作了 BitArray,然后尝试
我们的数据库中有这个字段指示一周中的每一天的真/假标志,如下所示:'1111110' 我需要将此值转换为 boolean 数组。 为此,我编写了以下代码: char[] freqs = weekday
我是一名优秀的程序员,十分优秀!