gpt4 book ai didi

python - 非常大的 numpy 数组的效率

转载 作者:太空宇宙 更新时间:2023-11-03 11:53:47 25 4
gpt4 key购买 nike

我正在处理一些非常大的数组。我正在处理的一个问题当然是 RAM 不够用了,但即使在此之前我的代码运行缓慢,所以即使我有无限的 RAM,它仍然会花费太长时间。我将提供一些代码来展示我正在尝试做的事情:

#samplez is a 3 million element 1-D array
#zfit is a 10,000 x 500 2-D array

b = np.arange((len(zfit))

for x in samplez:
a = x-zfit
mask = np.ma.masked_array(a)
mask[a <= 0] = np.ma.masked
index = mask.argmin(axis=1)
# These past 4 lines give me an index array of the smallest positive number
# in x - zift

d = zfit[b,index]
e = zfit[b,index+1]
f = (x-d)/(e-d)
# f is the calculation I am after

if x == samplez[0]:
g = f
index_stack = index
else:
g = np.vstack((g,f))
index_stack = np.vstack((index_stack,index))

在进一步计算中,我需要使用 g 和 index_stack,每个都是 300 万 x 10,000 的二维数组。这个循环的每次迭代几乎需要 1 秒,所以总共 300 万秒,这太长了。

我能做些什么来使这个计算运行得更快?我试过想如果没有这个 for 循环我该怎么办,但我能想到的唯一方法是制作 300 万份 zfit,这是不可行的。

我是否可以通过不将所有内容都保存在 RAM 中的方式来处理这些数组?我是初学者,我搜索过的所有内容要么无关紧要,要么是我无法理解的。提前致谢。

最佳答案

很高兴知道最小的正数永远不会出现在行的末尾。

samplez 中有 100 万个唯一值,但在 zfit 中,每行最多只能有 500 个唯一值。整个 zfit 可以有多达 5000 万个唯一值。如果可以大大减少'寻找最小正数> each_element_in_samplez'的计算次数,则可以大大加快算法的速度。进行所有 5e13 比较可能有点矫枉过正,仔细规划将能够去除其中的很大一部分。这将在很大程度上取决于您实际的基础数学。

不知不觉中,还有一些小事可以做。 1,没有那么多可能的(e-d),这样就可以跳出循环了。 2、可以通过map消除循环。在我的机器上,这两个小修复导致大约 22% 的加速。

def function_map(samplez, zfit):
diff=zfit[:,:-1]-zfit[:,1:]
def _fuc1(x):
a = x-zfit
mask = np.ma.masked_array(a)
mask[a <= 0] = np.ma.masked
index = mask.argmin(axis=1)
d = zfit[:,index]
f = (x-d)/diff[:,index] #constrain: smallest value never at the very end.
return (index, f)
result=map(_fuc1, samplez)
return (np.array([item[1] for item in result]),
np.array([item[0] for item in result]))

接下来:masked_array 可以完全避免(这应该会带来显着的改进)。 samplez 也需要排序。

>>> x1=arange(50)
>>> x2=random.random(size=(20, 10))*120
>>> x2=sort(x2, axis=1) #just to make sure the last elements of each col > largest val in x1
>>> x3=x2*1
>>> f1=lambda: function_map2(x1,x3)
>>> f0=lambda: function_map(x1, x2)
>>> def function_map2(samplez, zfit):
_diff=diff(zfit, axis=1)
_zfit=zfit*1
def _fuc1(x):
_zfit[_zfit<x]=(+inf)
index = nanargmin(zfit, axis=1)
d = zfit[:,index]
f = (x-d)/_diff[:,index] #constrain: smallest value never at the very end.
return (index, f)
result=map(_fuc1, samplez)
return (np.array([item[1] for item in result]),
np.array([item[0] for item in result]))

>>> import timeit
>>> t1=timeit.Timer('f1()', 'from __main__ import f1')
>>> t0=timeit.Timer('f0()', 'from __main__ import f0')
>>> t0.timeit(5)
0.09083795547485352
>>> t1.timeit(5)
0.05301499366760254
>>> t0.timeit(50)
0.8838210105895996
>>> t1.timeit(50)
0.5063929557800293
>>> t0.timeit(500)
8.900799036026001
>>> t1.timeit(500)
4.614129018783569

所以,这又是 50% 的加速。

避免使用

masked_array 并节省一些 RAM。想不出任何其他方法来减少 RAM 使用。可能需要分段处理 samplez。而且,根据数据和所需的精度,如果您可以使用 float16float32 而不是默认的 float64 可以节省您大量内存。

关于python - 非常大的 numpy 数组的效率,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19073455/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com