gpt4 book ai didi

python - 大型内存映射数组的高效点积

转载 作者:IT老高 更新时间:2023-10-28 21:52:16 27 4
gpt4 key购买 nike

我正在使用一些相当大、密集的 numpy float 组,这些数组当前驻留在 PyTables CArrays 的磁盘上。我需要能够使用这些数组执行高效的点积,例如 C = A.dot(B),其中 A 是一个巨大的(~1E4 x 3E5 float32 ) 内存映射数组,而 BC 是驻留在核心内存中的更小的 numpy 数组。

我现在正在做的是使用 np.memmap 将数据复制到内存映射的 numpy 数组中,然后直接在内存上调用 np.dot -映射数组。这可行,但我怀疑标准 np.dot(或者更确切地说是它调用的底层 BLAS 函数)在计算结果。

我在 this review article 中遇到了一个有趣的例子.使用 3x 嵌套循环计算的简单点积,如下所示:

def naive_dot(A, B, C):
for ii in xrange(n):
for jj in xrange(n):
C[ii,jj] = 0
for kk in xrange(n):
C[ii,jj] += A[ii,kk]*B[kk,jj]
return C

需要O(n^3) I/O 操作来计算。

但是,通过在适当大小的 block 中处理数组:

def block_dot(A, B, C, M):
b = sqrt(M / 3)
for ii in xrange(0, n, b):
for jj in xrange(0, n, b):
C[ii:ii+b,jj:jj+b] = 0
for kk in xrange(0, n, b):
C[ii:ii+b,jj:jj+b] += naive_dot(A[ii:ii+b,kk:kk+b],
B[kk:kk+b,jj:jj+b],
C[ii:ii+b,jj:jj+b])
return C

其中 M 是可装入核心内存的最大元素数,I/O 操作数减少到 O(n^3/sqrt(M))

np.dot 和/或 np.memmap 有多聪明?调用 np.dot 是否执行 I/O 高效的 block 状点积? np.memmap 是否会做任何花哨的缓存来提高此类操作的效率?

如果没有,是否有一些预先存在的库函数可以执行 I/O 高效的点积,或者我应该尝试自己实现它吗?

更新

我已经对 np.dot 的手动实现进行了一些基准测试,该实现对输入数组的 block 进行操作,这些 block 被显式读入核心内存。该数据至少部分解决了我最初的问题,因此我将其发布为答案。

最佳答案

我已经实现了一个函数,用于将 np.dot 应用于从内存映射数组显式读入核心内存的 block :

import numpy as np

def _block_slices(dim_size, block_size):
"""Generator that yields slice objects for indexing into
sequential blocks of an array along a particular axis
"""
count = 0
while True:
yield slice(count, count + block_size, 1)
count += block_size
if count > dim_size:
raise StopIteration

def blockwise_dot(A, B, max_elements=int(2**27), out=None):
"""
Computes the dot product of two matrices in a block-wise fashion.
Only blocks of `A` with a maximum size of `max_elements` will be
processed simultaneously.
"""

m, n = A.shape
n1, o = B.shape

if n1 != n:
raise ValueError('matrices are not aligned')

if A.flags.f_contiguous:
# prioritize processing as many columns of A as possible
max_cols = max(1, max_elements / m)
max_rows = max_elements / max_cols

else:
# prioritize processing as many rows of A as possible
max_rows = max(1, max_elements / n)
max_cols = max_elements / max_rows

if out is None:
out = np.empty((m, o), dtype=np.result_type(A, B))
elif out.shape != (m, o):
raise ValueError('output array has incorrect dimensions')

for mm in _block_slices(m, max_rows):
out[mm, :] = 0
for nn in _block_slices(n, max_cols):
A_block = A[mm, nn].copy() # copy to force a read
out[mm, :] += np.dot(A_block, B[nn, :])
del A_block

return out

然后我做了一些基准测试,将我的 blockwise_dot 函数与直接应用于内存映射数组的普通 np.dot 函数进行比较(请参阅下面的基准测试脚本) .我正在使用与 OpenBLAS v0.2.9.rc1 链接的 numpy 1.9.0.dev-205598b(从源代码编译)。该机器是运行 Ubuntu 13.10 的四核笔记本电脑,具有 8GB RAM 和 SSD,我已禁用交换文件。

结果

正如@Bi Rico 预测的那样,相对于A 的维度,计算点积所需的时间非常O(n)。对 A 的缓存 block 进行操作比仅在整个内存映射数组上调用普通的 np.dot 函数提供了巨大的性能改进:

enter image description here

令人惊讶的是,它对正在处理的 block 的大小不敏感 - 处理 1GB、2GB 或 4GB block 中的数组所需的时间几乎没有差别。我的结论是,无论缓存 np.memmap 数组 native 实现什么,它似乎都不是计算点积的最佳选择。

其他问题

不得不手动实现这种缓存策略仍然有点痛苦,因为我的代码可能必须在具有不同物理内存量的机器上运行,并且可能需要不同的操作系统。出于这个原因,我仍然对是否有办法控制内存映射数组的缓存行为以提高 np.dot 的性能感兴趣。

在运行基准测试时,我注意到一些奇怪的内存处理行为 - 当我在整个 A 上调用 np.dot 时,我从未见过我的 Python 进程超过了大约 3.8GB,尽管我有大约 7.5GB 的可用 RAM。这使我怀疑允许 np.memmap 数组占用的物理内存量有一些限制 - 我之前假设它会使用操作系统允许它抓取的任何 RAM .就我而言,能够提高此限制可能非常有益。

是否有人对 np.memmap 数组的缓存行为有任何进一步的了解,可以帮助解释这一点?

基准测试脚本

def generate_random_mmarray(shape, fp, max_elements):
A = np.memmap(fp, dtype=np.float32, mode='w+', shape=shape)
max_rows = max(1, max_elements / shape[1])
max_cols = max_elements / max_rows
for rr in _block_slices(shape[0], max_rows):
for cc in _block_slices(shape[1], max_cols):
A[rr, cc] = np.random.randn(*A[rr, cc].shape)
return A

def run_bench(n_gigabytes=np.array([16]), max_block_gigabytes=6, reps=3,
fpath='temp_array'):
"""
time C = A * B, where A is a big (n, n) memory-mapped array, and B and C are
(n, o) arrays resident in core memory
"""

standard_times = []
blockwise_times = []
differences = []
nbytes = n_gigabytes * 2 ** 30
o = 64

# float32 elements
max_elements = int((max_block_gigabytes * 2 ** 30) / 4)

for nb in nbytes:

# float32 elements
n = int(np.sqrt(nb / 4))

with open(fpath, 'w+') as f:
A = generate_random_mmarray((n, n), f, (max_elements / 2))
B = np.random.randn(n, o).astype(np.float32)

print "\n" + "-"*60
print "A: %s\t(%i bytes)" %(A.shape, A.nbytes)
print "B: %s\t\t(%i bytes)" %(B.shape, B.nbytes)

best = np.inf
for _ in xrange(reps):
tic = time.time()
res1 = np.dot(A, B)
t = time.time() - tic
best = min(best, t)
print "Normal dot:\t%imin %.2fsec" %divmod(best, 60)
standard_times.append(best)

best = np.inf
for _ in xrange(reps):
tic = time.time()
res2 = blockwise_dot(A, B, max_elements=max_elements)
t = time.time() - tic
best = min(best, t)
print "Block-wise dot:\t%imin %.2fsec" %divmod(best, 60)
blockwise_times.append(best)

diff = np.linalg.norm(res1 - res2)
print "L2 norm of difference:\t%g" %diff
differences.append(diff)

del A, B
del res1, res2
os.remove(fpath)

return (np.array(standard_times), np.array(blockwise_times),
np.array(differences))

if __name__ == '__main__':
n = np.logspace(2,5,4,base=2)
standard_times, blockwise_times, differences = run_bench(
n_gigabytes=n,
max_block_gigabytes=4)

np.savez('bench_results', standard_times=standard_times,
blockwise_times=blockwise_times, differences=differences)

关于python - 大型内存映射数组的高效点积,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20983882/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com