gpt4 book ai didi

Python:读取 TIFFArray 时内存使用量增加

转载 作者:太空宇宙 更新时间:2023-11-04 06:33:02 25 4
gpt4 key购买 nike

我有一个“TIFFFiles”列表,其中每个“TIFFFiles”都包含一个“TIFFArray”,其中包含 60 个 tiff 图像,每个图像的大小为 2776x2080 像素。图像被读取为 numpy.memmap 对象。我想访问图像的所有强度(图像的形状:(60,2776,2080))。我使用以下代码:

for i in xrange(18):

#get instance of type TIFFArray from tiff_list
tiffs = get_tiff_arrays(smp_ppx, type_subfile,tiff_list[i])

#accessing all intensities from tiffs
imgs = tiffs[:,:,:]

即使在每个迭代步骤中覆盖“tiffs”和“imgs”,我的内存也会增加 2.6GByte。如何避免在每个迭代步骤中复制数据?有什么办法可以重复使用2.6GByte的内存吗?

最佳答案

我知道这可能不是答案,但无论如何它可能会有帮助,而且评论时间太长。

前段时间,我在使用numpy 读取大型 (>1Gb) ascii 文件时遇到内存问题:基本上是使用 numpy.loadtxt 读取文件,代码是使用整个内存 (8Gb) 加上一些交换空间。

据我了解,如果您事先知道要填充的数组的大小,则可以分配它并将其传递给例如 loadtxt。这应该可以防止 numpy 分配临时对象,并且在内存方面可能更好。

mmap ,或类似的方法,可以帮助提高内存使用率,但我从未使用过它们。

编辑

内存使用和释放的问题让我在试图解决我的大文件问题时感到疑惑。基本上我有

def read_f(fname):
arr = np.loadtxt(fname) #this uses a lot of memory
#do operations
return something
for f in ["verylargefile", "smallerfile", "evensmallerfile"]:
result = read_f(f)

根据我所做的内存分析,在返回 loadtxt 或返回 read_f 并使用较小的文件再次调用时都没有内存释放。

关于Python:读取 TIFFArray 时内存使用量增加,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14702854/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com