- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我需要使用半径为 17 或更大的 3D 结构元素来计算形状为 (400,401,401)、大小为 64320400 字节的 3D 数组的形态学开度。结构元素ndarray的大小为
42875 字节。使用 scipy.ndimage.morphology.binary_opening
,整个过程消耗8GB RAM。
我已阅读 scipy/ndimage/morphology.py
在 GitHub 上,据我所知,形态侵 eclipse 算子是用纯 C 语言实现的。我很难理解 ni_morphology.c
源,所以我没有发现这段代码的任何部分会导致如此巨大的内存利用率。添加更多 RAM 不是一个可行的解决方案,因为内存使用可能会随着结构元素半径呈指数增长。
要重现问题:
import numpy as np
from scipy import ndimage
arr_3D = np.ones((400,401,401),dtype="bool")
str_3D = ndimage.morphology.generate_binary_structure(3,1)
big_str_3D = ndimage.morphology.iterate_structure(str_3D,20)
arr_out_3D = ndimage.morphology.binary_opening(arr_3D, big_str_3D)
最佳答案
我也做粒度增加半径的开口,我遇到了同样的问题。事实上,内存使用量大约增加了 R^6,其中 R 是球形内核的半径。这是一个相当大的增长率!我做了一些内存分析,包括将开孔拆分为腐 eclipse ,然后是膨胀(开孔的定义),发现大量内存使用来自 SciPy 的二进制文件,并在结果返回到调用 Python 脚本后立即清除. SciPy 的形态代码大部分是用 C 实现的,因此修改它们是一个困难的前景。
无论如何,OP 的最后一条评论是:“经过一些研究,我转向使用卷积的 Opening 实现 -> 傅立叶变换的乘法 - O(n log n),并且没有那么大的内存开销。”帮我找出解决方案,所以谢谢你。然而,实现起初并不明显。对于遇到此问题的任何其他人,我将在此处发布实现。
我将开始谈论膨胀,因为二值腐 eclipse 只是二值图像的补码(逆)的膨胀,然后将结果反转。
简而言之:根据this white paper by Kosheleva et al ,膨胀可以被视为数据集 A 与结构元素(球核)B 的卷积,阈值高于某个值。卷积也可以在频率空间中完成(通常快得多),因为频率空间中的乘法与实际空间中的卷积相同。因此,通过首先对 A 和 B 进行傅立叶变换,将它们相乘,然后对结果进行逆变换,然后对大于 0.5 的值进行阈值处理,就可以得到 A 与 B 的膨胀。(请注意,我链接的白皮书说阈值高于 0,但大量测试表明,这给出了许多工件的错误结果;another white paper by Kukal et al . 将阈值设为 >0.5,这对我来说给出了与 scipy.ndimage.binary_dilation 相同的结果。我不知道为什么差异,我想知道我是否错过了引用文献 1 命名法的一些细节)
正确的实现涉及填充大小,但对我们来说幸运的是,它已经在 scipy.signal.fftconvolve(A,B,'same')
中完成了。 - 此函数执行我刚刚描述的操作并为您处理填充。将第三个选项设为“相同”将返回与 A 大小相同的结果,这正是我们想要的(否则它将被 B 的大小填充)。
所以膨胀是:
from scipy.signal import fftconvolve
def dilate(A,B):
return fftconvolve(A,B,'same')>0.5
from scipy.signal import fftconvolve
import numpy as np
def erode_v1(A,B,R):
#R should be the radius of the spherical kernel, i.e. half the width of B
A_inv = np.logical_not(A)
A_inv = np.pad(A_inv, R, 'constant', constant_values=1)
tmp = fftconvolve(A_inv, B, 'same') > 0.5
#now we must un-pad the result, and invert it again
return np.logical_not(tmp[R:-R, R:-R, R:-R])
from scipy.signal import fftconvolve
import numpy as np
def erode_v2(A,B):
thresh = np.count_nonzero(B)-0.5
return fftconvolve(A,B,'same') > thresh
关于python - Scipy ndimage 形态学运算符使我的计算机内存 RAM (8GB) 饱和,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25034259/
#include typedef std::vector vc; typedef std::vector vvc; vvc f() { const int N = (1 不把它还给操作系统。 因
我正在尝试训练 Dlib's train_shape_predictor_ex.cpp与 Halen数据集。我在 Release模式 中使用 Visual Studio 将代码编译为 64 位平台 作
当我试图解决this 时想到了这个问题。问题。 我有一个容量为 120 GB 的硬盘,其中 100 GB 被一个巨大的文件占用。所以 20 GB 仍然是免费的。 我的问题是,我们如何将这个巨大的文件拆
这个问题在这里已经有了答案: 关闭 10 年前。 Possible Duplicate: Can you allocate a very large single chunk of memory (
我有一台运行 Linux (3.19.5-200.fc21.x86_64) 的 128 GB RAM 的计算机。但是,我不能在单个进程中分配超过 ~30 GB 的 RAM。除此之外,malloc 失败
我需要为 808704000 个 float 分配内存,大约是 3085 MB。我的电脑有 32 GB 内存,运行 64 位 Linux (CentOS 6.6)。每次我尝试分配内存时,malloc
很抱歉这个愚蠢的问题,但是当reading about 32 bits limitation ,我发现由于 Memory-Mapped 方法,MongoDB 不能存储超过 2 GB,但是: 2^32
假设我们有一个 32 位地址,那么每一位可以是 1 或 0。 所以组合总数等于2^32。 所以我们可以表示 2^32 个地址(没有单位)。 但为什么人们说 32 位地址可以表示 2^32 字节地址(为
好吧,这个问题确实是一个挑战! 背景 我正在从事一个涉及比正常数字更大的基于算术的项目。我是新手,我打算使用 4 GB 文件大小的最坏情况(我什至希望将其扩展到 5GB 上限,因为我之前看到文件大小大
我在文件系统上有大约 12 个大小为 1 GB 到 10 GB 的存储库,我需要为所有这些存储库设置自动备份(我们的旧备份脚本在计算机出现故障时丢失了) XP 64 位机器。 看完this quest
我尝试调整 Linux VM 上的操作系统磁盘大小,该 VM 通常由 azure 自动创建。我无法创建自定义操作系统磁盘 - 请告知我该怎么做? enter image description her
我在 .NET 中遇到了一个问题,我的数组受到我拥有的 RAM 数量的限制,并且我需要可以容纳至少 40 GB 字节的数组。我正在考虑使用硬盘驱动器作为虚拟数组的想法不在乎它是否慢。 我正在研究这个想
我尝试调整 Linux VM 上的操作系统磁盘大小,该 VM 通常由 azure 自动创建。我无法创建自定义操作系统磁盘 - 请告知我该怎么做? enter image description her
我的目标是看看当使用比物理 GPU 内存所能容纳的更多纹理数据时会发生什么。我的第一次尝试是加载多达 40 个 DDS 纹理,导致内存占用比 GPU 内存高得多。但是,我的场景在 9500 GT 上仍
Windows 上的 JDK 最多需要 2 GB 左右的 RAM。即使我们为 JDK 分配更多 RAM;它不接受它。如果我需要在 Windows 上运行需要 8 GB RAM 的进程;我怎样才能实现它
我有一个程序需要分配2个15亿长度的整数数组。这是一个编码挑战( https://projecteuler.net/problem=282 ),并且没有办法使用如此大的数组(如果有,请不要告诉我;我应
假设我有一个 32 位内核。 4 Gb RAM,10 Gb 交换分区。 我有一个在无限循环中有 malloc 的进程。因此,最终系统的 OOM 将终止该进程。这里有两个论点。 参数 1:因为它是 32
我有一个可以大于 4GB 的文件。我正在使用 linux split 命令按行拆分它(这是要求)。但是拆分原始文件后,我希望拆分文件的大小始终小于 2GB。原始文件大小可能在 3-5 GB 之间。我想
我有一台带有 32GB RAM 的 Mac 服务器(雪豹)。当我尝试在 Perl (v 5.10.0) 中分配超过 1.1GB 的 RAM 时,出现内存不足错误。这是我使用的脚本: #!/usr/bi
我们正在尝试运行.NET 4 Web应用程序(在8 GB,8核心Windows 2008 R2 64位Webedition服务器上),该应用程序使用Spire.doc创建Word mailmerge文
我是一名优秀的程序员,十分优秀!