gpt4 book ai didi

python - 无法在 Python 中分配 1.6 GB

转载 作者:太空狗 更新时间:2023-10-29 22:26:37 24 4
gpt4 key购买 nike

这段代码产生了一个MemoryError:

from pylab import complex128
import numpy

x = numpy.empty(100000000, dtype=complex128) # 100 millions complex128

我有 Win7 64 和 8 GB 内存(运行此代码时至少有 5.3 GB 可用空间)。我正在使用 Python 2.7 (Anaconda),我认为它是 32 位版本。即使使用 32 位,我们也应该能够处理 1.6 GB!

你知道怎么解决吗?

PS:我预计会有一个包含 1 亿个项目的数组,每个项目使用 16 个字节(128 位)来使用 16 * 1 亿 = 1.6 GB。这由 :

确认
x = numpy.empty(1000000, dtype=complex128)    # 1 million here
print x.nbytes
>>> 16000000 # 16 MB

最佳答案

问题已通过 Python 64 位解决。

甚至可以创建超过 5 GB 的单个阵列。

注意:当我创建一个应该使用 1 600 000 000 字节的数组(complex128 数组中有 1 亿个项目)时,实际内存使用量并不“多”:1 607 068知识库...

关于python - 无法在 Python 中分配 1.6 GB,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20150878/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com