- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我有一个非常简单的 Python 脚本来创建(用于测试目的),一个列表中有 3500 万个字典对象。每个字典对象包含两个键/值对。例如。
{'Name': 'Jordan', 'Age': 35}
该脚本非常简单地查询姓名和年龄,搜索字典列表并返回包含所有匹配字典条目索引的新列表。
然而,正如您在下面看到的,消耗了大量内存。我想我在某个地方犯了一个非常天真的错误。
我的代码如下:(如果可读性更好,也可以在图片中查看)。
import sys
# Firstly, we will create 35 million records in memory, all will be the same apart from one
def search(key, value, data, age):
print("Searching, please wait")
# Create list to store returned PKs
foundPKS = []
for index in range(0, len(data)):
if key in data[index] and 'Age' in data[index]:
if data[index][key] == value and data[index]['Age'] >= age:
foundPKS.append(index)
results = foundPKS
return results
def createdata():
# Let's create our list for storing our dictionaries
print("Creating database, please wait")
dictList = []
for index in range(0, 35000000):
# Define dictionary
record = {'Name': 'Jordan', 'Age': 25}
if 24500123 <= index <= 24500200:
record['Name'] = 'Chris'
record['Age'] = 33
# Add the dict to a list
dictList.append(record)
return dictList
datareturned = createdata()
keyname = input("For which key do you wish to search?")
valuename = input("Which values do you want to find?")
valueage = input("What is the minimum age?")
print("Full data set object size:" + str(sys.getsizeof(datareturned)))
results = search(keyname, valuename, datareturned, int(valueage))
if len(results) > 0:
print(str(len(results)) + " found. Writing to results.txt")
fo = open("results.txt", "w")
for line in range(0, len(results)):
fo.write(str(results[line]) + "\n")
fo.close()
是什么导致了 RAM 的大量消耗?
最佳答案
dict
对象的开销相当大。这取决于您的 Python 版本和系统架构,但在 Python 3.5 64 位上
In [21]: sys.getsizeof({})
Out[21]: 288
所以猜测:
250*36e6*1e-9 == 9.0
如果我创建了那么多词典,那么这是我的 ram 使用量的下限,以 千兆字节 为单位,而不考虑 list
!
与其使用字典作为记录类型,这不是真正的用例,不如使用 namedtuple
。
为了了解这是如何进行比较的,让我们设置一个等价的元组列表:
In [23]: Record = namedtuple("Record", "name age")
In [24]: records = [Record("john", 28) for _ in range(36000000)]
In [25]: getsizeof = sys.getsizeof
考虑:
In [31]: sum(getsizeof(record)+ getsizeof(record.name) + getsizeof(record.age) for record in records)
Out[31]: 5220000000
In [32]: _ + getsizeof(records)
Out[32]: 5517842208
In [33]: _ * 1e-9
Out[33]: 5.517842208
所以 5 演出是一个相当保守的上限。例如,它假定没有 small-int 缓存正在进行,这对于 ages 的记录类型来说完全重要。在我自己的系统上,python 进程正在注册 2.7 gigs 的内存使用(通过 top
)。
因此,我的机器中实际发生的事情通过对字符串进行保守假设得到更好的建模——平均大小为 10 的唯一字符串,因此没有字符串实习——但对整数自由,假设 int 缓存是为我们处理我们的 int
对象,所以我们只需要担心 8 字节的指针!
In [35]: sum(getsizeof("0123456789") + 8 for record in records)
Out[35]: 2412000000
In [36]: _ + getsizeof(records)
Out[36]: 2709842208
In [37]: _ * 1e-9
Out[37]: 2.709842208
对于我从 top
观察到的内容,这是一个很好的模型。
现在,如果你真的想把数据塞进内存,你将不得不失去 Python 的灵 active 。您可以将 array
模块与 struct
结合使用,以获得类似 C 的内存效率。一个更容易进入的世界可能是 numpy
,它允许类似的事情。例如:
In [1]: import numpy as np
In [2]: recordtype = np.dtype([('name', 'S20'),('age', np.uint8)])
In [3]: records = np.empty((36000000), dtype=recordtype)
In [4]: records.nbytes
Out[4]: 756000000
In [5]: records.nbytes*1e-9
Out[5]: 0.756
请注意,我们现在可以非常紧凑。我可以使用 8 位无符号整数(即单个字节)来表示年龄。然而,我立即面临一些不灵活的问题:如果我想要有效地存储字符串,我必须定义一个最大大小。我使用了 'S20'
,它是 20 个字符。这些是 ASCII 字节,但是 20 个 ascii 字符的字段对于名称可能就足够了。
现在,numpy
为您提供了许多包装 C 编译代码的快速方法。所以,为了玩转它,让我们用一些玩具数据填充我们的记录。姓名将只是简单计数的一串数字,年龄将从均值为 50 且标准差为 10 的正态分布中选择。
In [8]: for i in range(1, 36000000+1):
...: records['name'][i - 1] = b"%08d" % i
...:
In [9]: import random
...: for i in range(36000000):
...: records['age'][i] = max(0, int(random.normalvariate(50, 10)))
...:
现在,我们可以使用 numpy 来查询我们的记录
。例如,如果您希望记录的索引给定一些条件,请使用np.where
:
In [10]: np.where(records['age'] > 70)
Out[10]: (array([ 58, 146, 192, ..., 35999635, 35999768, 35999927]),)
In [11]: idx = np.where(records['age'] > 70)[0]
In [12]: len(idx)
Out[12]: 643403
因此 643403
记录了年龄 > 70
。现在,让我们试试 100
:
In [13]: idx = np.where(records['age'] > 100)[0]
In [14]: len(idx)
Out[14]: 9
In [15]: idx
Out[15]:
array([ 2315458, 5088296, 5161049, 7079762, 15574072, 17995993,
25665975, 26724665, 28322943])
In [16]: records[idx]
Out[16]:
array([(b'02315459', 101), (b'05088297', 102), (b'05161050', 101),
(b'07079763', 104), (b'15574073', 101), (b'17995994', 102),
(b'25665976', 101), (b'26724666', 102), (b'28322944', 101)],
dtype=[('name', 'S20'), ('age', 'u1')])
当然,一个主要的不灵 active 是 numpy
数组的大小。调整大小操作是昂贵的。现在,您可以将 numpy.array
包装在某个类中,它将作为一个高效的主干,但在这一点上,您还不如使用一个真正的数据库。幸运的是,Python 带有 sqlite
。
关于python - 许多词典使用大量 RAM,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43578843/
如果我们想访问数组的元素 i,我们会这样做:i *(每个元素的大小)+ 数组的起始地址 = 我们需要访问的元素的内存位置。然后 CPU 直接访问 RAM 中的该位置。这是怎么发生的? 假设我要定位的内
考虑以下 python 代码 with open(sys.argv[2], 'r') as fin, \ open(sys.argv[3], 'w') as fout:
基本上我在 Centos 6.2 16GB 系统上运行我的世界服务器 我通过 rtoolkit 引导来启动我的服务器,现在我分配它使用 12GB,但它使用的 muc 比这多,我不知道为什么。我运行此命
我正在开发一个小型 x86 内核。我正在访问并尝试读取 GRUB 在多重引导 header 中提供的内存映射。我有一个 Intel i3 cpu 和 4 GiB 的 RAM。在这台机器上运行时,我正在
我有 3 GB 内存。有没有办法只为 C++ 应用程序分配 512MB 的 RAM? 否则 有没有办法暂时将我的 RAM 减少到 512MB 以进行测试? 谢谢,阿肖克 最佳答案 使用SetProce
我的一个 friend 告诉我,在 x86 架构上,DMA Controller 无法在两个不同的 RAM 位置之间传输。它只能在RAM和外设(如PCI总线)之间传输。 这是真的吗? 因为 AFAIK
做一些分析(内存和速度) 我一直被 win7 似乎分配的 RAM 正好是我要求的两倍这一事实所困扰...注意这是我第一次在 win7 上进行这样的主动分析,所以我真的不知道会发生什么。 我在 win7
我经常玩 retrofit 版的 Minecraft。这样做的一个缺点是,每当我启动 Minecraft 时,编译所有模组都需要花费大量时间。这可能需要大约 15 分钟左右的时间,在我看来,这太长了。
我想编写一个内核模块,可以通过 DMA 将数据从 RAM 传输到 RAM。有一些帖子讨论这个,但我真的不明白。有人说可能,也有人说不可能。 如果我对 ldd3 的理解是正确的,RAM 到 RAM 的复
我正在寻找一种方法来查找总内存和正在使用的内存的单个熟值输出。 gwmi Win32_OperatingSystem | select TotalVisibleMemorySize, FreePhys
我在 Heroku 上有一个网络应用程序,我试图了解添加具有 1GB RAM 的 Memcached 实例与向我的 Postgres 服务器添加 1GB RAM 之间的区别/权衡。 如果我添加一个 M
在我的例子中,我有一个包含大约 6000 个实例化类的字典,其中每个类都有 1000 个属性变量,所有类型都是字符串或字符串列表。当我建立这本字典时,我的 RAM 变得非常高。有没有一种方法可以在将字
我的问题是:如果您用完了所有可用的视频内存,并尝试创建新纹理 (SDL),是否会自动使用普通内存而不是视频内存?或者,您是否必须尝试使用使用普通 ram 的表面 (SDL)?如果您出于任何原因无法
我在从 ram 地址获取值时遇到问题。 我有一些限制,即它必须是 C 代码,并且存储信息的地址由 u32 值给出,例如 0x001c0080。 环境是ARM的,我用的是eclipse sdk。我怎样才
已关闭。此问题不符合Stack Overflow guidelines 。目前不接受答案。 这个问题似乎不是关于 a specific programming problem, a software
我正在尝试使用 GCC 编译器(标准 C)编译裸机应用程序。我使用 Cyclone V SoC 和 Cortex-A9 处理器。 eclipse DS-5。我收到这些错误 - “Region ram
如果 RAM 不是问题(我的服务器上有接近 200GB),是逐行读取更快还是将所有内容读入 RAM 并访问它?每行将是大约 200-500 个 unicode 字符的字符串。每个文件有近 200 万行
我在我的两台机器上运行以下命令: import os, sqlite3 import pandas as pd from feat_transform import filter_anevexp db
我正在尝试在我的一个项目中引入一些 CUDA 优化。但我认为我在这里做错了什么。我想实现一个简单的矩阵 vector 乘法 (result = matrix * vector)。但是当我想将结果复制回
#include #include #include #include #include #include using namespace std; char randomLetter()
我是一名优秀的程序员,十分优秀!