- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
[1,2^30)
范围内的 Python 整数对象需要 28
字节,由 sys.getsizeof()
并在 this SO-post 中进行了举例说明.
但是,当我使用以下脚本测量内存占用量时:
#int_list.py:
import sys
N=int(sys.argv[1])
lst=[0]*N # no overallocation
for i in range(N):
lst[i]=1000+i # ints not from integer pool
通过
/usr/bin/time -fpeak_used_memory:%M python3 int_list.py <N>
我得到以下峰值内存值(Linux-x64、Python 3.6.2):
N Peak memory in Kb bytes/integer
-------------------------------------------
1 9220
1e7 404712 40.50
2e7 800612 40.52
3e7 1196204 40.52
4e7 1591948 40.52
所以看起来好像每个整数对象需要 40.5
字节,即 12.5
字节比 sys.getsizeof()
产生的多.
额外的 8
字节很容易解释 - 列表 lst
不包含整数对象,而是对它们的引用 - 这意味着一个额外的指针,即 8
字节,是必需的。
但是,另外的4.5
字节呢,它们有什么用呢?
可以排除以下原因:
10^7
小于 2^30
因此所有整数都是 28
字节大。lst
中没有过度分配,可以通过 sys.getsizeof(lst)
轻松检查,它产生 8
倍元素数量,加上非常小的开销。最佳答案
由于 CPython 的 longint
的一些微妙细节,@Nathan 的建议令人惊讶地不是解决方案。 -执行。根据他的解释,
...
lst[i] = (1<<30)+i
应该还是40.52
,因为 sys.sizeof(1<<30)
是32
, 但测量显示它是 48.56
.另一方面,对于
...
lst[i] = (1<<60)+i
足迹依旧48.56
, 尽管事实上 sys.sizeof(1<<60)
是36
.
原因:sys.getsizeof()
没有告诉我们求和结果的实际内存占用量,即 a+b
这是
1000+i
(1<<30)+i
(1<<60)+i
发生这种情况是因为当在 x_add
中添加两个整数时,结果整数首先有一个“数字”,即 4 个字节,大于 a
的最大值和 b
:
static PyLongObject *
x_add(PyLongObject *a, PyLongObject *b)
{
Py_ssize_t size_a = Py_ABS(Py_SIZE(a)), size_b = Py_ABS(Py_SIZE(b));
PyLongObject *z;
...
/* Ensure a is the larger of the two: */
...
z = _PyLong_New(size_a+1);
...
加法后结果归一化:
...
return long_normalize(z);
};
即可能的前导零被丢弃,但内存未释放 - 4 个字节不值得,可以找到函数的源代码 here .
现在,我们可以使用@Nathans 的洞察力来解释,为什么 (1<<30)+i
的足迹是48.56
而不是 44.xy
: 二手py_malloc
-allocator 使用对齐方式为 8
的内存块字节,这意味着 36
字节将存储在大小为 40
的 block 中- 与 (1<<60)+i
的结果相同(记住额外的 8 字节用于指针)。
解释剩下的0.5
bytes 我们需要深入了解 py_malloc
的细节-分配器。一个很好的概述是 source-code itself ,我最后一次尝试描述它可以在这个 SO-post 中找到.
简而言之,分配器管理arenas中的内存,每个256MB。分配竞技场时,会保留内存,但不会提交。我们将内存视为“已使用”,仅当所谓的 pool
被感动了。一个池是 4Kb
大( POOL_SIZE
)并且仅用于具有相同大小的内存块 - 在我们的例子中是32
字节。这意味着 peak_used_memory
的分辨率是 4Kb,不能对那些 0.5
负责字节。
但是,必须管理这些池,这会导致额外的开销:py_malloc
需要一个 pool_header
每个池:
/* Pool for small blocks. */
struct pool_header {
union { block *_padding;
uint count; } ref; /* number of allocated blocks */
block *freeblock; /* pool's free list head */
struct pool_header *nextpool; /* next pool of this size class */
struct pool_header *prevpool; /* previous pool "" */
uint arenaindex; /* index into arenas of base adr */
uint szidx; /* block size class index */
uint nextoffset; /* bytes to virgin block */
uint maxnextoffset; /* largest valid nextoffset */
};
这个结构的大小是48
(称为 POOL_OVERHEAD
)字节在我的 Linux_64 机器上。这pool_header
是池的一部分(通过 cruntime-memory-allocator 避免额外分配的一种非常聪明的方法)并将取代两个 32
-byte-blocks,这意味着一个池有 place for 126
32
byte integers :
/* Return total number of blocks in pool of size index I, as a uint. */
#define NUMBLOCKS(I) ((uint)(POOL_SIZE - POOL_OVERHEAD) / INDEX2SIZE(I))
这导致:
4Kb/126 = 32.51
1000+i
的字节足迹, 加上额外的 8 个字节作为指针。(30<<1)+i
需求40
字节,这意味着 4Kb
有 102
的位置 block ,其中一个(当pool分成16
字节 block 时还有剩余40
字节,可用于pool_header
)用于pool_header
,这导致 4Kb/101=40.55
字节(加上 8
字节指针)。我们还可以看到,有一些额外的开销,负责 ca。 0.01
每个整数的字节 - 不够大,我不关心。
关于python - 与 sys.getsizeof() 的结果相比,整数的大内存占用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55595549/
我正在阅读 SQL/92(我是新手),它经历了不同的数据类型。其中之一是CHAR,我当然知道它与java中的String非常相似,而不是java中的char。但我们假设它是 CHAR(1)。只有一个字
我的 mysqld 进程消耗了 232% 的 CPU,并且有 14000 多个连接 (我对这件事有点陌生,但关注 Stack Overflow 寻求帮助)。 顶部: PID USER P
Tomcat 服务器占用 100% 的 CPU,但仅在 PRD。我们无法在其他环境中重现这一点。 进行线程转储后,我们发现有一些线程处于等待/可运行状态,但无法找到我们如何找到根本原因。 你能帮忙吗?
我正在使用 Xcode、SpriteKit 和 Swift 构建我的第一款 iPhone 游戏。我对这些技术不熟悉,但我熟悉一般的编程概念。 这是我想用英语做的事情。我想让圆圈随机出现在屏幕上,然后开
我的套接字消耗了 100% 的计算机 CPU。有 150 个客户端每 30 秒异步向服务器发送消息。有谁知道如何解决这个问题?下面是我的 ServerSocket 类 public class Ser
一段时间后(有时几分钟,有时几天),我的应用开始消耗 100% 的 CPU。正如我从 VisualVM 看到的那样,它总是发生在 org.elasticsearch.common.netty.chan
在我的容器 Controller 中,用户可以平移 View 以切换到不同的 View 。当平移手势开始时,它会将新 View Controller 的 View 添加到 View 中:view.in
假设我在数据框中有两列,其中一列不完整。 df = pd.DataFrame({'a': [1, 2, 3, 4], 'b':[5, '', 6, '']}) df Out: a b
在Ubuntu 16.04 LTS中,pyteserract脚本吃得太高,导致系统间歇性重启。 top命令输出为 top - 21:23:31 up 27 min, 4 users, lo
我在具有 88 个内核和 60 个 reducer 的 hadoop 集群上运行 mapreduce 作业。由于某种原因,它只使用了 79 个集群核心。开始时它运行 79 个映射器,但当完成一半拆分时
我正在对机器上的所有用户进行查询,当它执行时,它会占用 100% 的 CPU 并锁定系统。我已经等了 5 分钟,但什么也没有发生。 在任务管理器中,wmiprvse.exe 占用了所有 CPU。当我终
我正在从套接字(通过 TCP 协议(protocol))读取消息,但我注意到 CPU 花费大量时间来调用 BufferedInputStream 的 available() 方法。这是我的代码:
我有 6 个线程。其中一个线程进入某个范围并打开“锁定”和所有其他线程线程正在等待并希望进入相同的范围。 现在,其他线程是否会获得 CPU 时间?其他线程是否在线程调度中?我知道所有其他线程都处于等待
我正在尝试创建一个社交媒体应用程序。但它需要大约 300mb 内存。所以我的主页上有 5 个包含帖子的 fragment 。总体内存使用量为 250-300mb 然后为了测试,我禁用了这些 fragm
我有一个带有一些 TextFormField 的表单,我想扩展最后一个 TextFormField 以占据屏幕的其余部分。最后一个 TextFormField 可以有多行文本。 我没能做到这一点,并尝
我收到磁盘几乎已满的警告,所以我运行 DaisyDisk .. 显然 Xcode 占用了 15GB 的空间: http://imgur.com/a/cTIZZ iOS 设备支持为 12.3 GB: h
我正在使用 Xcode Playground 研究 Swift 内存布局,我创建了一个带有 bool、double 和 int32 的结构,如下所示。基于这种结构,MemoryLayout 的打印结果
一旦执行“self.navigationController pushviewcontroller:vc animated:YES”,我的 CPU 就会达到 100%。我在 Stack Overflo
警告:CPU 使用率达到 100%,请小心。 Link to the jsFiddle 编写此脚本是为了设计动态蛇梯板。每次刷新页面时,都会创建一个新板。大多数时候所有的背景图像都不会出现,CPU 使
我不知道为什么,但是MYSQL给CPU带来了很大的负载。我必须每秒多次更新数据库,并且用户群正在不断增长。 一开始还好,但是现在 CPU 负载每天都在增加 这是日志中的慢速查询: *Query_tim
我是一名优秀的程序员,十分优秀!