gpt4 book ai didi

c - valgrind/memcheck 无法释放 "large"内存块

转载 作者:太空宇宙 更新时间:2023-11-04 04:02:03 24 4
gpt4 key购买 nike

考虑这个小程序:

#include <stdio.h>
#include <stdlib.h>

// Change 60000 to 70000 and valgrind (memcheck) eats my memory
#define L (60000)
#define M (100*(1<<20))

int main(void) {
int i;
for (i = 0; i < M; ++i) {
unsigned char *a = malloc(L);
a[i % L] = i % 128; // Touch something; a[0] is not enough
free(a);
if (i % (1<<16) == 0)
fprintf(stderr, "i = %d\n", i);
}
return 0;
}

使用 gcc -o vg 编译并运行 valgrind --leak-check=full ./vg 工作正常,memcheck 使用了大约 1.5% 的内存。然而,将 L 更改为 70000(我想神奇的限制是 1<<16),memcheck 使用不断增加的内存量,直到内核最终杀死它。

有什么办法可以解决这个问题吗?显然没有泄漏,但 valgrind 本身似乎有泄漏(!?),这使得它很难用于检查具有大量大型和短期分配的程序。

一些背景,不确定哪个是相关的:

$ valgrind --version
valgrind-3.7.0
$ gcc --version
gcc (GCC) 4.4.6 20110731 (Red Hat 4.4.6-3)
$ /lib/libc.so.6
GNU C Library stable release version 2.12, by Roland McGrath et al.
$ uname -rms
Linux 2.6.32-220.2.1.el6.x86_64 x86_64

最佳答案

这很可能是由 gcc 4.4 错误引起的,在 valgrind 3.8.0 中被绕过(尚未发布)

从 Valgrind 3.8.0 新闻文件中提取:

n-i-bz 绕过 gcc4.4/4.5 导致内存不足或断言的错误代码生成

关于c - valgrind/memcheck 无法释放 "large"内存块,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10557654/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com