- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我主要是一名 Linux 开发人员,但是,我继承了一个存在内存泄漏的 Windows dll。我知道原因并相信我已经解决了它。我想在单元测试中检查一下。单元测试使用内置的cppunit 测试框架,与cppunit 无关。我通常在 Linux 上使用的框架。即
#include "CppUnitTest.h"
using namespace Microsoft::VisualStudio::CppUnitTestFramework;
我想做的是测量代码块前后的内存使用情况,并检查它是否没有改变——这表明存在内存泄漏。或者类似地,检查分配器类型函数分配的内存量是否恰好是后续析构函数类型函数释放的内存量。
是否有合适的 API 可以用来可靠地获取当前内存使用情况?
我天真地尝试了以下方法:
size_t getMemoryUsage()
{
PROCESS_MEMORY_COUNTERS pmc;
auto processHandle = GetCurrentProcess();
if (GetProcessMemoryInfo(processHandle, &pmc, sizeof(pmc)))
{
return pmc.WorkingSetSize;
}
else
{
Assert::Fail(L"Unable to get memory usage for current process");
}
return 0;
}
这给了我当前进程的内存使用情况。不幸的是,这并不能准确反射(reflect)正在进行的分配和释放。我认为如果我释放内存,操作系统可能仍会保留它供应用程序稍后使用。工作集是操作系统分配给进程的,而不是它在内部实际使用的内存。
我尝试通过 What is private bytes, virtual bytes, working set? 将其更改为 PrivateUsage但这似乎并不总是在 malloc 之后改变。
是否有合适的 API 可以为我执行此操作?也许一个库可以像您在 Linux 上使用 LD_PRELOAD 那样替代经过检测的 malloc?参见 ld-preload-equivalent-for-windows-to-preload-shared-libraries
这里有几个类似的问题-例如memory leak unit test c++ .
此问题特定于在 visual studio 中使用 cppunit 对 DLL 进行单元测试的情况。
DLL 不公开可重写的分配器接口(interface)。我想我的目前最好的选择可能是增加一个。如果有更简单的方法,我宁愿避免进行大量更改。确认这是唯一方法的答案将被接受。
最佳答案
我不觉得尝试使用 OS API 是可靠的,就像我做的一样 p = new char[1024]; delete[] p;
无法保证内存会返回给操作系统,而且在许多情况下也不会。例如假设最小的页面大小是 4KB,很明显,为小对象分配 4KB 会很浪费,所以分配器 在你的进程中 将把这个较大的 block 分开,因此操作系统看不到是否这样碎片是否被释放。
这也适用于其他操作系统/编译器。如果您不断重复相同的测试循环“它一直在使用更多内存”,您可以确定随时间推移的趋势,但随后您必须去搜索它,并且负载不太一致,很难判断几 KB 的差异是否是一个是否泄漏。
Visual Studio 有许多集成度更高的工具可以提供帮助。这些通常假定您正在使用 new/delete
、malloc/free
或 IDE 可能知道的其他类似内容。如果不是,则可能需要稍微调整 DLL,以便 IDE 能够以最准确的方式知道发生了什么。
例如,如果您使用内部内存“池”,系统只能知道该池分配了内存,而不知道它的用途或是否已返回到该池。
要查找执行中的内存泄漏(比如运行测试用例),您可以使用 memory leak detection功能。
#define _CRTDBG_MAP_ALLOC
#include <crtdbg.h>
int main()
{
_CrtSetDbgFlag(_CRTDBG_ALLOC_MEM_DF | _CRTDBG_LEAK_CHECK_DF);
char *leak = new char[1024];
}
The thread 0x3280 has exited with code 0 (0x0).Detected memory leaks!Dumping objects ->{94} normal block at 0x0000021EF2EA1FD0, 1024 bytes long. Data: CD CD CD CD CD CD CD CD CD CD CD CD CD CD CD CD Object dump complete.The program '[0xF64] test.exe' has exited with code 0 (0x0).
You can then set a break point to stop on that allocation next time to find it. You will need the program to run exactly the same for this to work, but for a unit test on a piece of suspect code that is generally doable.
You can do this by pausing your program at the very start in VS, then in the watch window setting {,,ucrtbased.dll}_crtBreakAlloc
to the desired allocation number, say 94
. Running your program it will stop inside the allocation in question, letting you see the stack trace etc.
By default this goes to the debug output, which is not easy to catch from automation, but you can redirect it to say stderr, then check if there is any "Detected memory leaks!" in your test output (along with test case success/fail/etc.).
_CrtSetDbgFlag(_CRTDBG_ALLOC_MEM_DF | _CRTDBG_LEAK_CHECK_DF);
_CrtSetReportMode(_CRT_WARN, _CRTDBG_MODE_FILE);
_CrtSetReportFile(_CRT_WARN, _CRTDBG_FILE_STDERR);
_CrtSetReportMode(_CRT_ERROR, _CRTDBG_MODE_FILE);
_CrtSetReportFile(_CRT_ERROR, _CRTDBG_FILE_STDERR);
您还可以包括文件和行号(请参阅 Microsoft 文档),但不幸的是,这通常更加困难,因为宏可能会破坏例如新的放置,并且在您没有直接分配的情况下不起作用您正在编译的源代码(现有库等)。
一个非常有用的 IDE 工具是 Memory Usage在诊断工具窗口中。
举个例子:
#include <stdio.h>
int main()
{
for (int i = 0; i < 1000; ++i)
{
char *more_leaks = new char[100];
sprintf(more_leaks, "Leaking %d memory", i);
if (i % 55) delete[] more_leaks;
}
}
在 VS 中,转到“调试”->“Windows”->“诊断工具”。
将程序运行到某个断点,然后单击新窗口中的“内存使用”选项卡。选项卡左侧是“拍摄快照”按钮。然后运行你的程序到你认为泄漏的函数之后,并拍摄另一个快照。
然后您可以查看分配是否存在差异、它们是什么、它们保存的数据是什么,并大致探索您程序中的内存。
关于c++ - 在 Visual Studio 单元测试中检查内存泄漏,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59407416/
我在具有 2CPU 和 3.75GB 内存 (https://aws.amazon.com/ec2/instance-types/) 的 c3.large Amazon EC2 ubuntu 机器上运
我想通过用户空间中的mmap-ing并将地址发送到内核空间从用户空间写入VGA内存(视频内存,而不是缓冲区),我将使用pfn remap将这些mmap-ed地址映射到vga内存(我将通过 lspci
在 Mathematica 中,如果你想让一个函数记住它的值,它在语法上是很轻松的。例如,这是标准示例 - 斐波那契: fib[1] = 1 fib[2] = 1 fib[n_]:= fib[n] =
我读到动态内存是在运行时在堆上分配的,而静态内存是在编译时在堆栈上分配的,因为编译器知道在编译时必须分配多少内存。 考虑以下代码: int n; cin>>n; int a[n]; 如果仅在运行期间读
我是 Python 的新手,但我之前还不知道这一点。我在 for 循环中有一个基本程序,它从站点请求数据并将其保存到文本文件但是当我检查我的任务管理器时,我发现内存使用量只增加了?长时间运行时,这对我
我正在设计一组数学函数并在 CPU 和 GPU(使用 CUDA)版本中实现它们。 其中一些函数基于查找表。大多数表占用 4KB,其中一些占用更多。基于查找表的函数接受一个输入,选择查找表的一两个条目,
读入一个文件,内存被动态分配给一个字符串,文件内容将被放置在这里。这是在函数内部完成的,字符串作为 char **str 传递。 使用 gdb 我发现在行 **(str+i) = fgetc(aFil
我需要证实一个理论。我正在学习 JSP/Java。 在查看了一个现有的应用程序(我没有写)之后,我注意到一些我认为导致我们的性能问题的东西。或者至少是其中的一部分。 它是这样工作的: 1)用户打开搜索
n我想使用memoization缓存某些昂贵操作的结果,这样就不会一遍又一遍地计算它们。 两个memoise和 R.cache适合我的需要。但是,我发现缓存在调用之间并不可靠。 这是一个演示我看到的问
我目前正在分析一些 javascript shell 代码。这是该脚本中的一行: function having() { memory = memory; setTimeout("F0
我有一种情况,我想一次查询数据库,然后再将整个数据缓存在内存中。 我得到了内存中 Elasticsearch 的建议,我用谷歌搜索了它是什么,以及如何在自己的 spring boot 应用程序中实现它
我正在研究 Project Euler (http://projecteuler.net/problem=14) 的第 14 题。我正在尝试使用内存功能,以便将给定数字的序列长度保存为部分结果。我正在
所以,我一直在做 Java 内存/注意力游戏作业。我还没有达到我想要的程度,它只完成了一半,但我确实让 GUI 大部分工作了......直到我尝试向我的框架添加单选按钮。我认为问题可能是因为我将 JF
我一直在尝试使用 Flask-Cache 的 memoize 功能来仅返回 statusTS() 的缓存结果,除非在另一个请求中满足特定条件,然后删除缓存。 但它并没有被删除,并且 Jinja 模板仍
我对如何使用 & 运算符来减少内存感到非常困惑。 我可以回答下面的问题吗? clase C{ function B(&$a){ $this->a = &$a; $thi
在编写代码时,我遇到了一个有趣的问题。 我有一个 PersonPOJO,其 name 作为其 String 成员之一及其 getter 和 setter class PersonPOJO { priv
在此代码中 public class Base { int length, breadth, height; Base(int l, int b, int h) { l
Definition Structure padding is the process of aligning data members of the structure in accordance
在 JavaScript Ninja 的 secret 中,作者提出了以下方案,用于在没有闭包的情况下内存函数结果。他们通过利用函数是对象这一事实并在函数上定义一个属性来存储过去调用函数的结果来实现这
我正在尝试找出 map 消耗的 RAM 量。所以,我做了以下事情;- Map cr = crPair.collectAsMap(); // 200+ entries System.out.printl
我是一名优秀的程序员,十分优秀!