- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
正如标题所说,我正在使用Wt 建立一个论坛。它应该是一个更大项目的一部分(与此同时,它让我有机会更好地学习 Wt,然后再进入该项目最困难的部分)。
问题是当我运行服务器时,它需要大约 1.5GB。
我目前没有使用图像、媒体或其他选项。只有“普通”(即 html+text+javascript)小部件,将它们组合起来创建更复杂的小部件、DBO 和大量模板。
对于 WT 应用程序,这样的内存使用听起来是否正常?如果没有,是否有一种方法可以通过函数、数据结构和代码来分析内存使用情况(使用百分比等,就像我们可以使用时间分析器一样)?
显然,根据 Valgrind 的说法,我没有泄漏。
==13061== Memcheck, a memory error detector
==13061== Copyright (C) 2002-2015, and GNU GPL'd, by Julian Seward et al.
==13061== Using Valgrind-3.11.0 and LibVEX; rerun with -h for copyright info
==13061== Command: ./GameServer --docroot=. --http-address 0.0.0.0 --http-port 8080
==13061== Parent PID: 13060
==13061==
==13061==
==13061== HEAP SUMMARY:
==13061== in use at exit: 111,172 bytes in 243 blocks
==13061== total heap usage: 271,492 allocs, 271,249 frees, 1,545,796,300 bytes allocated
==13061==
==13061== LEAK SUMMARY:
==13061== definitely lost: 0 bytes in 0 blocks
==13061== indirectly lost: 0 bytes in 0 blocks
==13061== possibly lost: 0 bytes in 0 blocks
==13061== still reachable: 109,820 bytes in 225 blocks
==13061== of which reachable via heuristic:
==13061== newarray : 1,536 bytes in 16 blocks
==13061== suppressed: 1,352 bytes in 18 blocks
==13061== Reachable blocks (those to which a pointer was found) are not shown.
==13061== To see them, rerun with: --leak-check=full --show-leak-kinds=all
==13061==
==13061== For counts of detected and suppressed errors, rerun with: -v
==13061== ERROR SUMMARY: 0 errors from 0 contexts (suppressed: 18 from 18)
编辑:回复 Hayt 的问题:它确实是从那么多用法开始的。虽然,实际上我充分和广泛地使用容器来暂时保存数据(例如,来自数据库查询,但没有什么可以证明这么多内存是合理的,因为目前整个数据库文件只有 80kb),内存的使用并不' 随着时间的推移而增加,第二个用户的增加可以忽略不计(系统监视器在开始时确认 1.4GB,在我从 user_1 刷新网页几次并使用 user_2 登录后)。
Edit2:使用 valgrind 和 massif 工具,我发现了问题:它是应用程序的另一部分与 WT 完全无关。
最佳答案
好的,问题与 WT 无关。正如 Hayt 在评论中所建议的那样,我将 valgrind 与 massif 选项一起使用,并使用以下行制作了一个小的 .sh 文件(我使用的是 Ubuntu):
valgrind --tool=massif --trace-children=yes --num-callers=500 --log-file=massif.txt ./WebServer --docroot=. --http-address 0.0.0.0 --http-port 8080
其中“WebServer”是应用程序的名称,它后面的选项特定于 wt 服务器,问题是由项目的另一部分引起的,直到我注意到内存交换的那一刻我才忘记包括在内.
已解决。
关于c++ - Wt:1.5 GB 用于运行论坛(即使连接了单个用户)。正常吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40378957/
#include typedef std::vector vc; typedef std::vector vvc; vvc f() { const int N = (1 不把它还给操作系统。 因
我正在尝试训练 Dlib's train_shape_predictor_ex.cpp与 Halen数据集。我在 Release模式 中使用 Visual Studio 将代码编译为 64 位平台 作
当我试图解决this 时想到了这个问题。问题。 我有一个容量为 120 GB 的硬盘,其中 100 GB 被一个巨大的文件占用。所以 20 GB 仍然是免费的。 我的问题是,我们如何将这个巨大的文件拆
这个问题在这里已经有了答案: 关闭 10 年前。 Possible Duplicate: Can you allocate a very large single chunk of memory (
我有一台运行 Linux (3.19.5-200.fc21.x86_64) 的 128 GB RAM 的计算机。但是,我不能在单个进程中分配超过 ~30 GB 的 RAM。除此之外,malloc 失败
我需要为 808704000 个 float 分配内存,大约是 3085 MB。我的电脑有 32 GB 内存,运行 64 位 Linux (CentOS 6.6)。每次我尝试分配内存时,malloc
很抱歉这个愚蠢的问题,但是当reading about 32 bits limitation ,我发现由于 Memory-Mapped 方法,MongoDB 不能存储超过 2 GB,但是: 2^32
假设我们有一个 32 位地址,那么每一位可以是 1 或 0。 所以组合总数等于2^32。 所以我们可以表示 2^32 个地址(没有单位)。 但为什么人们说 32 位地址可以表示 2^32 字节地址(为
好吧,这个问题确实是一个挑战! 背景 我正在从事一个涉及比正常数字更大的基于算术的项目。我是新手,我打算使用 4 GB 文件大小的最坏情况(我什至希望将其扩展到 5GB 上限,因为我之前看到文件大小大
我在文件系统上有大约 12 个大小为 1 GB 到 10 GB 的存储库,我需要为所有这些存储库设置自动备份(我们的旧备份脚本在计算机出现故障时丢失了) XP 64 位机器。 看完this quest
我尝试调整 Linux VM 上的操作系统磁盘大小,该 VM 通常由 azure 自动创建。我无法创建自定义操作系统磁盘 - 请告知我该怎么做? enter image description her
我在 .NET 中遇到了一个问题,我的数组受到我拥有的 RAM 数量的限制,并且我需要可以容纳至少 40 GB 字节的数组。我正在考虑使用硬盘驱动器作为虚拟数组的想法不在乎它是否慢。 我正在研究这个想
我尝试调整 Linux VM 上的操作系统磁盘大小,该 VM 通常由 azure 自动创建。我无法创建自定义操作系统磁盘 - 请告知我该怎么做? enter image description her
我的目标是看看当使用比物理 GPU 内存所能容纳的更多纹理数据时会发生什么。我的第一次尝试是加载多达 40 个 DDS 纹理,导致内存占用比 GPU 内存高得多。但是,我的场景在 9500 GT 上仍
Windows 上的 JDK 最多需要 2 GB 左右的 RAM。即使我们为 JDK 分配更多 RAM;它不接受它。如果我需要在 Windows 上运行需要 8 GB RAM 的进程;我怎样才能实现它
我有一个程序需要分配2个15亿长度的整数数组。这是一个编码挑战( https://projecteuler.net/problem=282 ),并且没有办法使用如此大的数组(如果有,请不要告诉我;我应
假设我有一个 32 位内核。 4 Gb RAM,10 Gb 交换分区。 我有一个在无限循环中有 malloc 的进程。因此,最终系统的 OOM 将终止该进程。这里有两个论点。 参数 1:因为它是 32
我有一个可以大于 4GB 的文件。我正在使用 linux split 命令按行拆分它(这是要求)。但是拆分原始文件后,我希望拆分文件的大小始终小于 2GB。原始文件大小可能在 3-5 GB 之间。我想
我有一台带有 32GB RAM 的 Mac 服务器(雪豹)。当我尝试在 Perl (v 5.10.0) 中分配超过 1.1GB 的 RAM 时,出现内存不足错误。这是我使用的脚本: #!/usr/bi
我们正在尝试运行.NET 4 Web应用程序(在8 GB,8核心Windows 2008 R2 64位Webedition服务器上),该应用程序使用Spire.doc创建Word mailmerge文
我是一名优秀的程序员,十分优秀!