- r - 以节省内存的方式增长 data.frame
- ruby-on-rails - ruby/ruby on rails 内存泄漏检测
- android - 无法解析导入android.support.v7.app
- UNIX 域套接字与共享内存(映射文件)
我正在开发一个在 Windows Mobile 设备上运行的 Java 应用程序。为了实现这一点,我们一直在使用 Esmertec JBed JVM,它并不完美,但我们现在坚持使用它。最近我们收到了客户关于 OutOfMemoryErrors 的投诉。在玩了很多东西后,我发现该设备有足够的可用内存(大约 4MB)。
OutOfMemoryErrors 总是发生在代码中的同一点,即在扩展 StringBuffer 以向其附加一些字符时。在这个区域周围添加了一些日志之后,我发现我的 StringBuffer 中有大约 290000 个字符,容量大约为 290500。内部字符数组的扩展策略只是将大小加倍,所以它会尝试分配一个数组大约 580000 个字符。我也打印了这段时间的内存使用情况,发现它使用了大约 3.8MB,总共大约 6.8MB(尽管我看到总可用内存有时会上升到大约 12MB,所以有很大的扩展空间)。因此,此时应用程序报告了 OutOfMemoryError,考虑到还有多少可用空间,这没有多大意义。
到目前为止,我开始考虑应用程序的操作。基本上正在发生的事情是我正在使用 MinML(一个小型 XML Sax 解析器)解析一个 XML 文件。 XML 中的一个字段包含大约 300k 个字符。解析器从磁盘流式传输数据,默认情况下一次只加载 256 个字符。因此,当它到达有问题的字段时,解析器将调用处理程序的“characters()”方法超过 1000 次。每次它将创建一个包含 256 个字符的新 char[]。处理程序只是将这些字符附加到 StringBuffer。 StringBuffer 的默认初始大小仅为 12,因此当字符被附加到缓冲区时,它将不得不增长多次(每次创建一个新的 char[])。
我的假设是,虽然有足够的空闲内存,因为以前的 char[] 可以被垃圾收集,但可能没有足够大的连续内存块来容纳我试图分配的新数组.并且可能 JVM 不够聪明,无法扩展堆大小,因为它很愚蠢,认为没有必要,因为显然有足够的空闲内存。
所以我的问题是:是否有人对此 JVM 有任何经验,并且可能能够最终证实或反驳我对内存分配的假设?另外,有没有人有任何想法(假设我的假设是正确的)关于如何改进数组的分配以使内存不会变得碎片化?
注意:我已经尝试过的事情:
做这两件事有点帮助,但是当我增加输入的 xml 数据的大小时,我仍然会在相当小的大小(大约 350kb)处得到 OutOfMemoryErrors。
要补充一点:所有这些测试都是在使用相关 JVM 的设备上执行的。如果我使用 Java SE 1.2 JVM 在桌面上运行相同的代码,我没有任何问题,或者至少在我的数据大小达到大约 4MB 之前我不会遇到问题。
编辑:
我刚刚尝试过的另一件事是我将 Xms 设置为 10M。所以这解决了 JVM 没有在应该扩展堆的时候扩展堆的问题,并允许我在错误发生之前处理更多数据。
最佳答案
也许你可以试试VTD光。它似乎比 SAX 更节省内存。 (我知道这是一个巨大的变化。)
关于java - 在 Java 中分配大量数组时避免内存碎片,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/2066808/
我在具有 2CPU 和 3.75GB 内存 (https://aws.amazon.com/ec2/instance-types/) 的 c3.large Amazon EC2 ubuntu 机器上运
我想通过用户空间中的mmap-ing并将地址发送到内核空间从用户空间写入VGA内存(视频内存,而不是缓冲区),我将使用pfn remap将这些mmap-ed地址映射到vga内存(我将通过 lspci
在 Mathematica 中,如果你想让一个函数记住它的值,它在语法上是很轻松的。例如,这是标准示例 - 斐波那契: fib[1] = 1 fib[2] = 1 fib[n_]:= fib[n] =
我读到动态内存是在运行时在堆上分配的,而静态内存是在编译时在堆栈上分配的,因为编译器知道在编译时必须分配多少内存。 考虑以下代码: int n; cin>>n; int a[n]; 如果仅在运行期间读
我是 Python 的新手,但我之前还不知道这一点。我在 for 循环中有一个基本程序,它从站点请求数据并将其保存到文本文件但是当我检查我的任务管理器时,我发现内存使用量只增加了?长时间运行时,这对我
我正在设计一组数学函数并在 CPU 和 GPU(使用 CUDA)版本中实现它们。 其中一些函数基于查找表。大多数表占用 4KB,其中一些占用更多。基于查找表的函数接受一个输入,选择查找表的一两个条目,
读入一个文件,内存被动态分配给一个字符串,文件内容将被放置在这里。这是在函数内部完成的,字符串作为 char **str 传递。 使用 gdb 我发现在行 **(str+i) = fgetc(aFil
我需要证实一个理论。我正在学习 JSP/Java。 在查看了一个现有的应用程序(我没有写)之后,我注意到一些我认为导致我们的性能问题的东西。或者至少是其中的一部分。 它是这样工作的: 1)用户打开搜索
n我想使用memoization缓存某些昂贵操作的结果,这样就不会一遍又一遍地计算它们。 两个memoise和 R.cache适合我的需要。但是,我发现缓存在调用之间并不可靠。 这是一个演示我看到的问
我目前正在分析一些 javascript shell 代码。这是该脚本中的一行: function having() { memory = memory; setTimeout("F0
我有一种情况,我想一次查询数据库,然后再将整个数据缓存在内存中。 我得到了内存中 Elasticsearch 的建议,我用谷歌搜索了它是什么,以及如何在自己的 spring boot 应用程序中实现它
我正在研究 Project Euler (http://projecteuler.net/problem=14) 的第 14 题。我正在尝试使用内存功能,以便将给定数字的序列长度保存为部分结果。我正在
所以,我一直在做 Java 内存/注意力游戏作业。我还没有达到我想要的程度,它只完成了一半,但我确实让 GUI 大部分工作了......直到我尝试向我的框架添加单选按钮。我认为问题可能是因为我将 JF
我一直在尝试使用 Flask-Cache 的 memoize 功能来仅返回 statusTS() 的缓存结果,除非在另一个请求中满足特定条件,然后删除缓存。 但它并没有被删除,并且 Jinja 模板仍
我对如何使用 & 运算符来减少内存感到非常困惑。 我可以回答下面的问题吗? clase C{ function B(&$a){ $this->a = &$a; $thi
在编写代码时,我遇到了一个有趣的问题。 我有一个 PersonPOJO,其 name 作为其 String 成员之一及其 getter 和 setter class PersonPOJO { priv
在此代码中 public class Base { int length, breadth, height; Base(int l, int b, int h) { l
Definition Structure padding is the process of aligning data members of the structure in accordance
在 JavaScript Ninja 的 secret 中,作者提出了以下方案,用于在没有闭包的情况下内存函数结果。他们通过利用函数是对象这一事实并在函数上定义一个属性来存储过去调用函数的结果来实现这
我正在尝试找出 map 消耗的 RAM 量。所以,我做了以下事情;- Map cr = crPair.collectAsMap(); // 200+ entries System.out.printl
我是一名优秀的程序员,十分优秀!