- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我正在 iPad 上解析一个大约有 53 MB 的 JSON 文件。解析工作正常,我使用的是 Yajlparser,它是一个 SAX 解析器,并且设置如下:
NSData *data = [NSData dataWithContentsOfFile:path options:NSDataReadingMappedAlways|NSDataReadingUncached error:&parseError];
YAJLParser *parser = [[YAJLParser alloc] init];
parser.delegate = self;
[parser parse:data];
到目前为止一切正常,但 JSON 文件变大了,现在我在 iPad 2 上突然遇到内存警告。它收到 4 条内存警告,然后就崩溃了。在 iPad 3 上,它可以完美运行,没有任何内存警告。
我已经开始使用 Instruments 对其进行分析,并发现了很多 CFNumber 分配(我在几分钟后停止了 Instruments,之前我一直在运行它直到崩溃,CFNumber 的大小约为 60 MB 或更多)。
打开 CFNumber 详细信息后,它显示了一个巨大的分配列表。其中一位向我展示了以下内容:
还有一个在这里:
那我做错了什么?这个数字(例如最后一张图片中的 72.8%)代表什么?我正在使用 ARC,所以我没有做任何 Release 或 Retain 之类的事情。
感谢您的帮助。干杯
编辑:我已经在这里问过关于如何解析如此大的文件的问题:iPad - Parsing an extremely huge json - File (between 50 and 100 mb)
所以解析本身似乎没问题。
最佳答案
请参阅 Efficiently Importing Data 上的 Apple 核心数据文档,特别是“减少峰值内存占用”。
您需要确保内存中不会同时有太多新实体,这涉及在解析数据时定期保存和重置上下文,以及很好地使用自动释放池。
一般的 sudo 代码是这样的:
while (there is new data) {
@autoreleasepool {
importAnItem();
if (we have imported more than 100 items) {
[context save:...];
[context reset];
}
}
}
所以基本上,在您的主循环或解析代码周围放置一个自动释放池。计算您创建了多少个 NSManagedObject
实例,并定期保存和重置托管对象上下文以将这些实例清除出内存。这应该可以减少您的内存占用。数字 100
是任意的,您可能想尝试不同的值。
因为您要为每个批处理保存上下文,所以您可能希望导入到商店的临时副本中,以防出现问题并导致您只能进行部分导入。当一切都完成后,您可以覆盖原来的商店。
关于ios - 解析 JSON 和创建 NSManagedObjects 时内存消耗巨大,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18466638/
我通过在共享首选项中使用 GSON 将其转换为 json 来存储我的复杂对象。但是在检索它时,无法获得预期的字符串。 代码 这里 holderListCustomizationMap 是对象的复杂映射
因此,我正在尝试对大于可用RAM的gz压缩文件执行某种面向行的操作,因此排除了将其首先读取为字符串的情况。问题是,如何在rust(缺少gunzip file.gz|./my-rust-program)
我试图更好地理解为什么具有潜在大精度的大数字处理不一致,特别是在 JavaScript 及其本地化工具(例如 ECMA-402/Intl)中。我假设这与 float 的使用有关,但我想了解限制在哪里和
我们有一个 5GB 的 csv 文件,这是我们业务的主列表。 有多个类别,每个类别包含数千条记录。我们的目标是将每个类别导出为其自己的 csv 文件。 我们如何运行查询并导出数据? 运行 OSX。有没
基于上一个问题 ( see here ),我试图通过 xmlEventParse 读取许多大型 xml 文件,同时保存节点变化数据。使用此示例 xml:https://www.nlm.nih.gov/
我正在开发一个系统,它加载一个巨大的 CSV 文件(超过 100 万行)并保存到数据库中。每行也有超过一千个字段。 CSV 文件被视为一个批处理,每一行都被视为其子对象。在添加对象的过程中,每个对象都
借助node-google模块 我编写了一个简单的 Node 模块来为我的网络应用程序启用“文本网络搜索”功能,并在我的一个 View 中显示结果。 由于在来自同一 IP 的少量查询后 Google
我有相当大的 4D 阵列 [20x20x40x15000],我使用 h5py 将其作为 HDF5 文件保存到磁盘.现在的问题是我想计算整个数组的平均值,即使用: numpy.average(HDF5_
我在遗留代码库中连接巨大的 CString 时遇到问题。 CStrings 可以包含 base64 编码的文件,因此可能很大。在某些时候,这些 CString 会像这样连接起来: result +=
我正在尝试让我的服务器提供来自另一台服务器的巨大文件。但是,为了保护我的凭据免受该远程服务器的攻击,我不能简单地将请求者重定向到文件 url;另一方面,虽然使用 StreamingHttpRespon
感谢对此的任何见解,我有 2 个问题: 1) 弄清楚为什么我的本地数据库 oplog 庞大且不断增长 2) 安全删除(或重置)我的 local.oplog 以释放 18 GB 的浪费空间 场景:我一直
我的预期任务:获取大量数据(1 GB 及更多大小)json 字符串,操作(进行一些格式化、解析 json、重组 json 数据)并写入新格式化的 json 字符串作为响应。处理这种情况的更好方法是什么
我做了一个小的 Angular 4 应用程序,但我不知道如何应用 tree shaking 和 aot 编译。我运行的命令如下: ng build --prod --aot 但我得到的结果仍然很大,供
我是一名优秀的程序员,十分优秀!