gpt4 book ai didi

ios - 解析 JSON 和创建 NSManagedObjects 时内存消耗巨大

转载 作者:可可西里 更新时间:2023-11-01 04:35:33 24 4
gpt4 key购买 nike

我正在 iPad 上解析一个大约有 53 MB 的 JSON 文件。解析工作正常,我使用的是 Yajlparser,它是一个 SAX 解析器,并且设置如下:

    NSData *data = [NSData dataWithContentsOfFile:path options:NSDataReadingMappedAlways|NSDataReadingUncached error:&parseError];
YAJLParser *parser = [[YAJLParser alloc] init];
parser.delegate = self;
[parser parse:data];

到目前为止一切正常,但 JSON 文件变大了,现在我在 iPad 2 上突然遇到内存警告。它收到 4 条内存警告,然后就崩溃了。在 iPad 3 上,它可以完美运行,没有任何内存警告。

我已经开始使用 Instruments 对其进行分析,并发现了很多 CFNumber 分配(我在几分钟后停止了 Instruments,之前我一直在运行它直到崩溃,CFNumber 的大小约为 60 MB 或更多)。

CFNumber allocations

打开 CFNumber 详细信息后,它显示了一个巨大的分配列表。其中一位向我展示了以下内容:

CFNumber alloc 1

还有一个在这里:

CFNumber alloc 2

那我做错了什么?这个数字(例如最后一张图片中的 72.8%)代表什么?我正在使用 ARC,所以我没有做任何 Release 或 Retain 之类的事情。

感谢您的帮助。干杯

编辑:我已经在这里问过关于如何解析如此大的文件的问题:iPad - Parsing an extremely huge json - File (between 50 and 100 mb)
所以解析本身似乎没问题。

最佳答案

请参阅 Efficiently Importing Data 上的 Apple 核心数据文档,特别是“减少峰值内存占用”。

您需要确保内存中不会同时有太多新实体,这涉及在解析数据时定期保存和重置上下文,以及很好地使用自动释放池。

一般的 sudo 代码是这样的:

while (there is new data) {
@autoreleasepool {
importAnItem();
if (we have imported more than 100 items) {
[context save:...];
[context reset];
}
}
}

所以基本上,在您的主循环或解析代码周围放置一个自动释放池。计算您创建了多少个 NSManagedObject 实例,并定期保存和重置托管对象上下文以将这些实例清除出内存。这应该可以减少您的内存占用。数字 100 是任意的,您可能想尝试不同的值。

因为您要为每个批处理保存上下文,所以您可能希望导入到商店的临时副本中,以防出现问题并导致您只能进行部分导入。当一切都完成后,您可以覆盖原来的商店。

关于ios - 解析 JSON 和创建 NSManagedObjects 时内存消耗巨大,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18466638/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com