gpt4 book ai didi

django - Django 的 QuerySets 是否足够懒惰来处理大数据集?

转载 作者:行者123 更新时间:2023-12-01 04:20:20 28 4
gpt4 key购买 nike

我想我在某处读到 Django 的 ORM 懒惰地加载对象。假设我想在批量更新操作中更新一大组对象(比如 500,000)。是否可以简单地迭代一个非常大的 QuerySet,在我进行时加载、更新和保存对象?

同样,如果我想允许所有这些数千个对象的分页 View ,我可以使用内置的 pagination facility还是由于所有对象的 QuerySet 的大小,我每次都必须手动在数据集上运行一个窗口并进行查询?

最佳答案

如果您评估一个 500000 结果的查询集,它很大,它将被缓存在内存中。相反,您可以使用 iterator() 查询集上的方法,它将根据请求返回结果,而不会消耗大量内存。

另外,使用 update()F()对象以便在单个查询中进行简单的批量更新。

关于django - Django 的 QuerySets 是否足够懒惰来处理大数据集?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/2141228/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com