gpt4 book ai didi

hibernate - 使用 Spring/Hibernate 批量插入

转载 作者:行者123 更新时间:2023-12-04 05:35:33 24 4
gpt4 key购买 nike

我在我的应用程序中使用混合 Spring/Hibernate(不是原创的)。对于给定的功能,我必须将 CSV 文件的内容导入到我的 Oracle DB 表中。
现在,我只是创建对象,我做

   HibernateTemplate.saveOrUpdate

在他们每个人上(我需要检索他们新分配的 ID)

然后事务发生在方法的末尾,使用 Spring 事务 API。

一切正常,除了性能,这对于大约 5000 个对象是正确的,但对于 100 000 对象却不是......

所以我寻找想法来加速这件事。我听说过使用 Hibernate 进行批量插入,但找不到任何可靠的引用资料。任何人都可以给我一些想法以更高的性能执行此导入吗?

最佳答案

您可能会尝试一些简单的方法是刷新并清除 session ,例如每 100 个对象...

所以执行

session.flush();
session.clear();

每 100 或 1000 次插入。

这将刷新并清除 hibernate session 并阻止它变得太大(可能是为什么您的 100 000 个对象需要这么长时间)。

此外,如果您使用身份标识符生成器,​​ hibernate 将默默地关闭批量插入。批量插入将提高性能。您还需要指定 hibernate.jdbc.batch_size 配置属性,相当于一次 100。

Manning 的 Java Persistence with Hibernate 是这本书的来源(好书 - 无数次拯救了我的皮肤)。

关于hibernate - 使用 Spring/Hibernate 批量插入,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/1222423/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com