gpt4 book ai didi

java - Hibernate搜索: Elasticsearch transport thread-3"java. lang.OutOfMemoryError:

转载 作者:行者123 更新时间:2023-12-02 10:54:46 25 4
gpt4 key购买 nike

我使用 hibernate search 和 elasticsearch 作为我的索引管理器。目前,我的 jvm 设置为使用 1GB 内存,我不希望增加内存。

我有一个 @Transactional 类,它为索引的 @Entity 插入总共 200 万行。

尽管插入成功,但 lucene 索引器内存不足,导致事务回滚。以下是我的 hibernate-search 配置和异常堆栈跟踪:

hibernate.search.default.indexmanager = elasticsearch
elastic= hibernate.search.default.elasticsearch.host =http://localhost:9200
hibernate.search.default.elasticsearch.index_schema_management_strategy = CREATE
#should be green for prod
hibernate.search.default.elasticsearch.required_index_status = yellow
hibernate.search.elasticsearch.scroll_backtracking_window_size=10000
hibernate.search.elasticsearch.scroll_fetch_size=1000

堆栈跟踪:

Exception in thread "Hibernate Search: Elasticsearch transport thread-3" java.lang.OutOfMemoryError: GC overhead limit exceeded
at java.util.HashMap$KeySet.iterator(HashMap.java:917)
at java.util.HashSet.iterator(HashSet.java:173)
at java.util.Collections$UnmodifiableCollection$1.<init>(Collections.java:1039)
at java.util.Collections$UnmodifiableCollection.iterator(Collections.java:1038)
at org.apache.http.impl.nio.reactor.BaseIOReactor.validate(BaseIOReactor.java:212)
at org.apache.http.impl.nio.reactor.AbstractIOReactor.execute(AbstractIOReactor.java:280)
at org.apache.http.impl.nio.reactor.BaseIOReactor.execute(BaseIOReactor.java:104)
at org.apache.http.impl.nio.reactor.AbstractMultiworkerIOReactor$Worker.run(AbstractMultiworkerIOReactor.java:588)
at java.lang.Thread.run(Thread.java:748)
2018-08-15 11:37:53.184 ERROR 10624 --- [nsport thread-1] o.a.h.i.n.c.InternalHttpAsyncClient : I/O reactor terminated abnormally

org.apache.http.nio.reactor.IOReactorException: I/O dispatch worker terminated abnormally
at org.apache.http.impl.nio.reactor.AbstractMultiworkerIOReactor.execute(AbstractMultiworkerIOReactor.java:356) ~[httpcore-nio-4.4.9.jar:4.4.9]
at org.apache.http.impl.nio.conn.PoolingNHttpClientConnectionManager.execute(PoolingNHttpClientConnectionManager.java:194) ~[httpasyncclient-4.1.3.jar:4.1.3]
at org.apache.http.impl.nio.client.CloseableHttpAsyncClientBase$1.run(CloseableHttpAsyncClientBase.java:64) ~[httpasyncclient-4.1.3.jar:4.1.3]
at java.lang.Thread.run(Thread.java:748) [na:1.8.0_171]
Caused by: java.lang.OutOfMemoryError: GC overhead limit exceeded
at java.util.HashMap$KeySet.iterator(HashMap.java:917) ~[na:1.8.0_171]
at java.util.HashSet.iterator(HashSet.java:173) ~[na:1.8.0_171]
at java.util.Collections$UnmodifiableCollection$1.<init>(Collections.java:1039) ~[na:1.8.0_171]
at java.util.Collections$UnmodifiableCollection.iterator(Collections.java:1038) ~[na:1.8.0_171]
at org.apache.http.impl.nio.reactor.BaseIOReactor.validate(BaseIOReactor.java:212) ~[httpcore-nio-4.4.9.jar:4.4.9]
at org.apache.http.impl.nio.reactor.AbstractIOReactor.execute(AbstractIOReactor.java:280) ~[httpcore-nio-4.4.9.jar:4.4.9]
at org.apache.http.impl.nio.reactor.BaseIOReactor.execute(BaseIOReactor.java:104) ~[httpcore-nio-4.4.9.jar:4.4.9]
at org.apache.http.impl.nio.reactor.AbstractMultiworkerIOReactor$Worker.run(AbstractMultiworkerIOReactor.java:588) ~[httpcore-nio-4.4.9.jar:4.4.9]
... 1 common frames omitted

是否有任何调整可以帮助缓解这种情况?

最佳答案

仅仅因为 Hibernate Search 索引器触发了 OutOfMemoryError,并不意味着 Hibernate Search 索引器消耗了太多内存。它只是碰巧超出了内存限制,但问题也可能在于实体持久性代码的行为方式。需要明确的是,如果 JVM 的其余部分占用 999MB,而 Hibernate Search 仅分配 2MB,则 Hibernate Search 最后请求内存时将触发 OutOfMemoryError

现在,在持久化/索引大量数据时最可能出现的问题是,您没有在代码中采取任何预防措施,只是循环并向事务添加越来越多的更改,从而迫使 Hibernate ORM 和搜索存储更多和内部缓冲区中有更多数据,直到事务最终提交。

除非您使用 JMS 后端(这很难,我不会推荐),否则我所知道的唯一解决方案将迫使您失去一点“事务性”,这意味着您的流程中的失败将导致让您的数据处于不一致的状态。

第一个也许更正确的解决方案是,您不要使用单个大交易,而是使用多个较小的交易。例如,为 200 个元素的每个 block 创建一个事务。当然,这意味着如果一个 block 失败,以前的 block 仍将在数据库中,但在许多情况下这可能并不重要,因为您可以从失败的位置重新启动,并且索引仍将与数据库同步。

Spring 使您可以使用 transaction templates 控制事务,因此您可以为 200 个元素的每个 block 手动启动一个新事务,或者只需重构代码以将 @Transactional 注释放在正确的位置。

第二种解决方案是您仍然使用单个大事务,但在事务期间定期将更改刷新到数据库(如果事务中止,稍后可以回滚更改,不要这样做)不用担心)和索引(稍后将无法回滚更改)。这尤其意味着,如果事务失败,您将必须重新启动所有内容并清除索引,因为它将不再与数据库同步(回滚更改)。

您可以在文档中找到使用定期刷新的示例:https://docs.jboss.org/hibernate/search/5.10/reference/en-US/html_single/#search-batchindex-flushtoindexes

如果您修改该示例,您的代码将或多或少看起来像这样:

// Execute the code below inside a transaction
Session session = ...;
FullTextSession fullTextSession = Search.getFullTextSession( session );
int index = 0;
while(results.next()) {
index++;

// TODO: add code here to insert one row

if (index % BATCH_SIZE == 0) {
session.flush(); //apply changes to the database
fullTextSession.flushToIndexes(); //apply changes to indexes
fullTextSession.clear(); //free memory since the queue is processed
}
}

关于java - Hibernate搜索: Elasticsearch transport thread-3"java. lang.OutOfMemoryError:,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51856477/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com