gpt4 book ai didi

java - Solr 出现 OutOfMemoryError -> 巨大的 1Gb FieldCacheImpl$StringIndexCache

转载 作者:太空宇宙 更新时间:2023-11-04 07:42:50 24 4
gpt4 key购买 nike

在 Solr 1.4 上,您知道什么可能会导致此类发生 OutOfMemoryError 吗?

org.apache.lucene.search.FieldCacheImpl$StringIndexCache#1

它需要 1 GB 的内存,底层的 WeakHashMap 只有 700 个键。

<小时/>

缓存配置:

<filterCache
class="solr.FastLRUCache"
size="1024"
initialSize="0"
autowarmCount="0"/>

<queryResultCache
class="solr.FastLRUCache"
size="1024"
initialSize="0"
autowarmCount="0"/>


<documentCache
class="solr.FastLRUCache"
size="1024"
initialSize="0"
autowarmCount="0"/>

通常我的对象都很大,但不会太大,每个对象不超过 1mb!

Xmx 为 2GB。

对 300 万篇文档建立了索引。

OOM 在查询时出现。

最佳答案

如果您检查/admin/stats.jsp 中的 Solr 核心,您可以在 FieldCache 下看到这一点:

提供 Lucene FieldCache 的自省(introspection),这**不是**由 Solr 管理的缓存。

除了更改查询之外,您无法对 Solr 中的此缓存执行任何操作。您很可能在不使用 facet.method=enum 的情况下对动态字段进行排序或进行分面。请参阅Solr/Lucene fieldCache OutOfMemory error sorting on dynamic field

关于java - Solr 出现 OutOfMemoryError -> 巨大的 1Gb FieldCacheImpl$StringIndexCache,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15792673/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com