gpt4 book ai didi

elasticsearch - 如何在ElasticSearch中合并分片

转载 作者:行者123 更新时间:2023-12-02 22:22:57 24 4
gpt4 key购买 nike

几个月前,我启动了一个ElasticSearch实例,但我高估了平均分片的大小。我的碎片现在很小,最大为400mb。我发现建议的大小应该是大约50gb(基于stackoverflow搜索)。我也用尽了最大碎片数,因此我不得不重新配置它。但是正确的方法是更改​​分片的逻辑,并基本上使分片更大。就我而言,这是完全可行的,但问题是如何处理已经存在的碎片。我当然可以重播数据,但这将花费很多时间。那么,有没有更好的方法将较小的碎片合并成较大的碎片?

最佳答案

据我所知,您不能即时合并碎片。这曾经是您必须重新索引数据的情况之一。

Elasticsearch现在提供了一种使这种情况减轻痛苦的方法。 Shrink API允许您创建一个新索引,该索引的主碎片数是源索引的主碎片数的因数。例如,如果您的索引具有12个分片,则收缩的索引可以具有6、4、2、1个主分片。

希望对您有所帮助!

关于elasticsearch - 如何在ElasticSearch中合并分片,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45390872/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com