gpt4 book ai didi

elasticsearch - Elasticsearch 1.5.2共享分配卡住了

转载 作者:行者123 更新时间:2023-12-03 01:55:28 26 4
gpt4 key购买 nike

我有一个具有以下规格(es v 1.5.2)的集群:

  • 3个节点,RAM:32GB,CPU核心:每个8个
  • 63总索引= 32奇迹+ 1 kibana + 30数据
  • 366个碎片=(32奇迹+ 1 kibana + 150数据)* 1个副本
  • 959,231,444总文档
  • 588.38GB总数据
  • ES_HEAP_SIZE = 16克

  • 我已成功 删除了约200个空索引并重新启动了群集-通常,分配需要1个小时才能完成,但现在已超过12个小时,但我仍有183个未分配的共享。

    另外,我可以看到node1仅分配了6个分片-大多数数据分片在node2和node3之间分开。我尝试重新启动node1,但仍然遇到相同的情况。为什么不花更多的钱呢?

    可能是什么问题,如何使分配进行得更快并完成?

    最佳答案

    好的,我找到了一个解决方案-我只是通过将所有索引的副本数设置为0来update indices settings,然后集群运行状况变为绿色,最后通过将所有索引的副本数设置回最后再次更新设置到1。

    集群开始正常分配分片(也分配给node1)。

    关于elasticsearch - Elasticsearch 1.5.2共享分配卡住了,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36978786/

    26 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com