gpt4 book ai didi

Elasticsearch 不接受数据

转载 作者:行者123 更新时间:2023-12-02 22:45:53 24 4
gpt4 key购买 nike

我有一个 Elasticsearch 集群 setup在 Kubernetes 上。最近,logstash 无法将任何数据推送到集群,因为集群中的一个节点磁盘空间不足。

这是logstash中的错误

 [Ruby-0-Thread-13@[main]>worker1: /usr/share/logstash/logstash-core/lib/logstash/pipeline.rb:383] elasticsearch - retrying failed action with response code: 403 ({"type"=>"cluster_block_exception", "reason"=>"blocked by: [FORBIDDEN/12/index read-only / allow delete (api)];"}) 

由于可用磁盘空间超过阈值,es-master 已将该节点标记为只读

[WARN ][o.e.c.r.a.DiskThresholdMonitor] [es-master-65ccf55794-pm4xz] flood stage disk watermark [95%] exceeded on [SaRCGuyyTBOxTjNtvjui-g][es-data-1][/data/data/nodes/0] free: 9.1gb[2%], all indices on this node will be marked read-only

在此之后,我释放了该节点上的资源,现在它有足够的可用空间(几乎 50%)。但logstash仍然无法将数据推送到elasticsearch,并且正在记录上面相同的错误。

我有以下问题

  1. elasticsearch 会自动恢复吗?
  2. 如果没有,我应该重新启动集群吗?我只是重新启动数据节点就足够了,还是应该重新启动主节点和 indest 节点?
  3. 有什么方法可以在不重新启动的情况下将索引标记为可写吗?

最佳答案

您必须手动重置索引上的只读 block 。

您可以查看文档herecluster.routing.allocation.disk.watermark.flood_stage block

The index block must be released manually once there is enough disk space available to allow indexing operations to continue.

PUT /<your index name>/_settings
{
"index.blocks.read_only_allow_delete": null
}

关于Elasticsearch 不接受数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52516022/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com