gpt4 book ai didi

amazon-web-services - 如何为AWS Elasticsearch Service增加_cluster/settings/cluster.max_shards_per_node

转载 作者:行者123 更新时间:2023-12-03 00:37:12 25 4
gpt4 key购买 nike

我使用AWS Elasticsearch Service版本7.1及其内置的Kibana来管理应用程序日志。 Logstash每天创建新索引。我的Logstash有时会遇到有关最大分片限制达到的错误,我必须删除旧索引才能使其重新工作。
从该文档(https://docs.aws.amazon.com/elasticsearch-service/latest/developerguide/aes-handling-errors.html)中发现,我可以选择增加_cluster/settings/cluster.max_shards_per_node
所以我通过在Kibana Dev Tools中输入以下命令来尝试

PUT /_cluster/settings
{
"defaults" : {
"cluster.max_shards_per_node": "2000"
}
}
但是我得到这个错误
{
"Message": "Your request: '/_cluster/settings' payload is not allowed."
}
有人建议我尝试更新AWS不允许的某些设置时发生此错误,但是此文档( https://docs.aws.amazon.com/elasticsearch-service/latest/developerguide/aes-supported-es-operations.html#es_version_7_1)告诉我 cluster.max_shards_per_node是允许列表中的一个。
请建议如何更新此设置。

最佳答案

您快到了,需要将defaults重命名为persistent

PUT /_cluster/settings
{
"persistent" : {
"cluster.max_shards_per_node": "2000"
}
}
但是请注意,每个节点允许的分片越多,每个节点将需要的资源越多,而性能却越差。

关于amazon-web-services - 如何为AWS Elasticsearch Service增加_cluster/settings/cluster.max_shards_per_node,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63700998/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com