gpt4 book ai didi

elasticsearch - 由于批量上传错误而无法上传到Elasticsearch集群时,logstash会无限次重试

转载 作者:行者123 更新时间:2023-12-03 01:25:46 27 4
gpt4 key购买 nike

由于批量上传错误而无法上传到Elasticsearch集群时,logstash会无限次重试。它停留在此错误,并且不处理其他日志。有人可以帮我解决这个问题吗?
[2019-10-09T19:05:38,343] **[ERROR]** [logstash.outputs.elasticsearch][main] Encountered a retryable error. Will Retry with exponential backoff {:code=>413, :url=>"https://elasticsearch.domain:443/_bulk", :body=>"{\"Message\":\"Request size exceeded 10485760 bytes\"}"}

最佳答案

看起来您正在使用Logstash> 7.6,这也是我的情况,因此刷新不再起作用。

为了更改批量大小,请在输出部分中添加以下参数,此参数自2020/03/04起可用:
max_bulk_bytes => 9999999
之后,插件将自动设置批量大小。

amazon_es {
hosts => ["monitoring"]
region => "eu-central-1"
index => "cloudfront-logs-%{+YYYY.MM.dd}"
document_id => "%{[x_edge_request_id]}"
max_bulk_bytes => 9999999
}
}

您还可以考虑根据数据更新ES集群的实例类型:
AWS ES Network limits

在GitHub插件页面上查看更多详细信息:
logstash-output-amazon_es

我也尝试更改管道大小,但没有成功:
https://www.elastic.co/guide/en/logstash/current/logstash-settings-file.html

关于elasticsearch - 由于批量上传错误而无法上传到Elasticsearch集群时,logstash会无限次重试,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58313552/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com