gpt4 book ai didi

elasticsearch - Logstash 重复数据

转载 作者:行者123 更新时间:2023-11-29 02:56:53 25 4
gpt4 key购买 nike

我在 Logstash 中有重复的数据

我怎样才能删除这个重复项?

我的输入是:

输入

input {
file {
path => "/var/log/flask/access*"
type => "flask_access"
max_open_files => 409599
}
stdin{}
}

过滤器

文件过滤器是:

filter {
mutate { replace => { "type" => "flask_access" } }
grok {
match => { "message" => "%{FLASKACCESS}" }
}
mutate {
add_field => {
"temp" => "%{uniqueid} %{method}"
}
}
if "Entering" in [api_status] {
aggregate {
task_id => "%{temp}"
code => "map['blockedprocess'] = 2"
map_action => "create"
}
}
if "Entering" in [api_status] or "Leaving" in [api_status]{
aggregate {
task_id => "%{temp}"
code => "map['blockedprocess'] -= 1"
map_action => "update"
}
}
if "End Task" in [api_status] {
aggregate {
task_id => "%{temp}"
code => "event['blockedprocess'] = map['blockedprocess']"
map_action => "update"
end_of_task => true
timeout => 120
}
}
}

看图,同样的数据日志,同一时间,我只是发送了一个日志请求。

enter image description here

最佳答案

我解决了

我在输出部分通过 ('document_id') 创建了一个唯一的 id

document_id 指向我的 temp,temp 是我在项目中的唯一 id

我的输出更改为:

output {
elasticsearch {
hosts => ["localhost:9200"]
document_id => "%{temp}"
# sniffing => true
# manage_template => false
# index => "%{[@metadata][beat]}-%{+YYYY.MM.dd}"
# document_type => "%{[@metadata][type]}"
}
stdout { codec => rubydebug }
}

关于elasticsearch - Logstash 重复数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39316108/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com