gpt4 book ai didi

elasticsearch - 用于tomcat日志的Logstash GROK过滤器

转载 作者:行者123 更新时间:2023-12-02 22:22:27 27 4
gpt4 key购买 nike

我是麋鹿的新手,我需要一种模式可以从“tomcat日志”中找到“transactionid跟随值”并创建单独的字段

示例日志如下所示...

2018-03-14 10:58:36,853 INFO so:165 - Female Value : 0.084370888769626617 for transactionId ABCsdf62969
2018-03-14 10:58:36,853 INFO so:165 - White Value : 0.90355902910232544 for transactionId ABtgF62969
2018-03-14 10:58:36,853 INFO so:165 - Black Value : 0.001742142834700644 for transactionId ZBCBfg2969
2018-03-14 10:58:36,853 INFO so:165 - Asian Value : 0.0055485325865447521 for transactionId TBCBF62969
2018-03-14 10:58:36,853 INFO so:165 - Hispanic Value : 0.079676181077957153 for transactionId L45BF62969
2018-03-14 10:58:36,853 INFO so:165 - Other Value : 0.0094741648063063622 for transactionId A56BF62969

最佳答案

这不是一个“问题/答案”网站,您甚至没有尝试就提出问题。先尝试Atleast,然后提出您遇到的错误。

我认为您是这个平台的新手。这次,我将为您提供模式,但请先理解它,然后再自己开发将来的模式。

对于您的情况,这将起作用:

  grok {
match => ["message", "%{TIMESTAMP_ISO8601:time} %{LOGLEVEL:log_level} %{GREEDYDATA:some_data} transactionId %{WORD:transaction_id}"]
}

努力工作。谢谢 !!

关于elasticsearch - 用于tomcat日志的Logstash GROK过滤器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49316954/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com