gpt4 book ai didi

elasticsearch - Kibana-@message字段中的唯一单词的积点计数

转载 作者:行者123 更新时间:2023-12-03 02:04:21 26 4
gpt4 key购买 nike

我正在一个环境中工作,其中有许多不同的日志文件,并且每个文件中有许多格式不同的日志行(100+)。

我已经广泛使用grok来揭示各种激动人心的趋势,但是我想知道是否有一个简单的通用图可以让我对任何日志文件中的单词出现频率有所了解?

在Kibana 4 beta 3中是否可以从@message字段中绘制出一些独特的单词? (我对任何数字都不感兴趣,我使用不断变化的带宽和频率)。

考虑以下日志文​​件:
2015年1月29日17:45:00 INFO正在加载香蕉3218763kbs已检索-null / absy
29/01/2015 17:45:01调试Apple审讯,已完成25
2015/01/29 17:45:02异常(exception)! 34天腐烂
2015/01/29 17:45:03关键的一天是菠萝123456789

想象上面的200种变化。

我想计算出每个返回的单词:

cat日志文件| cut -d“” -f3- | tr -d [0-9]

即删除时间戳,删除数字,然后计算每个单词的出现频率。我可能从未见过的日志文件中的饼状图/常用术语计数将非常有用:

香蕉788
帮助692
异常(exception)678
橙色53
检索287

我认为在“消息”字段上汇总“重要术语”会有所帮助,但前提是我必须排除任何数字,但这似乎是不可能的。

谢谢!

最佳答案

答案是在包含模式[A-Za-z] {2,} *中使用“术语”而不是“重要术语”,以仅包含2个字母或更多的单词(而非数字)。
凉!

关于elasticsearch - Kibana-@message字段中的唯一单词的积点计数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28221461/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com