gpt4 book ai didi

regex - 使用 bash 和 awk 将日志文件分组

转载 作者:行者123 更新时间:2023-11-29 09:47:30 26 4
gpt4 key购买 nike

我正在尝试以特定方式对日志文件进行排序,但我不确定如何执行最后一步。

我的日志文件有这样的条目:

Feb 15 17:00:34 server sshd[13879]: Invalid user test from 200.242.94.133
Feb 15 17:00:35 server sshd[13780]: Invalid user ftpuser from 200.242.94.133
Feb 15 17:01:34 server sshd[13890]: Invalid user test from 200.242.94.133
Feb 15 17:01:35 server sshd[13791]: Invalid user vnc from 200.242.94.133
Feb 15 17:01:35 server sshd[13794]: Invalid user test from 50.63.172.108
Feb 15 17:01:36 server sshd[13798]: Invalid user vnc from 50.63.172.108

我使用命令:

cat logfile | grep "Invalid user" | awk '{print $8 ", " $10 }' | sort -t":" -k2,2 | uniq -c

哪些输出:

 1 ftpuser, 200.242.94.133
2 test, 200.242.94.133
1 test, 50.63.172.108
1 vnc, 200.242.94.133
1 vnc, 50.63.172.108

我想得到:

1 ftpuser, (1) 200.242.94.133
3 test, (2) 200.242.94.133, (1) 50.63.172.108
2 vnc, (1) 200.242.94.133, (1) 50.63.172.108

我不确定如何在保持 ip 地址单独计数的同时对单词列求和,然后将其与其他结果一起包含在内。

尝试回答:

# awk '/Invalid user/{user[$8]++;ip[$8][$10]++} END{for (u in user){printf "%s %s",user[u],u;for (i in ip[u])printf ", (%s) %s",ip[u][i],i;print""}}' logfile | sort -k2
awk: /Invalid user/{user[$8]++;ip[$8][$10]++} END{for (u in user){printf "%s %s",user[u],u;for (i in ip[u])printf ", (%s) %s",ip[u][i],i;print""}}
awk: ^ syntax error
awk: /Invalid user/{user[$8]++;ip[$8][$10]++} END{for (u in user){printf "%s %s",user[u],u;for (i in ip[u])printf ", (%s) %s",ip[u][i],i;print""}}
awk: ^ syntax error
awk: /Invalid user/{user[$8]++;ip[$8][$10]++} END{for (u in user){printf "%s %s",user[u],u;for (i in ip[u])printf ", (%s) %s",ip[u][i],i;print""}}
awk: ^ syntax error

最佳答案

$ awk '/Invalid user/{user[$8]++;ip[$8][$10]++} END{for (u in user){printf "%s %s",user[u],u;for (i in ip[u])printf ", (%s) %s",ip[u][i],i;print""}}' logfile
2 vnc, (1) 50.63.172.108, (1) 200.242.94.133
1 ftpuser, (1) 200.242.94.133
3 test, (1) 50.63.172.108, (2) 200.242.94.133

如果您希望它按用户字母顺序排序:

$ awk '/Invalid user/{user[$8]++;ip[$8][$10]++} END{for (u in user){printf "%s %s",user[u],u;for (i in ip[u])printf ", (%s) %s",ip[u][i],i;print""}}' logfile | sort -k2
1 ftpuser, (1) 200.242.94.133
3 test, (1) 50.63.172.108, (2) 200.242.94.133
2 vnc, (1) 50.63.172.108, (1) 200.242.94.133

以上适用于 GNU awk。我还没有用 BSD 测试过。

工作原理

  • /无效用户/{user[$8]++;ip[$8][$10]++}

    对于 logfile 中包含无效用户的任何行,这将计算用户名、字段 8 和 ip 地址、字段 10。

  • END{for (u in user){printf "%s %s",user[u],u;for (i in ip[u])printf ", (%s) % s",ip[u][i],i;print""}}

    当我们读完 logfile 后,循环遍历我们看到的每个用户并打印我们看到该用户的次数,后跟该用户的名字,然后是,对于每个ip 地址,该 ip 的计数,后跟该 ip。

关于regex - 使用 bash 和 awk 将日志文件分组,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28598043/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com