gpt4 book ai didi

linux - Python - 从经常更新的远程日志文件中读取

转载 作者:太空宇宙 更新时间:2023-11-04 12:40:45 24 4
gpt4 key购买 nike

我有一个不断写入远程网络设备 (F5 bigip) 的日志文件。我有一个 Linux 跳跃站,我可以从那里获取该日志文件并对其进行解析。我确实找到了一个可以实现“tail -f”的解决方案,但我无法使用 nice 或类似的方法来让我的脚本在注销后继续运行。我可以做的是运行一个 cronjob 并每 5 分钟复制一次文件。我可以处理我下载的文件,但下次我复制它时,它会包含很多通用数据,那么我如何只处理新的数据呢?欢迎任何帮助或建议!

最佳答案

针对您的问题的两种可能(非 python)解决方案。如果你想在注销后保持脚本在你的机器上运行,检查 nohup 结合 & 像:

nohup my_program & >/dev/null

在 linux 机器上,您可以提取两个文件之间的差异

grep -Fxv -f old.txt new.txt > dif.txt

如果文件很大,这可能会很慢。 dif.txt 文件将只包含新内容,并且可以由您的程序检查。也可能有涉及 diff 的解决方案。

关于linux - Python - 从经常更新的远程日志文件中读取,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40286845/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com