gpt4 book ai didi

python - 如何避免 Python 中的日志文件过大?

转载 作者:太空宇宙 更新时间:2023-11-04 02:00:06 24 4
gpt4 key购买 nike

我的脚本每 5 秒执行一次。错误记录到文件中。这意味着,如果出现错误,日志文件每 5 秒就会因相同的错误而膨胀

while True:
try:
i_might_fail() # As long as this line fails...
except Exception as ex:
logger.error(ex) # ... the log file gets bloated
time.sleep(5)

不可能终止脚本。它必须每 5 秒重试一次。

我正在寻找一种日志记录功能,以在 x 分钟内忽略相同的异常:

logger.ignore_duplicates_for(10, 'minutes')

有什么想法吗?提前致谢!

最佳答案

这个特性可以这样实现:

import logging
import time
import datetime

logger = logging.getLogger(__file__)


TIMEDELTA = datetime.timedelta(seconds=5)


def error_without_duplicates(self, msg, *args, **kwargs):
if not hasattr(self, 'msg_cache'):
self.msg_cache = {}
str_msg = str(msg)
now = datetime.datetime.utcnow()
if str_msg not in self.msg_cache:
self.error(msg, *args, **kwargs)
self.msg_cache[str_msg] = now
elif now - self.msg_cache[str_msg] > TIMEDELTA:
self.error(msg, *args, **kwargs)
self.msg_cache[str_msg] = now


logging.Logger.error_without_duplicates = error_without_duplicates


while True:
try:
a = 1 /0
except Exception as ex:
logger.error_without_duplicates(ex) # every 5 seconds, not 1
time.sleep(1)

关于python - 如何避免 Python 中的日志文件过大?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55887741/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com