gpt4 book ai didi

java - logback:TimeBasedRollingPolicy 每日滚动工作,但所有旧日志文件都被删除

转载 作者:行者123 更新时间:2023-11-30 10:25:49 27 4
gpt4 key购买 nike

我将 RollingFileAppender 与 TimeBasedRollingPolicy 一起使用,这样在午夜时会创建一个新的日志文件,而旧日志将保留 10 天。午夜创建一个新的日志文件,但旧的日志文件会立即被删除,有时甚至会在几分钟后删除。

public static void init(String logfilename,String loggername,String pattern) throws Exception {
LoggerContext context = (LoggerContext)LoggerFactory.getILoggerFactory();

logfilename = new File(logfilename).getCanonicalPath();

PatternLayoutEncoder encoder = new PatternLayoutEncoder();
encoder.setContext(context);
encoder.setPattern(pattern);
encoder.start();

RollingFileAppender<ILoggingEvent> rollingFileAppender = new RollingFileAppender<>();
rollingFileAppender.setContext(context);
rollingFileAppender.setName(loggername);
rollingFileAppender.setEncoder(encoder);
rollingFileAppender.setAppend(true);
rollingFileAppender.setFile(logfilename+".log");

TimeBasedRollingPolicy<ILoggingEvent> rollingPolicy = new TimeBasedRollingPolicy<>();
rollingPolicy.setContext(context);
rollingPolicy.setParent(rollingFileAppender);
rollingPolicy.setFileNamePattern(logfilename+".%d{yyyy-MM-dd}.log");
rollingPolicy.setMaxHistory(10);
rollingPolicy.setTotalSizeCap(FileSize.valueOf("100MB"));
rollingPolicy.setCleanHistoryOnStart(false);
rollingPolicy.start();

rollingFileAppender.setRollingPolicy(rollingPolicy);
rollingFileAppender.start();

Logger logger = (Logger)LoggerFactory.getLogger(loggername);
logger.setAdditive(false);
logger.setLevel(Level.INFO);
logger.detachAndStopAllAppenders();
logger.addAppender(rollingFileAppender);
}

我认为在这种情况下 MaxHistory 应该表示 10 天,但它不起作用。

最佳答案

我已经根据您的代码创建了一个最小的运行演示:

https://github.com/riskop/slf4j_logback_rollingfileappender_programatically

我刚刚将 totalSizeCap 降低到 1KB,将 fileNamePattern 更改为每分钟滚动并创建了一个主要方法来驱动配置:

public static void main(String[] args) throws Exception  {

init2("A_LOG_FILE", "A_LOGGER_NAME", "%d{HH:mm:ss.SSS} %-5level %logger - %msg%n");

while (true) {
org.slf4j.Logger logger = LoggerFactory.getLogger("A_LOGGER_NAME");
logger.warn("a warning " + System.currentTimeMillis());
Thread.sleep(1000);
}
}

public static void init2(String logfilename,String loggername,String pattern) throws Exception {
LoggerContext context = (LoggerContext)LoggerFactory.getILoggerFactory();

logfilename = new File(logfilename).getCanonicalPath();

PatternLayoutEncoder encoder = new PatternLayoutEncoder();
encoder.setContext(context);
encoder.setPattern(pattern);
encoder.start();

RollingFileAppender<ILoggingEvent> rollingFileAppender = new RollingFileAppender<>();
rollingFileAppender.setContext(context);
rollingFileAppender.setName(loggername);
rollingFileAppender.setEncoder(encoder);
rollingFileAppender.setAppend(true);
rollingFileAppender.setFile(logfilename+".log");

TimeBasedRollingPolicy<ILoggingEvent> rollingPolicy = new TimeBasedRollingPolicy<>();
rollingPolicy.setContext(context);
rollingPolicy.setParent(rollingFileAppender);
rollingPolicy.setFileNamePattern(logfilename+".%d{yyyy-MM-dd_HH-mm}.log");
rollingPolicy.setMaxHistory(10);
rollingPolicy.setTotalSizeCap(FileSize.valueOf("1KB"));
rollingPolicy.setCleanHistoryOnStart(false);
rollingPolicy.start();

rollingFileAppender.setRollingPolicy(rollingPolicy);
rollingFileAppender.start();

Logger logger = (Logger)LoggerFactory.getLogger(loggername);
logger.setAdditive(false);
logger.setLevel(Level.INFO);
logger.detachAndStopAllAppenders();
logger.addAppender(rollingFileAppender);
}

但是,它工作正常。根据非常低的 capSize,以上代码生成一个或最多 2 个文件。如果我将 capSize 提高到 10KB,则会生成 3 - 4 个文件。

所以我猜你的问题是由你的环境引起的。

你能试试上面的代码吗?

您能否尝试在您的环境(文件系统、目录)中运行它。

如果我是你,我也会尝试关闭 maxHistory、totalCapSize 和 cleanHistory 设置。

关于java - logback:TimeBasedRollingPolicy 每日滚动工作,但所有旧日志文件都被删除,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45935187/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com