gpt4 book ai didi

java - Logback 文件附加程序不会立即刷新

转载 作者:太空狗 更新时间:2023-10-29 22:47:17 24 4
gpt4 key购买 nike

在某些情况下,我需要立即强制刷新 logback 的文件附加程序。我在 docs 中找到了默认情况下启用此选项。奇怪的是,这不起作用。正如我在源代码中看到的那样,底层过程正确地涉及 BufferedOutputSreamBufferedOutputSream.flush() 有什么问题吗?这可能与冲洗问题有关。

更新:我在 Windows XP Pro SP 3 和 Red Hat Enterprise Linux Server 版本 5.3 (Tikanga) 上发现了这个问题。我使用了这些库:

jcl-over-slf4j-1.6.6.jar
logback-classic-1.0.6.jar
logback-core-1.0.6.jar
slf4j-api-1.6.6.jar

logback.xml 是:

<configuration>
<appender name="FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
<file>/somepath/file.log</file>
<rollingPolicy class="ch.qos.logback.core.rolling.FixedWindowRollingPolicy">
<fileNamePattern>file.log.%i</fileNamePattern>
<minIndex>1</minIndex>
<maxIndex>3</maxIndex>
</rollingPolicy>
<triggeringPolicy class="ch.qos.logback.core.rolling.SizeBasedTriggeringPolicy">
<maxFileSize>5MB</maxFileSize>
</triggeringPolicy>
<encoder>
<pattern>%d{HH:mm:ss.SSS} [%thread] %-5level %logger - %msg%n</pattern>
</encoder>
</appender>

<root level="debug">
<appender-ref ref="FILE"/>
</root>
</configuration>

更新:我会提供一个单元测试,但这似乎并不那么简单。让我更清楚地描述这个问题。

  1. 发生记录事件
  2. 事件被传递到文件追加器
  3. 事件按定义的模式序列化
  4. 事件的序列化消息被传递给文件追加器并且是即将写出到输出流
  5. 写入流已完成,输出流已刷新(我已经检查实现)。请注意 immidiateFlush 为真默认 so 方法 flush() 被显式调用
  6. 文件中没有结果!

稍后,当一些底层缓冲区流动时,事件出现在文件中。所以问题是:输出流是否保证立即刷新?

老实说,我已经通过实现我自己的 ImmediateRollingFileAppender 解决了这个问题,它利用了 FileDescriptor 的即时同步功能。有兴趣的可以关注this .

所以这不是一个 logback 问题。

最佳答案

我决定把我的解决方案带给大家。首先让我澄清一下,这不是 logback 问题,也不是 JRE 问题。这在 javadoc 中有描述。在您遇到一些关于文件同步的老式集成解决方案之前,通常应该不是问题。

所以这是一个实现立即刷新的 logback appender:

public class ImmediateFileAppender<E> extends RollingFileAppender<E> {

@Override
public void openFile(String file_name) throws IOException {
synchronized (lock) {
File file = new File(file_name);
if (FileUtil.isParentDirectoryCreationRequired(file)) {
boolean result = FileUtil.createMissingParentDirectories(file);
if (!result) {
addError("Failed to create parent directories for [" + file.getAbsolutePath() + "]");
}
}

ImmediateResilientFileOutputStream resilientFos = new ImmediateResilientFileOutputStream(file, append);
resilientFos.setContext(context);
setOutputStream(resilientFos);
}
}

@Override
protected void writeOut(E event) throws IOException {
super.writeOut(event);
}

}

这是对应的输出流实用类。由于最初应该用于扩展的原始 ResilientOutputStreamBase 的某些方法和字段具有打包的访问修饰符,我不得不扩展 OutputStream 而只是复制 的其余部分和未更改的部分ResilientOutputStreamBaseResilientFileOutputStream 到这个新的。我只是显示更改后的代码:

public class ImmediateResilientFileOutputStream extends OutputStream {

// merged code from ResilientOutputStreamBase and ResilientFileOutputStream

protected FileOutputStream os;

public FileOutputStream openNewOutputStream() throws IOException {
return new FileOutputStream(file, true);
}

@Override
public void flush() {
if (os != null) {
try {
os.flush();
os.getFD().sync(); // this's make sence
postSuccessfulWrite();
} catch (IOException e) {
postIOFailure(e);
}
}
}

}

最后是配置:

<appender name="FOR_INTEGRATION" class="package.ImmediateFileAppender">
<file>/somepath/for_integration.log</file>
<rollingPolicy class="ch.qos.logback.core.rolling.FixedWindowRollingPolicy">
<fileNamePattern>for_integration.log.%i</fileNamePattern>
<minIndex>1</minIndex>
<maxIndex>3</maxIndex>
</rollingPolicy>
<triggeringPolicy class="ch.qos.logback.core.rolling.SizeBasedTriggeringPolicy">
<maxFileSize>5MB</maxFileSize>
</triggeringPolicy>
<encoder>
<pattern>%d{HH:mm:ss.SSS} - %msg%n</pattern>
<immediateFlush>true</immediateFlush>
</encoder>
</appender>

关于java - Logback 文件附加程序不会立即刷新,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11829922/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com