gpt4 book ai didi

java - 关于用 java 导致太多打开的文件?

转载 作者:搜寻专家 更新时间:2023-10-31 19:52:53 25 4
gpt4 key购买 nike

查看同事的代码时,发现如下代码

    BufferedReader br = new BufferedReader(new FileReader(PATH + fileName));
//...

只是读取一个文件并将这些行连接为一行,但我没有找到任何关闭代码,所以我认为它应该会导致资源泄漏,并最终导致打开文件太多错误,所以为了证明这一点,我写了一个测试

for (int i = 0; i < 7168; i++) { // ulimit -n ==> 7168
BufferedReader br = new BufferedReader(new FileReader("src/main/resources/privateKey/foo.pem"));
System.out.println(br.readLine());
}
System.in.read();

很奇怪,一切正常,没有抛出预期的异常。

并在命令行查看真正打开的文件

➜  ~ lsof -p 16276 | grep 'foo.pem' | wc -l
2538

为什么只有 2538 而不是 7168?

那怎么了?如何导致太多打开文件错误


按照@GhostCat的建议,改成7168 --> Integer.MAX_VALUE,这次导致了

java.io.FileNotFoundException: src/main/resources/privateKey/foo.pem (Too many open files in system)
at java.io.FileInputStream.open0(Native Method)
at java.io.FileInputStream.open(FileInputStream.java:195)

当 i 为 27436 时,在这种情况下检查命令行中真正打开的文件是

➜  ~ lsof | grep foo.pem | wc -l
7275

但是剩下的文件(27346 - 7275)在哪里?为什么 ulimit number 不起作用?

最佳答案

我假设垃圾收集器正在运行,发现许多无法访问的 BufferedReader 对象并收集它们。这会导致底层流对象被最终确定……从而关闭它们。

要打破此代码,请将 BufferedReader 对象添加到列表中,以便它们保持可访问性。


这就是我认为将 7168 更改为 MAXINT 有效的原因。

当 JVM 启动时,它会使用相对较小的堆。 GC 期间发生的一件事是 JVM 决定是否需要调整堆的大小。所以这就是可能发生的事情:

  • JVM 以一个太小的堆开始,无法容纳 7168 个打开的文件 + BufferedReader 对象。 (请记住,后者中的每一个都可能有一个预分配的缓冲区!)

  • 您开始打开文件。

  • 在大约 N = 7168 - 2538 时,堆填满了所有 BufferedReader 对象 + FileInputStream 对象 + 来自 JVM 启动/预热的各种碎屑。

  • GC 运行,并导致(可能)收集/完成/关闭所有 BufferedReader 对象。

  • 然后 GC 决定它需要扩展堆。您现在有足够的堆空间来容纳比您的 ulimit 允许的更多的打开的 BufferedReader 对象。

  • 您继续打开文件...然后达到打开文件限制。

这是一种可能的模式。


如果你真的想调查这个,我建议你打开 GC 日志记录,看看你是否可以将 lsof 报告的 FD 数量与 GC 运行相关联。

(您可以尝试在每个打开之间添加 sleep 调用,以便更容易获得 lsof 测量值。但这可能会以其他方式改变 JVM 行为...)

关于java - 关于用 java 导致太多打开的文件?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43395025/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com