gpt4 book ai didi

linux - 'stat' 是否会由于实际刷新缓存而对大量文件造成性能影响?

转载 作者:太空狗 更新时间:2023-10-29 11:19:20 31 4
gpt4 key购买 nike

对每个文件重复顺序 stat 是否会导致缓冲区缓存或 slab 对象驱逐旧条目和/或增大 slab 从而导致明显的性能差异,磁盘 I/O 除外?例如,用于 Linux 的缓冲区缓存或 slab 处于一种状态,其中它们加载了大部分处于事件状态的对象。磁盘上的 'stat' ing 文件(比如所有文件)会将 inode 和 dentry 对象带到缓存中。因为它们数量众多,我认为它们可能会驱逐较旧的条目并填满缓存。完成此操作后,当相应的应用程序访问它时,必须从磁盘重新加载被逐出的旧条目。

我的问题是,这种 stating(例如对大量文件的重复 du 使用)是否会对系统产生显着影响?这取决于缓存的大小,据我所知,我的主要目标是了解对大量文件重复“du”是否会显着影响系统性能。还要指出是否可以看到任何其他间接影响。

最佳答案

恕我直言,这取决于缓存替换策略。如果它是 FIFO,那么是 - duing 将用较新的条目替换较旧的条目。但如果它是 LRU,这更常见,那么,我认为,它不太可能发生 - 我(想)相信文件上的 I/O 对于 LRU 时间/引用计数比 stating。或者也许缓存是完全独立的。无论如何,强烈建议阅读一些深思熟虑的内核源代码。

关于linux - 'stat' 是否会由于实际刷新缓存而对大量文件造成性能影响?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21598302/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com