gpt4 book ai didi

hadoop - hadoop hdfs block 大小与linux文件系统 block 大小的交互

转载 作者:可可西里 更新时间:2023-11-01 15:02:25 24 4
gpt4 key购买 nike

我了解 hadoop block 大小为 64MB,而 linux FS 为 4KB。我从阅读中了解到,hadoop hdfs 在 linux FS 本身之上工作。

hadoop 文件系统实际上如何与 linux 4KB block 大小一起工作?例如,64MB 的 block 是否会分解为 4KB 的 block 并在写入操作期间保存到磁盘?

最佳答案

是的,你说的是对的。 HDFS只是Linux FS之上的抽象,64MB的 block 存储在4KB linux FS的连续 block 中,以便快速访问。当您写入 64MB 的 HDFS block 时,Linux 会将其视为单个文件,并在内部将其分解为 4KB block 。

关于hadoop - hadoop hdfs block 大小与linux文件系统 block 大小的交互,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29860407/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com