gpt4 book ai didi

hadoop - HDFS如何写入数据节点上的磁盘

转载 作者:可可西里 更新时间:2023-11-01 15:15:41 31 4
gpt4 key购买 nike

我不是文件系统工作原理方面的专家,但这个问题可以帮助我理清一些模糊的概念。 HDFS是如何写入物理磁盘的?

我了解 HDFS 在 ext3 文件系统磁盘上运行(通常)。这些文件系统的 block 大小远小于 HDFS block 大小。因此,如果我正在编写一个 128 MB 的逻辑 HDFS block ,则磁盘可以将其存储为更小的物理 block 。

HDFS 是否确保这些物理 block 是连续的? (连续 block 增加了 FS 吞吐量,因为它最大限度地减少了寻道时间)?

HDFS 如何提供高吞吐量?

最佳答案

据我所知,HDFS 并不关心它运行的物理文件系统。我在几个不同的文件系统上安装了 Hadoop,例如我还使用了 solaris ZFS。

hadoop/hdfs的block在每个datanode上都是作为普通文件写入的。 namenode 在 OS 文件系统中扮演 inode 或 FAT 的角色。 HDFS 是每个数据节点上物理文件系统之上的一层。

您可以通过列出数据节点上的目录内容来列出 hadoop/hdfs 文件系统中存储的 block :

/srv/hadoop/hadoop_data/hdfs/datanode/current/BP-1458088587-192.168.1.51-1394008575227/current/finalized$ ls -alh ./blk_1073741838
-rw-r--r-- 1 hadoop hadoop 1.4M Mar 6 10:55 ./blk_1073741838

关于hadoop - HDFS如何写入数据节点上的磁盘,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23159872/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com