gpt4 book ai didi

hadoop - 如何知道 Hadoop 节点上文件的确切 block 大小?

转载 作者:可可西里 更新时间:2023-11-01 14:25:59 26 4
gpt4 key购买 nike

我有一个 1 GB 文件,我已将其放在 HDFS 上。因此,它将被分解成 block 并发送到集群中的不同节点。

是否有任何命令可以识别特定节点上文件 block 的确切大小?

谢谢。

最佳答案

你应该使用hdfs fsck命令:

hdfs fsck /tmp/test.txt -files -blocks

此命令将打印有关文件包含的所有 block 的信息:

/tmp/test.tar.gz 151937000 bytes, 2 block(s):  OK
0. BP-739546456-192.168.20.1-1455713910789:blk_1073742021_1197 len=134217728 Live_repl=3
1. BP-739546456-192.168.20.1-1455713910789:blk_1073742022_1198 len=17719272 Live_repl=3

如您所见,此处显示了(每行中的 len 字段) block 的实际使用容量。

hdfs fsck 还有许多其他有用的功能,您可以在官方 Hadoop documentation page 中看到。

关于hadoop - 如何知道 Hadoop 节点上文件的确切 block 大小?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35458494/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com