gpt4 book ai didi

hadoop - 如何在运行 MR 作业时找到存储和读取特定文件的数据节点?

转载 作者:可可西里 更新时间:2023-11-01 15:12:39 26 4
gpt4 key购买 nike

我有 9 个文件,每个文件的大小都等于集群的 BlockLength,存储在 hadoop 中。我需要获取文件所在的数据节点的地址。复制因子为 3 。

是否有任何 hadoop API 可以执行此操作或任何其他可能的方式?

最佳答案

查找文件的 block 和数据节点的命令如下所示

 hadoop fsck /user/tom/part-00007 -files -blocks -racks

这将显示以下结果

/user/tom/part-00007 25582428 bytes, 1 block(s): OK
0. blk_-3724870485760122836_1035 len=25582428 repl=3 [/default-rack/10.251.43.2:50010,
/default-rack/10.251.27.178:50010, /default-rack/10.251.123.163:50010]

这指定了放置副本的数据节点。

关于hadoop - 如何在运行 MR 作业时找到存储和读取特定文件的数据节点?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33619439/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com