gpt4 book ai didi

hadoop - 如何从fsimage查找文件名和文件大小?

转载 作者:行者123 更新时间:2023-12-02 21:07:27 26 4
gpt4 key购买 nike

我正在尝试查找小于HDFS块大小的文件。

通过使用OIV,我将fsimage转换为带有如下分隔符的文本文件。
hdfs oiv_legacy -i /tmp/fsimage -o /tmp/fsimage_$RUNDATE/fsimage.txt -p Delimited -delimiter '@'
由于fsimage具有大量数据。从中如何找到HDFS中每个文件的文件名和文件大小。

谁能帮忙。

提前致谢....

最佳答案

看一下documentation末尾的脚本。

从...开始:

A = LOAD '$inputFile' USING PigStorage('\t') AS (path:chararray,
replication:int,
modTime:chararray,
accessTime:chararray,
blockSize:long,
numBlocks:int,
fileSize:long,
NamespaceQuota:int,
DiskspaceQuota:int,
perms:chararray,
username:chararray,
groupname:chararray);

-- Grab the pathname and filesize
B = FOREACH A generate path, fileSize;

-- Save results
STORE B INTO '$outputFile';

关于hadoop - 如何从fsimage查找文件名和文件大小?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41370660/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com