gpt4 book ai didi

hadoop - 如何在 hdfs 命令上计算文件中的行数?

转载 作者:可可西里 更新时间:2023-11-01 14:08:42 28 4
gpt4 key购买 nike

我在 HDFS 上有一个文件,我想知道有多少行。 (测试文件)

在 linux 中,我可以这样做:

wc -l <filename>

我可以用“hadoop fs”命令做类似的事情吗?我可以打印文件内容:

hadoop fs -text /user/mklein/testfile

我怎么知道我有多少行?我想避免将文件复制到本地文件系统然后运行 ​​wc 命令。

注意:我的文件是使用 snappy compression 压缩的,这就是为什么我必须使用 -text 而不是 -cat

最佳答案

文件总数:hadoop fs -ls/path/to/hdfs/* | wc -l

总行数:hadoop fs -cat/path/to/hdfs/* | wc -l

给定文件的总行数:hadoop fs -cat/path/to/hdfs/文件名 | wc -l

关于hadoop - 如何在 hdfs 命令上计算文件中的行数?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32612867/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com