gpt4 book ai didi

apache-spark - 如何通过Spark运行HDFS文件系统命令?

转载 作者:行者123 更新时间:2023-12-02 20:26:16 25 4
gpt4 key购买 nike

我可以为HDFS运行以下命令:

hadoop fs -ls /user/hive/warehouse/databasename.db/tablename

如何在Spark中编写命令以显示HDFS中特定文件夹下的所有文件?

谢谢。

最佳答案

好的,下面的scala代码为您提供了在父路径下打印所有hdfs文件的功能,您可以根据需要进行改进。

  def getAllPaths(parentPath:String, fs: FileSystem) = {
val fileStatus = fs.listStatus(new Path(parentPath))
for( file<- fileStatus) {
println(file.getPath.toString)
}
}

关于apache-spark - 如何通过Spark运行HDFS文件系统命令?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56528867/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com