gpt4 book ai didi

hdfs - 两个文件的 Hadoop Put 命令

转载 作者:行者123 更新时间:2023-12-01 11:34:25 24 4
gpt4 key购买 nike

可以使用以下命令将名为 records.txt 的文件从本地复制到 HDFS

hadoop dfs -put /home/cloudera/localfiles/records.txt /user/cloudera/inputfiles

通过使用上述命令,文件records.txt 将被复制到具有相同名称的HDFS 中。

但我想将两个文件(records1.txt 和 demo.txt)存储到 HDFS 中

我知道我们可以使用类似下面的东西
hadoop dfs -put /home/cloudera/localfiles/records* /user/cloudera/inputfiles

但是是否有任何命令可以帮助我们存储一两个不同名称的文件以复制到 hdfs 中?

最佳答案

使用 put 命令参数,您可以提供一个或多个源文件,如上所述 here 。所以尝试这样的事情:

hadoop dfs -put /home/cloudera/localfiles/records* /home/cloudera/localfiles/demo* /user/cloudera/inputfiles

从 hadoop shell 命令用法:
put

Usage: hadoop fs -put <localsrc> ... <dst>

Copy single src, or multiple srcs from local file system to the destination filesystem. Also reads input from stdin and writes to destination filesystem.

hadoop fs -put localfile /user/hadoop/hadoopfile
hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir
hadoop fs -put localfile hdfs://nn.example.com/hadoop/hadoopfile
hadoop fs -put - hdfs://nn.example.com/hadoop/hadoopfile
Reads the input from stdin.

Exit Code:

Returns 0 on success and -1 on error.

关于hdfs - 两个文件的 Hadoop Put 命令,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28917301/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com