gpt4 book ai didi

hadoop - 跨服务器将压缩文件移动到Hadoop HDFS

转载 作者:行者123 更新时间:2023-12-02 22:03:56 25 4
gpt4 key购买 nike

我在要复制到Hadoop DFS的服务器上有数百个lzo压缩文件。对于未压缩的文件,我通常使用的命令是

cat someFile | ssh uname@hadoop "hadoop dfs -put - /data/someFile"

我假设这不适用于压缩文件(因为 cat可能没有意义)。我首先需要将文件复制到名称节点并放置:
scp someFile.lzo uname@hadoop:~/ #on remote server
hadoop dfs -put someFile.lzo /data/ #on Hadoop server
rm ~/someFile.lzo

似乎应该有更好的方法来做到这一点。

最佳答案

如果可以使用hadoop客户端库安装客户端计算机(具有大文件的服务器),则在任何情况下都无需整理文件。

可以使用的命令:

hadoop dfs -cp localfilename hdfsipaddress:hdfsport(usually 9000) :hdfs path

关于hadoop - 跨服务器将压缩文件移动到Hadoop HDFS,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39300839/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com