gpt4 book ai didi

hadoop - 将文件从hadoop群集(远程Windows机器)中上传到hdfs,就像色相上传一样

转载 作者:行者123 更新时间:2023-12-02 21:19:15 27 4
gpt4 key购买 nike

我正在尝试找到一种解决方案,用于将文件从本地Windows机器或本地linux机器复制到云上的hdfs。
我知道一种解决方案

remote -> cluster node (using scp)

node -> hdfs (using hdfs command)


但是对于我的用例来说,它不起作用,我需要找到一种解决方案,就像hue进行上传一样,将文件直接从本地上传到hdfs。
我也尝试过以下命令

hdfs dfs -copyFromLocal file:://<'local-host'>:<'local-path'> hdfs://<'hdfs-path'>


但是它通过以下错误:

copyFromLocal: `<'local-path'>': No such file or directory


任何建议将不胜感激。
-谢谢
维卡什

最佳答案

看到您首先在hdfs中创建了目录,然后,

hadoop fs -put /path/in/linux /hdfs/path

要么
hadoop fs -copyFromLocal /path/in/linux /hdfs/path

关于hadoop - 将文件从hadoop群集(远程Windows机器)中上传到hdfs,就像色相上传一样,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37888722/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com