gpt4 book ai didi

hadoop - 目录文件未使用命令“hadoop fs -put 复制到 HDFS

转载 作者:可可西里 更新时间:2023-11-01 16:35:37 31 4
gpt4 key购买 nike

我正在通过给出以下命令将本地系统中的 pig 处理文件复制到 HDFS 路径(链接到 HIVE 表),但它没有复制。

第一步:数据在我的本地路径

[root@quickstart plantoutput]# ll
total 4

-rw-r--r-- 1 root root 1469 Dec 3 02:37 part-m-00000

-rw-r--r-- 1 root root 0 Dec 3 02:37 _SUCCESS

[root@quickstart plantoutput]# pwd

/home/cloudera/Desktop/dealer/plantoutput

Step2:应用命令后是这样的

[root@quickstart plantoutput]# hadoop fs -put '/home/cloudera/Desktop/dealer/plantoutput' /tabplant

[root@quickstart plantoutput]# hadoop fs -ls /tabplant

找到 1 个项目

drwxr-xr-x - root supergroup 0 2018-12-04 21:52 /tabplant/plantoutput

实际上在我的目标 hdfs 路径中不包含 part-m-00000_SUCCESS

谁能告诉我我做错了什么?是引号吗?

最佳答案

@Sekhar,

仅复制 /home/cloudera/Desktop/dealer/plantoutput 中存在的文件

你应该提到绝对文件路径,你可以像下面这样使用,

hadoop fs -put /home/cloudera/Desktop/dealer/plantoutput/* /tabplant

当您仅提及目录时,它将以其父目录的名称复制为目录。

关于hadoop - 目录文件未使用命令“hadoop fs -put <my local path> <hdfs path> 复制到 HDFS,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53626034/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com