gpt4 book ai didi

ubuntu - 无法将文件从本地磁盘复制到 HDFS

转载 作者:可可西里 更新时间:2023-11-01 14:42:39 24 4
gpt4 key购买 nike

我已经成功安装了 ubuntu 12.04 和 hadoop 2.4.0。

输入jps命令后,我发现输出如下

4135 jps
2582 SeconadaryNameNode
3143 NodeManager
2394 Namenode
2391 Datanode
3021 ResourceManager

现在我想运行 wordcount 示例。

我创建了一个包含一些内容的 .txt 文件

现在每当我尝试按照此命令将其复制到 hadoop hdfs 时

hdfs -copyFromLocal /app/hadoop/tmp/input.txt /wordcount/input.txt

(路径中的“wordcount”是我创建的目录)

但它显示

unrecognised option: -copyFromLocal
could not create the java virtual machine

我做错了什么?

最佳答案

您使用的命令是旧命令。试试看,

hadoop fs -mkdir -p /wordcount/input
hadoop fs -put /app/hadoop/tmp/input.txt /wordcount/input/input.txt

在这种情况下,您需要将输出目录指定为 /wordcount/output,并且在运行作业之前它不应该存在。如果是这样,作业将失败。所以你可以删除目录,

hadoop fs -rm -R /wordcount/output

编辑:要查看输出文件,请检查:

hadoop fs -ls /wordcount/output

要在控制台上查看输出,请使用:

hadoop fs -cat /wordcount/output/part*

编辑 2:较新的 Hadoop CLI 使用:

hdfs dfs <your_command_here>

例如,

hdfs dfs -ls /

另外,如果你想阅读gzip文件,你可以使用这个,

hdfs dfs -cat /wordcount/output/part* | gzip -d -u

关于ubuntu - 无法将文件从本地磁盘复制到 HDFS,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24561089/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com