gpt4 book ai didi

hadoop - start-all.sh : command not found. 我该如何解决这个问题?

转载 作者:行者123 更新时间:2023-12-02 19:13:36 26 4
gpt4 key购买 nike

我尝试使用本教程安装 hadoop,link (在出现问题的视频上加上时间戳)

但是,在格式化 namenode(hdfs namenode -format) 后,我没有在/abc 中获得“name”文件夹。
start-all.sh 和其他/sbin 命令也不起作用。

PS我确实尝试将hadoop安装为一个不起作用的单节点,所以我尝试删除它,将所有内容重做为双节点设置,所以我不得不重新格式化namenode..我不知道这是否会以某种方式影响这一点。

编辑 1:我修复了 start-all.sh 命令不起作用,因为我纠正了 .bashrc 中的错误。
但是,我在运行 start-all.sh 或 start-dfs.sh 等时收到这些错误消息。

hadoop@linux-virtual-machine:~$ start-dfs.sh
在 [localhost] 上启动名称节点
localhost:mkdir:无法创建目录'/usr/local/hadoop-2.10.0/logs':权限被拒绝
localhost:chown:无法访问'/usr/local/hadoop-2.10.0/logs':没有这样的文件或目录
localhost:启动namenode,登录到/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-namenode-linux-virtual-machine.out
本地主机:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第 159 行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-namenode-linux-virtual-machine.out : 没有相应的文件和目录
localhost:head:无法打开'/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-namenode-linux-virtual-machine.out'进行阅读:没有这样的文件或目录
本地主机:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第 177 行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-namenode-linux-virtual-machine.out : 没有相应的文件和目录
本地主机:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第 178 行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-namenode-linux-virtual-machine.out : 没有相应的文件和目录
localhost:mkdir:无法创建目录'/usr/local/hadoop-2.10.0/logs':权限被拒绝
localhost:chown:无法访问'/usr/local/hadoop-2.10.0/logs':没有这样的文件或目录
localhost:启动datanode,登录到/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out
本地主机:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第 159 行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out : 没有相应的文件和目录
localhost:head:无法打开'/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out'进行阅读:没有这样的文件或目录
本地主机:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第 177 行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out : 没有相应的文件和目录
本地主机:/usr/local/hadoop-2.10.0/sbin/hadoop-daemon.sh:第 178 行:/usr/local/hadoop-2.10.0/logs/hadoop-hadoop-datanode-linux-virtual-machine.out : 没有相应的文件和目录
启动辅助名称节点 [0.0.0.0]
无法确定主机“0.0.0.0 (0.0.0.0)”的真实性。
ECDSA key 指纹为 SHA256:a37ThJJRRW+AlDso9xrOCBHzsFCY0/OgYet7WczVbb0。
您确定要继续连接(是/否)?不
0.0.0.0:主机 key 验证失败。

编辑 2:修复了上述错误,我将权限更改为 hadoop 文件夹(在我的情况下是 hadoop-2.10.0 和 hadoop)
start-all.sh 完美运行,但 namenode 没有出现。

最佳答案

不清楚您如何设置 PATH多变的。或者脚本如何不“工作”。你有没有chmod +x他们让他们可执行?有任何来自他们的日志输出吗?
start-all脚本位于 sbin您下载 Hadoop 的目录,所以只需 /path/to/sbin/start-all.sh是你真正需要的。

是的,namenode 需要在新集群上格式化。使用官方的 Apache 指南是最新的源代码,对大多数人来说都可以正常工作。

否则,我建议您了解 Apache Amabri,它可以自动安装。或者只是使用 Cloudera 提供的沙箱,或者如果您不关心完全“安装”它,可以使用许多已经存在于 Hadoop 的 Docker 容器。

关于hadoop - start-all.sh : command not found. 我该如何解决这个问题?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59813573/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com