gpt4 book ai didi

hadoop - 无法使用 start-dfs.sh 启动守护进程

转载 作者:可可西里 更新时间:2023-11-01 14:20:06 24 4
gpt4 key购买 nike

我们使用的是来自 cloudera 的 cdh4-0.0 发行版。我们无法使用以下命令启动守护进程。

>start-dfs.sh
Starting namenodes on [localhost]
hduser@localhost's password:
localhost: mkdir: cannot create directory `/hduser': Permission denied
localhost: chown: cannot access `/hduser/hduser': No such file or directory
localhost: starting namenode, logging to /hduser/hduser/hadoop-hduser-namenode-canberra.out
localhost: /home/hduser/work/software/cloudera/hadoop-2.0.0-cdh4.0.0/sbin/hadoop-daemon.sh: line 150: /hduser/hduser/hadoop-hduser-namenode-canberra.out: No such file or directory
localhost: head: cannot open `/hduser/hduser/hadoop-hduser-namenode-canberra.out' for reading: No such file or directory

最佳答案

看起来您正在使用压缩包?

尝试在您的 etc/hadoop/hadoop-env.sh 配置文件中设置覆盖默认 HADOOP_LOG_DIR 位置,如下所示:

export HADOOP_LOG_DIR=/path/to/hadoop/extract/logs/

然后重试 sbin/start-dfs.sh,它应该可以工作。

在打包环境中,启动-停止脚本被调整为通过相同的 HADOOP_LOG_DIR env-var 为每种类型的服务提供唯一的位置,因此它们不会遇到与您相同的问题重新看到。

如果您使用的是包,请不要使用这些脚本,而只需执行以下操作:

service hadoop-hdfs-namenode start
service hadoop-hdfs-datanode start
service hadoop-hdfs-secondarynamenode start

关于hadoop - 无法使用 start-dfs.sh 启动守护进程,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11540591/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com