gpt4 book ai didi

hadoop - 无法在 pig 中运行转储

转载 作者:可可西里 更新时间:2023-11-01 14:56:20 24 4
gpt4 key购买 nike

我正在尝试转储关系但出现以下错误。

我试过 start-all.sh 并尝试使用 hadoop namenode -format 格式化 namenode。

但我不明白哪里出了问题。

Error:-
Already tried 9 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)

最佳答案

启动JobHistoryServer

$HADOOP_HOME/sbin/mr-jobhistory-daemon.sh start historyserver

Pig 在 mapreduce 模式下运行时期望 JobHistoryServer 可用。

要配置 JobHistoryServer,请将这些属性添加到 mapred-site.xml 中,将主机名替换为启动进程的主机的实际名称

<property>
<name>mapreduce.jobhistory.address</name>
<value>hostname:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>hostname:19888</value>
</property>

关于hadoop - 无法在 pig 中运行转储,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42740053/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com