gpt4 book ai didi

java - Hadoop:启动容器失败错误

转载 作者:可可西里 更新时间:2023-11-01 16:07:22 25 4
gpt4 key购买 nike

我刚刚安装了一个多节点 hadoop 集群,其中包含一台名称节点机器和两个从节点。但是,当我运行 mapreduce 任务时,我不断收到此错误:

container_1453020503065_0030_01_000009 的容器启动失败

:java.lang.IllegalArgumentException:java.net.UnknownHostException: HOME

这里的 HOME 和 shubhranshu-OptiPlex-9020 是从机的主机名。我已将他们的 IP 地址和主机名放在/etc/hosts 文件中。我的/etc/hosts 文件如下所示:

10.0.3.107  HadoopMaster
10.0.3.108 HadoopSlave1
10.0.3.109 HadoopSlave2
127.0.0.1 localhost amrit
#127.0.1.1 amrit
10.0.3.107 amrit
10.0.3.108 HOME
10.0.3.109 shubhranshu-OptiPlex-9020
# The following lines are desirable for IPv6 capable hosts
::1 ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters

请告诉我是否需要添加更多内容。谢谢!

最佳答案

按如下方式修改/etc/hosts 文件:

    127.0.0.1       localhost 
10.0.3.107 HadoopMaster amrit
10.0.3.108 HadoopSlave1
10.0.3.109 HadoopSlave2

同时修改10.0.3.108机器的/etc/hosts如下:

    127.0.0.1       localhost 
10.0.3.107 HadoopMaster
10.0.3.108 HadoopSlave1 HOME
10.0.3.109 HadoopSlave2

并修改10.0.3.109机器中的/etc/hosts如下:

    127.0.0.1       localhost 
10.0.3.107 HadoopMaster
10.0.3.108 HadoopSlave1
10.0.3.109 HadoopSlave2 shubhranshu-OptiPlex-9020

关于java - Hadoop:启动容器失败错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34847601/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com