gpt4 book ai didi

Hadoop:两个数据节点,但 UI 显示一个和 Spark:两个工作人员 UI 显示一个

转载 作者:可可西里 更新时间:2023-11-01 15:10:03 25 4
gpt4 key购买 nike

我在 SO 和 Quora 以及许多网站上看到了很多答案。当他们为从属 IP 配置防火墙时,一些问题得到了解决,有人说这是一个 UI 故障。我很迷惑 。我有两个datanode:一个是纯datanode,一个是Namenode+datanode。问题是我什么时候做 <master-ip>:50075它只显示一个数据节点(也有名称节点的机器)。但是我的hdfs dfsadmin -report显示我有两个数据节点,在我的主机上启动 hadoop 之后,如果我这样做了 jps在我的 pure-datanode-machine or slave machine我可以看到数据节点正在运行。两台机器上的防火墙都关闭了。 sudo ufw status verbose给出 Status: inactive回复。同样的场景与 Spark 。 Spark UI 将工作节点显示为主节点而非纯工作节点的节点。但工作节点正在 pure-worker-machine 上运行.同样,这是 UI 故障还是我遗漏了什么? hdfs dfsadmin -report

Configured Capacity: 991216451584 (923.14 GB)
Present Capacity: 343650484224 (320.05 GB)
DFS Remaining: 343650418688 (320.05 GB)
DFS Used: 65536 (64 KB)
DFS Used%: 0.00%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
Missing blocks (with replication factor 1): 0
Pending deletion blocks: 0

-------------------------------------------------
Live datanodes (2):

Name: 10.10.10.105:50010 (ekbana)
Hostname: ekbana
Decommission Status : Normal
Configured Capacity: 24690192384 (22.99 GB)
DFS Used: 32768 (32 KB)
Non DFS Used: 7112691712 (6.62 GB)
DFS Remaining: 16299675648 (15.18 GB)
DFS Used%: 0.00%
DFS Remaining%: 66.02%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Tue Jul 25 04:27:36 EDT 2017


Name: 110.44.111.147:50010 (saque-slave-ekbana)
Hostname: ekbana
Decommission Status : Normal
Configured Capacity: 966526259200 (900.15 GB)
DFS Used: 32768 (32 KB)
Non DFS Used: 590055215104 (549.53 GB)
DFS Remaining: 327350743040 (304.87 GB)
DFS Used%: 0.00%
DFS Remaining%: 33.87%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Tue Jul 25 04:27:36 EDT 2017

/etc/hadoop/masters主节点上的文件

ekbana

/etc/hadoop/slaves主节点上的文件

ekbana
saque-slave-ekbana

/etc/hadoop/masters从节点上的文件

saque-master

注意:从机上的 saque-master 和主机上的 ekbana 映射到相同的 IP。UI 看起来也类似于 this question's UI

最佳答案

这是因为相同的主机名(ekbana)。因此在 UI 中它将只显示同一主机名的一个条目。

如果你想确认这一点,只需启动一个不在master中的datanode。您可以在 UI 中看到该条目。

如果您也启动了其他数据节点,它将屏蔽同一主机名的第二个条目。

您可以更改主机名并尝试。

关于Hadoop:两个数据节点,但 UI 显示一个和 Spark:两个工作人员 UI 显示一个,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45298157/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com