- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
这几天一直在尝试安装hadoop集群。有时成功,但大多数时候失败。我根据官方文档和一些貌似高质量的博客进行了配置。
我遇到的问题是:所有进程(包括namenode、datanode、nodemanager、resourcemanager)可以通过命令查看:jps
但奴隶们实际上并没有工作。我在 Web 界面 master:8088 或 master:50070 中看不到它们
有人说是重复的namenode格式和id冲突造成的。我认为这不是我的问题,因为数据节点从一开始就不起作用,而且数据节点文件夹始终是空的。
这种现象还有其他可能的原因吗?我真的很难设置集群。
详细信息:
Hadoop版本:3.0.0-alpha2
hdfs dfsadmin -report 的输出是:
Configured Capacity: 492017770496 (458.23 GB)
Present Capacity: 461047037952 (429.38 GB)
DFS Remaining: 460770820096 (429.13 GB)
DFS Used: 276217856 (263.42 MB)
DFS Used%: 0.06%
Under replicated blocks: 10069
Blocks with corrupt replicas: 0
Missing blocks: 0
Missing blocks (with replication factor 1): 0
Pending deletion blocks: 0
-------------------------------------------------
Live datanodes (1):
Name: 127.0.0.1:9866 (localhost)
Hostname: sr145.local.lan
Decommission Status : Normal
Configured Capacity: 492017770496 (458.23 GB)
DFS Used: 276217856 (263.42 MB)
Non DFS Used: 5954019328 (5.55 GB)
DFS Remaining: 460770820096 (429.13 GB)
DFS Used%: 0.06%
DFS Remaining%: 93.65%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Sun Jan 02 02:52:57 CST 2000
**唯一一个存活的数据节点是主节点的同一个节点。**所有其他从节点都不存活。
配置细节:1、hdfs-site.xml:
<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>sr145:9001</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/opt/hadoop/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/opt/hadoop/hdfs/datanode</value>
</property>
</configuration>
2、核心站点.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/opt/hadoop/tmp</value>
<description>Abasefor other temporary directories.</description>
</property>
</configuration>
3、yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.manager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>sr145</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>sr145:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>sr145:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>sr145:8035</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>sr145:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>sr145:8088</value>
</property>
</configuration>
所有节点的配置几乎相同,只是hdfs-site.xml natenode或datanode配置不同。$HADOOP_HOME/etc/hadoop 中的workers
和slaves
文件也被编辑。与原始状态相比,没有文件被移动。
最佳答案
The only one live datanode is the same node of master node.
只有该数据节点知道名称节点绑定(bind)到 localhost
,所有其他数据节点都在尝试连接 sr145
。
fs.defaultFS
中设置的主机值是 Namenode 守护程序将启动的位置。
在主节点中将其设置为localhost
使进程绑定(bind)到节点的环回IP。编辑该值以具有实际的主机名或 IP 地址,在本例中为
<property>
<name>fs.defaultFS</name>
<value>hdfs://sr145:9000</value>
</property>
此属性在所有节点中必须相同。
关于Hadoop:datanode 进程正在运行但不工作?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43486599/
我在简单的两台机器hadoop集群中面临以下错误。 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException
我有Hadoop 2.7.1 e,它可以成功运行。接下来,我下载了apache-hive-2.1.1-bin,并编辑了“.bashrc”文件以更新用户的环境变量。现在,当我使用命令“* / sbin
我在将本地文件部署到 hdfs 时遇到问题,发现我应该为数据节点和名称节点设置“drwx------”。hdfs中datanode和namenode的初始权限状态。 drwx------ 3 hdus
在我的主节点中运行 Hive 查询时,我遇到了一些严重的问题。我有 3 个集群设置(1 个名称节点,2 个数据节点)。 版本: Hadoop:2.7.3 hive :2.1.0 Java:openjd
我是 apache hadoop 的新手。我正在安装多节点集群,但出现两个错误。我不知道这些是什么类型的错误以及它们产生的原因。我在谷歌上搜索了很多关于这些错误的信息,但我无法找出错误产生背后的原因。
我设置了一个运行良好的 HA Hadoop 集群。但是添加Kerberos认证后datanode无法连接namenode。 验证 Namenode 服务器成功启动并且没有记录错误。我用用户 'hdus
在启动计算机上设置的单节点集群时,启动数据节点时出现错误 ************************************************************/ 2013-0
我在我的namenode上收到以下日志并将其从执行中删除我的datanode 2013-02-08 03:25:54,345 WARN namenode.NameNode (NameNodeRpcS
我之前已经成功启动了datanode,但是当我今天尝试时,它显示了以下信息。听起来我还没有mkdir / home / hadoop / appdata / hadoopdata目录,但是我确认该目录
目前,我已经在我的 Ubuntu 系统中安装了 Hadoop。我开始了。以下是详细信息: krish@krish-VirtualBox:~$ start-dfs.sh 20 年 14 月 10 日 1
我收到连接拒绝错误即使我拥有正确的权限,我的名称节点和数据节点也无法启动。服务给出以下错误:(连接失败:[Errno 111]连接被拒绝到0.0.0.0:50010)。 最佳答案 可能是因为您没有配置
我正在构建一个 hadoop 集群。我有 3 个机架,每个机架包含几个虚拟机。如何配置hadoop让它有rack awareness?有人建议使用“topology.script.file.name”
这几天一直在尝试安装hadoop集群。有时成功,但大多数时候失败。我根据官方文档和一些貌似高质量的博客进行了配置。 我遇到的问题是:所有进程(包括namenode、datanode、nodemanag
当我使用伪节点配置时,所有守护进程都在启动,但任何时候我创建一个完全分布式模式的集群时,DataNode 守护进程都不会在任何节点上启动,包括主节点。 可能导致此行为的原因是什么? 最佳答案 确保 n
我正在尝试安装 hadoop 2.2.0,但在启动 dataenode 服务时出现以下错误,请帮助我解决此问题。在此先致谢。 2014-03-11 08:48:16,406 信息 org.apache
我正在尝试以伪分布式模式安装 Hadoop 2.2.0。当我尝试启动数据节点服务时显示以下错误,谁能告诉我如何解决这个问题? **2**014-03-11 08:48:15,916 INFO org.
在给出命令jps时: 它只显示 some _pid jps 没有显示别人喜欢的服务 Namenode Datanode ResourceManager etc 最佳答案 您是否已启动服务。如果服务
我已经使用HDFS API构建了一个存储系统。我现在正在对系统进行一些性能测试。我通过SIEGE创建了大量并发文件检索请求(例如:siege -c 500 -r 1 "http://bucket1.s
我们重新启动集群上的数据节点 我们在 ambari 集群中有 15 台数据节点机器而每台datanode机器有128G RAM 版本 -(HDP - 2.6.4 和 ambari 版本 2.6.1)
Hadoop/Datanode 目录下当前和以前的目录有什么意义? hadoop 如何使用它们? 我在本地文件系统的所有磁盘上的路径/hadoop/datanode 下有一个/current 目录。
我是一名优秀的程序员,十分优秀!