- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我正在尝试在一个由 5 台机器组成的(测试)集群上安装 Hadoop 1.2.1,其中一个节点用作 JobTracker、NameNode 和 Secondary NameNode。其余 4 台机器都是从机。
有两个问题。
1)在master的conf/masters和conf/slaves文件中,我分别提供了master和slaves的IP地址。在从机上,masters 文件是空的,slaves 文件包含自己的 IP。
当启动 hadoop (bin/start-all.sh) 时,TaskTracker 和 DataNode 不启动。我将这些机器的主机名放入/etc/hosts 文件中,并尝试将它们的主机名也放入 masters 和 slaves 文件中。这没有任何区别——TaskTracker 和 DataNode 不会启动。
在启动 hadoop 服务时,我收到一条消息,提示已写入 TaskTracker 和 DataNode 日志。但奇怪的是,我没有在那个位置找到它们。以下是我收到的消息
10.6.80.4: starting datanode, logging to /home/ubuntu/hadoop-1.2.1/libexec/../logs/hadoop-ubuntu-datanode-dsparq-instance4.out
10.6.80.2: starting tasktracker, logging to /home/ubuntu/hadoop-1.2.1/libexec/../logs/hadoop-ubuntu-tasktracker-dsparq-instance2.out
2) 在JobTracker/NameNode日志中,多次列出以下异常。
error: java.io.IOException: File <> could only be replicated to 0 nodes, instead of 1
这些问题的解决方案(在 StackOverflow 上)建议重新格式化 hdfs 并检查/etc/hosts 的条目。我尝试了他们两个,但这没有帮助。
请让我知道如何修复这些错误。提前谢谢你。
添加 core-site.xml 和 mapred-site.xml 的内容(所有机器上相同)
核心站点.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://10.6.80.21:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/hadoop/hdfs</value>
</property>
</configuration>
mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>hdfs://10.6.80.21:8021</value>
</property>
</configuration>
最佳答案
应该将日志写入 *.out 文件,但它不包含太多信息。在/var/log/hadoop/目录中查找 *.log 文件以获取有关名称节点或其他恶魔的最新日志(如果您有基于 RPM 的安装,否则请查看 $HADOOP_HOME 日志文件夹)。考虑到上述问题,请确保所有节点中的 core-site.xml 都指定了名称节点的详细信息。同样检查整个集群的mapred-site.xml,它应该包含jobtracker的地址。
还要确保在整个集群中维护主机名,或者您可以只使用 ip 地址。hadoop.tmp.dir(我们在核心站点中提到的位置)必须在集群中创建,并且它应该具有适当的文件权限,以便您的 hdfs 用户可以执行读/写。
核心站点.xml
<property>
<name>hadoop.tmp.dir</name>
<value>/loation/for/temp/dir</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://namenodehostname</value>
<description>The name of the default file system.</description>
</property>
Mapred-site.xml
<property>
<name>mapred.job.tracker</name>
<value>jobtrackerhostname</value>
<description>The host and port that the MapReduce job tracker
</description>
</property>
如果您觉得上述所有属性都已在您的集群中设置,但仍然面临问题。请更新您的完整日志以及配置文件。
关于ubuntu - hadoop 启动错误 : datanode, tasktracker won't start and data replication error,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29610846/
我在简单的两台机器hadoop集群中面临以下错误。 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException
我有Hadoop 2.7.1 e,它可以成功运行。接下来,我下载了apache-hive-2.1.1-bin,并编辑了“.bashrc”文件以更新用户的环境变量。现在,当我使用命令“* / sbin
我在将本地文件部署到 hdfs 时遇到问题,发现我应该为数据节点和名称节点设置“drwx------”。hdfs中datanode和namenode的初始权限状态。 drwx------ 3 hdus
在我的主节点中运行 Hive 查询时,我遇到了一些严重的问题。我有 3 个集群设置(1 个名称节点,2 个数据节点)。 版本: Hadoop:2.7.3 hive :2.1.0 Java:openjd
我是 apache hadoop 的新手。我正在安装多节点集群,但出现两个错误。我不知道这些是什么类型的错误以及它们产生的原因。我在谷歌上搜索了很多关于这些错误的信息,但我无法找出错误产生背后的原因。
我设置了一个运行良好的 HA Hadoop 集群。但是添加Kerberos认证后datanode无法连接namenode。 验证 Namenode 服务器成功启动并且没有记录错误。我用用户 'hdus
在启动计算机上设置的单节点集群时,启动数据节点时出现错误 ************************************************************/ 2013-0
我在我的namenode上收到以下日志并将其从执行中删除我的datanode 2013-02-08 03:25:54,345 WARN namenode.NameNode (NameNodeRpcS
我之前已经成功启动了datanode,但是当我今天尝试时,它显示了以下信息。听起来我还没有mkdir / home / hadoop / appdata / hadoopdata目录,但是我确认该目录
目前,我已经在我的 Ubuntu 系统中安装了 Hadoop。我开始了。以下是详细信息: krish@krish-VirtualBox:~$ start-dfs.sh 20 年 14 月 10 日 1
我收到连接拒绝错误即使我拥有正确的权限,我的名称节点和数据节点也无法启动。服务给出以下错误:(连接失败:[Errno 111]连接被拒绝到0.0.0.0:50010)。 最佳答案 可能是因为您没有配置
我正在构建一个 hadoop 集群。我有 3 个机架,每个机架包含几个虚拟机。如何配置hadoop让它有rack awareness?有人建议使用“topology.script.file.name”
这几天一直在尝试安装hadoop集群。有时成功,但大多数时候失败。我根据官方文档和一些貌似高质量的博客进行了配置。 我遇到的问题是:所有进程(包括namenode、datanode、nodemanag
当我使用伪节点配置时,所有守护进程都在启动,但任何时候我创建一个完全分布式模式的集群时,DataNode 守护进程都不会在任何节点上启动,包括主节点。 可能导致此行为的原因是什么? 最佳答案 确保 n
我正在尝试安装 hadoop 2.2.0,但在启动 dataenode 服务时出现以下错误,请帮助我解决此问题。在此先致谢。 2014-03-11 08:48:16,406 信息 org.apache
我正在尝试以伪分布式模式安装 Hadoop 2.2.0。当我尝试启动数据节点服务时显示以下错误,谁能告诉我如何解决这个问题? **2**014-03-11 08:48:15,916 INFO org.
在给出命令jps时: 它只显示 some _pid jps 没有显示别人喜欢的服务 Namenode Datanode ResourceManager etc 最佳答案 您是否已启动服务。如果服务
我已经使用HDFS API构建了一个存储系统。我现在正在对系统进行一些性能测试。我通过SIEGE创建了大量并发文件检索请求(例如:siege -c 500 -r 1 "http://bucket1.s
我们重新启动集群上的数据节点 我们在 ambari 集群中有 15 台数据节点机器而每台datanode机器有128G RAM 版本 -(HDP - 2.6.4 和 ambari 版本 2.6.1)
Hadoop/Datanode 目录下当前和以前的目录有什么意义? hadoop 如何使用它们? 我在本地文件系统的所有磁盘上的路径/hadoop/datanode 下有一个/current 目录。
我是一名优秀的程序员,十分优秀!