- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
使用 Ubuntu VM 运行 Hadoop 版本 1.2.14 个虚拟机1. hadoop-NN(名称节点)2. hadoop-snn(二级名称节点)3. hadoop-dn01(数据节点1)4. hadoop-dn02(数据节点2)所有进程使用start-all.sh启动
我在次要名称节点中没有看到编辑发生,这意味着次要名称节点上的 fsiamge 没有得到更新。SecondaryNameNode 上的日志文件显示以下错误。
2015-02-04 13:16:12,083 信息 org.apache.hadoop.hdfs.server.common.Storage:文件数 = 502015-02-04 13:16:12,086 信息 org.apache.hadoop.hdfs.server.common.Storage:正在 build 的文件数 = 02015-02-04 13:16:12,087 信息 org.apache.hadoop.hdfs.server.namenode.FSEditLog:开始加载编辑文件/tmp/hadoop-hadoop/dfs/namesecondary/current/edits2015-02-04 13:16:12,088 信息 org.apache.hadoop.hdfs.server.namenode.FSEditLog:/tmp/hadoop-hadoop/dfs/namesecondary/current/edits 的 EOF,已到达编辑日志的结尾事务数找到:8。读取的字节数:7402015-02-04 13:16:12,088 信息 org.apache.hadoop.hdfs.server.namenode.FSEditLog:编辑文件/tmp/hadoop-hadoop/dfs/namesecondary/current/edits 大小 740 edits # 8 loaded in 0秒。2015-02-04 13:16:12,088 信息 org.apache.hadoop.hdfs.server.namenode.FSEditLog:事务数:0 事务总时间(毫秒):0 同步中批处理的事务数:0 同步数:0 同步时间(毫秒):02015-02-04 13:16:12,128 信息 org.apache.hadoop.hdfs.server.namenode.FSEditLog:关闭编辑日志:position=740,editlog=/tmp/hadoop-hadoop/dfs/namesecondary/current/edits2015-02-04 13:16:12,128 信息 org.apache.hadoop.hdfs.server.namenode.FSEditLog:关闭成功:截断为 740,editlog=/tmp/hadoop-hadoop/dfs/namesecondary/current/edits2015-02-04 13:16:12,130 信息 org.apache.hadoop.hdfs.server.common.Storage:图像文件/tmp/hadoop-hadoop/dfs/namesecondary/current/fsimage 大小为 5124 字节,在 0 秒内保存。2015-02-04 13:16:12,229 信息 org.apache.hadoop.hdfs.server.namenode.FSEditLog:关闭编辑日志:position=4,editlog=/tmp/hadoop-hadoop/dfs/namesecondary/current/edits2015-02-04 13:16:12,230 信息 org.apache.hadoop.hdfs.server.namenode.FSEditLog:关闭成功:截断为 4,editlog=/tmp/hadoop-hadoop/dfs/namesecondary/current/edits2015-02-04 13:16:12,485 信息 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode:发布 URL hadoop-nn:50070putimage=1&port=50090&machine=0.0.0.0&token=-41:307905665:0:1423080068000 :1423079764851&newChecksum=9bbe4619db3323211ed473f3f8acb7a92015-02-04 13:16:12,485 信息 org.apache.hadoop.hdfs.server.namenode.TransferFsImage:打开与 http://hadoop-nn:50070/getimage?putimage=1&port=50090&machine=0.0.0.0&token=-41:307905665:0:1423080068000:1423079764851&newChecksum=9bbe4619db3323211ed473f3f8acb7a9 的连接2015-02-04 13:16:12,489 错误 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode:doCheckpoint 异常:2015-02-04 13:16:12,490 错误 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode:java.io.FileNotFoundException:http://hadoop-nn:50070/getimage?putimage=1&port=50090&machine=0.0.0.0&token=-41:307905665:0:1423080068000:1423079764851&newChecksum=9bbe4619db3323211ed473f3f8acb7a9 在 sun.net.www.protocol.http.HttpURLConnection.getInputStream(HttpURLConnection.java:1624) 在 org.apache.hadoop.hdfs.server.namenode.TransferFsImage.getFileClient(TransferFsImage.java:177) 在 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.putFSImage(SecondaryNameNode.java:462) 在 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.doCheckpoint(SecondaryNameNode.java:525) 在 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.doWork(SecondaryNameNode.java:396) 在 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.run(SecondaryNameNode.java:360) 在 java.lang.Thread.run(Thread.java:745)
最佳答案
<property>
在 hdfs-site.xml 中添加此标记可解决问题。
<name>dfs.secondary.http.address</name>
<value>hadoop-snn:50090</value>
</property>
关于apache - Hadoop SecondaryNameNode 问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28331687/
使用 Ubuntu VM 运行 Hadoop 版本 1.2.14 个虚拟机1. hadoop-NN(名称节点)2. hadoop-snn(二级名称节点)3. hadoop-dn01(数据节点1)4.
我刚刚下载了 hadoop-0.20 tar 并解压了。我设置了 JAVA_HOME 和 HADOOP_HOME。我修改了 core-site.xml、hdfs-site.xml 和 mapred-s
我按照此链接安装 hadoop http://thepowerofdata.io/setting-up-a-apache-hadoop-2-7-single-node-on-ubuntu-14-04/
嗨,我是 Hadoop 的新手,并试图让它在我的本地机器上运行。但是每次我运行 hdfs namenode -format 然后 start-dfs.sh 和 start-yarn.sh 或 star
我已经建立了一个有 3 台机器的小型 Hadoop 集群: 机器 (Hadoop1) 同时运行 NameNode 和 Jobtracker 机器(Hadoop2)正在运行 SecondaryNameN
我正在尝试使用本教程在我的计算机上的单节点集群上安装 Hadoop 2.2.0 http://codesfusion.blogspot.gr/2013/10/setup-hadoop-2x-220-o
我在集群设置中使用 Hadoop 2.2.0,我反复收到以下错误,异常是在文件 /opt/dev/hadoop/2.2.0/logs/下的名称节点 olympus 中产生的hadoop-deploy-
我刚开始使用 Hadoop,在启动 SecondaryNameNode(SNN) 时遇到问题。我可以从日志中看到以下错误 错误:2015-10-28 00:26:58,495 信息 org.apach
我是一名优秀的程序员,十分优秀!