- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在运行hadoop群集,其中Ubuntu主机作为主从服务器,虚拟机在其上作为另一个从属服务器运行(2节点群集)。
似乎应该在No data nodes are started上解决的问题的解决方案不适用于我。我尝试了那里介绍的两种解决方案。
似乎当我手动将受影响的datanode的 namespace ID等同于name节点时
并启动群集(链接文章中的解决方案2),我仍然遇到相同的错误(DataStreamer异常)。
接下来,datanode之一的日志显示相同的Incompatible namespaceIDs错误,但日志中显示的数据节点的命名空间ID与我的tmp / dfs / data / current / version文件中的存在不同(未更改且与tmp / dfs / name / current / version相同)
经过许多小时的调试,我仍然一无所知:(。
PS:
14/05/04 04:12:54 WARN hdfs.DFSClient: DataStreamer Exception: org.apache.hadoop.ipc.RemoteException: java.io.IOException: File /user/dsingh/mysample could only be replicated to 0 nodes, instead of 1 at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getAdditionalBlock(FSNamesystem.java:1920) at org.apache.hadoop.hdfs.server.namenode.NameNode.addBlock(NameNode.java:783) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:606) at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:587) at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1432) at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1428) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:415) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1190) at org.apache.hadoop.ipc.Server$Handler.run(Server.java:1426)
at org.apache.hadoop.ipc.Client.call(Client.java:1113) at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:229) at com.sun.proxy.$Proxy1.addBlock(Unknown Source) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:606) at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:85) at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:62) at com.sun.proxy.$Proxy1.addBlock(Unknown Source) at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.locateFollowingBlock(DFSClient.java:3720) at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.nextBlockOutputStream(DFSClient.java:3580) at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.access$2600(DFSClient.java:2783) at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream$DataStreamer.run(DFSClient.java:3023)
14/05/04 04:12:54 WARN hdfs.DFSClient: Error Recovery for null bad datanode[0] nodes == null 14/05/04 04:12:54 WARN hdfs.DFSClient: Could not get block locations. Source file "/user/dsingh/mysample" - Aborting... put: java.io.IOException: File /user/dsingh/mysample could only be replicated to 0 nodes, instead of 1 14/05/04 04:12:54 ERROR hdfs.DFSClient: Failed to close file /user/dsingh/mysample org.apache.hadoop.ipc.RemoteException: java.io.IOException: File /user/dsingh/mysample could only be replicated to 0 nodes, instead of 1 at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getAdditionalBlock(FSNamesystem.java:1920) at org.apache.hadoop.hdfs.server.namenode.NameNode.addBlock(NameNode.java:783) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:606) at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:587) at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1432) at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1428) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:415) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1190) at org.apache.hadoop.ipc.Server$Handler.run(Server.java:1426)
at org.apache.hadoop.ipc.Client.call(Client.java:1113) at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:229) at com.sun.proxy.$Proxy1.addBlock(Unknown Source) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:606) at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:85) at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:62) at com.sun.proxy.$Proxy1.addBlock(Unknown Source) at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.locateFollowingBlock(DFSClient.java:3720) at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.nextBlockOutputStream(DFSClient.java:3580) at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.access$2600(DFSClient.java:2783) at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream$DataStreamer.run(DFSClient.java:3023)
最佳答案
在这个问题上工作了几个小时后。我终于放弃了,在我的知识 Realm 仍然没有解决它。]
但是,好事是,我没有在同一台计算机上使用虚拟机作为从服务器,而是将另一台ubuntu计算机与我的主计算机连接起来,并且每件事都像魅力一样起作用:)
我想这个问题可能与在我的情况下虚拟机中有限的虚拟内存分配有关(小于500Mb),并且我读到某个地方,集群中的每个节点都应至少有10 GB的可用空间来保持HDFS的快乐。 。
如果可以的话,我带走了尝试在2台单独的计算机上使用hadoop群集,而不是在同一主机上使用虚拟机
关于java - 无法摆脱著名的DataStreamer异常:org.apache.hadoop.ipc.RemoteException:错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23454590/
1) 谁能帮助我了解“Remoteexception”的概念?一般是什么意思? 2) 另外,unwrapRemoteException 是什么意思?不确定它的意思是“如果这个远程异常包含一个 look
所以我为 Android 操作系统编写了一个服务和一个 Activity 。 我的服务在它自己的进程中运行,所以我的 Activity 和服务之间的所有通信都是通过 IPC 进行的。为此,我使用标准的
我有这个演示脚本,我将其放入 Jenkins 作业中: Write-Host "##############################################" $ErrorAction
我的 IntentService 中有以下代码,用于向注册的客户端发送 Message: for(Messenger client : clients) { client.send(aMess
我注意到HDFS删除命令将随机失败。例如,在MapReduce作业中,我在启动时删除目录。有时它会因以下错误而失败,但是在第二次尝试时会成功。 org.apache.hadoop.ipc.Remote
NullPointerException 是运行时异常的一个可能原因是因为每个方法都可以抛出它,所以每个方法都需要有一个“抛出 NullPointerException”,并且会很丑陋。但这发生在 R
我遵循了本教程:https://docs.oracle.com/javase/6/docs/technotes/guides/rmi/hello/hello-world.html#5 我在命令提示符下
我在我的 EC2 实例上设置了 CHD4。一切正常。 当我尝试访问时:http://ec2-00-000-000-000.us-west-1.compute.amazonaws.com:50075/w
我正在将信息输入数据库,但遇到一些 EJB 异常。信息的路径来自带有操作类的 JSP,它将值插入到远程 EJB 方法中,该方法内部(在该方法内)调用另一个方法来访问 hibernate,然后调用另一个
我有一个奇怪的问题。我正在尝试使用 RMI 编写一个简单的 Hello World java 程序。这是我的文件,全部属于同一个包: Hello.java: package com.something
我正在使用 ubuntu 15.04 进行 RMI 和 SQL 编程。我正在编写以下 3 个文件: ServerIntf.java 、 ServerImpl.java 和 Server.java 当我
我已将 Eclipse 设置为生成有关缺少 Javadoc 标记的警告。但是,我想抑制针对 RMI 接口(interface)缺少 @throws RemoteException 标记的警告,因为这些
这是我想要强制抛出远程异常的代码: transient Bicycle b=null; public Bicycle getBicycle() { if(b==null) {
我想将一些文件从 Windows 机器复制到在 SingleNode 上的 ubuntu 14.04.02 上运行的 hadoop。这是用于此目的的代码; Configuration configur
我无法使用 Hadoop 的 WebHDFS REST API 创建文件。 按照文档,我正在这样做。 curl -i -X PUT "http://hadoop-primarynamenode:500
我正在运行hadoop群集,其中Ubuntu主机作为主从服务器,虚拟机在其上作为另一个从属服务器运行(2节点群集)。 似乎应该在No data nodes are started上解决的问题的解决方案
以下方法: private void startServer() { // snippet that starts the server on the local machine
以下方法: private void startServer() { // snippet that starts the server on the local machine
以下方法: private void startServer() { // snippet that starts the server on the local machine
以下方法: private void startServer() { // snippet that starts the server on the local machine
我是一名优秀的程序员,十分优秀!