- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
这发生在伪分布式和分布式模式中。当我尝试启动 HBase 时,最初所有 3 个服务 - master、region 和 quorumpeer 都会启动。然而不到一分钟,主人就停下了。在日志中,这是跟踪 -
2013-05-06 20:10:25,525 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: <master/master_ip>:9000. Already tried 0 time(s).
2013-05-06 20:10:26,528 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: <master/master_ip>:9000. Already tried 1 time(s).
2013-05-06 20:10:27,530 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: <master/master_ip>:9000. Already tried 2 time(s).
2013-05-06 20:10:28,533 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: <master/master_ip>:9000. Already tried 3 time(s).
2013-05-06 20:10:29,535 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: <master/master_ip>:9000. Already tried 4 time(s).
2013-05-06 20:10:30,538 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: <master/master_ip>:9000. Already tried 5 time(s).
2013-05-06 20:10:31,540 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: <master/master_ip>:9000. Already tried 6 time(s).
2013-05-06 20:10:32,543 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: <master/master_ip>:9000. Already tried 7 time(s).
2013-05-06 20:10:33,544 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: <master/master_ip>:9000. Already tried 8 time(s).
2013-05-06 20:10:34,547 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: <master/master_ip>:9000. Already tried 9 time(s).
2013-05-06 20:10:34,550 FATAL org.apache.hadoop.hbase.master.HMaster: Unhandled exception. Starting shutdown.
java.net.ConnectException: Call to <master/master_ip>:9000 failed on connection exception: java.net.ConnectException: Connection refused
at org.apache.hadoop.ipc.Client.wrapException(Client.java:1179)
at org.apache.hadoop.ipc.Client.call(Client.java:1155)
at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:226)
at $Proxy9.getProtocolVersion(Unknown Source)
at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:398)
at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:384)
at org.apache.hadoop.hdfs.DFSClient.createRPCNamenode(DFSClient.java:132)
at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:259)
at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:220)
at org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:89)
at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1611)
at org.apache.hadoop.fs.FileSystem.access$300(FileSystem.java:68)
at org.apache.hadoop.fs.FileSystem$Cache.getInternal(FileSystem.java:1645)
at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1627)
at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:254)
at org.apache.hadoop.fs.Path.getFileSystem(Path.java:183)
at org.apache.hadoop.hbase.util.FSUtils.getRootDir(FSUtils.java:363)
at org.apache.hadoop.hbase.master.MasterFileSystem.<init>(MasterFileSystem.java:86)
at org.apache.hadoop.hbase.master.HMaster.finishInitialization(HMaster.java:368)
at org.apache.hadoop.hbase.master.HMaster.run(HMaster.java:301)
Caused by: java.net.ConnectException: Connection refused
at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method)
at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:592)
at org.apache.hadoop.net.SocketIOWithTimeout.connect(SocketIOWithTimeout.java:206)
at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:519)
at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:484)
at org.apache.hadoop.ipc.Client$Connection.setupConnection(Client.java:468)
at org.apache.hadoop.ipc.Client$Connection.setupIOstreams(Client.java:575)
at org.apache.hadoop.ipc.Client$Connection.access$2300(Client.java:212)
at org.apache.hadoop.ipc.Client.getConnection(Client.java:1292)
at org.apache.hadoop.ipc.Client.call(Client.java:1121)
... 18 more
我已采取措施解决此问题但没有成功- 从分布式模式降级为伪分布式模式。同样的问题。- 试过独立模式 - 不走运- hadoop 和 hbase 使用相同的用户 (hadoop)。为 hadoop 设置无密码 ssh。 - 同样的问题。- 编辑/etc/hosts 文件并将 localhost/servername 以及 127.0.0.1 更改为引用 SO 和不同来源的实际 IP 地址。还是一样的问题。- 重启服务器
这是配置文件。
hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://<master>:9000/hbase</value>
<description>The directory shared by regionservers.</description>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value><master></value>
</property>
<property>
<name>hbase.master</name>
<value><master>:60000</value>
<description>The host and port that the HBase master runs at.</description>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
<description>The replication count for HLog and HFile storage. Should not be greater than HDFS datanode count.</description>
</property>
</configuration>
/etc/hosts 文件
127.0.0.1 localhost.localdomain localhost::1 localhost6.localdomain6 localhost6 .
我在这里做错了什么?
Hadoop 版本 - Hadoop 0.20.2-cdh3u5HBase 版本 - 版本 0.90.6-cdh3u5
最佳答案
通过查看您的配置文件,我假设您在配置文件中使用了实际的主机名。如果是这种情况,请将主机名连同机器的 IP 添加到/etc/hosts 文件中。还要确保它与 Hadoop 的 core-site.xml 中的主机名匹配。正确的名称解析对于 HBase 的正常运行至关重要。
如果您仍然遇到任何问题,请按照上述步骤操作 here适本地。我已尝试详细解释该过程,希望如果您仔细执行所有步骤,您将能够运行它。
HTH
关于hadoop - HBase master 停止并出现 "Connetion Refused"错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/16401610/
我正在尝试使用 KafkaTool 连接到 Kafka。我收到一个错误:连接到集群时出错。创建新的 KafkaAdminClient 失败 Kafka 和 Zookeeper 托管在 Docker 中
我已在 Powershell 版本 7 中安装了 AzureAD 模块,但无法执行 Connect-AzureAD Cmdlet。 有什么想法吗? PS C:\Users\User> Get-Inst
最近我正在使用 Amazon Lambda 进行一个项目。 我创建了一个 lambda 函数,如下所示 var AWS = require ('aws-sdk'); exports.handler =
在 HTTP CONNECT 隧道中(引用 http://en.wikipedia.org/wiki/HTTP_tunnel),客户端/浏览器发送CONNET 方法请求,而不是直接 https 连接中
这发生在伪分布式和分布式模式中。当我尝试启动 HBase 时,最初所有 3 个服务 - master、region 和 quorumpeer 都会启动。然而不到一分钟,主人就停下了。在日志中,这是跟踪
引用:https://github.com/square/okhttp/issues/4003 大多数解决方案都是网络请求网络,没有网络请求缓存。我的要求是先有网络请求缓存,然后再请求网络。谢谢!!!
我正在尝试从本地主机访问我的在线数据库,但出现了上述错误。我在网上测试了一下,确实有效。 在数据库下,我已将我的计算机 IP 地址添加到远程 MySQL。 Access denied for user
我是一名优秀的程序员,十分优秀!