- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
设置 regionserver 和 zookeeper quorum 的最佳做法是什么?
我有一个包含 16 个节点的小型 hadoop 集群。按照 http://hbase.apache.org/book/example_config.html 中给出的示例我选择 16 个节点作为区域服务器,并选择这些节点的一个子集作为 zookeeper。
但是当一个作业由不在与 hbase.zookeeper.quorum 对应的列表中的节点启动时,我收到以下错误:
13/08/23 15:40:05 INFO zookeeper.ClientCnxn: Opening socket connection to server localhost/0:0:0:0:0:0:0:1:2181. Will not attempt to authenticate using SASL (unknown error) 13/08/23 15:40:05 WARN zookeeper.ClientCnxn: Session 0x0 for server null, unexpected error, closing socket connection and attempting reconnect java.net.ConnectException: Connection refused at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method) at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:592) at org.apache.zookeeper.ClientCnxnSocketNIO.doTransport(ClientCnxnSocketNIO.java:350) at org.apache.zookeeper.ClientCnxn$SendThread.run(ClientCnxn.java:1068) 13/08/23 15:40:05 INFO zookeeper.ClientCnxn: Opening socket connection to server localhost/127.0.0.1:2181. Will not attempt to authenticate using SASL (unknown error) 13/08/23 15:40:05 INFO zookeeper.ClientCnxn: Socket connection established to localhost/127.0.0.1:2181, initiating session 13/08/23 15:40:05 WARN zookeeper.RecoverableZooKeeper: Possibly transient ZooKeeper exception: org.apache.zookeeper.KeeperException$ConnectionLossException: KeeperErrorCode = ConnectionLoss for /hbase/hbaseid 13/08/23 15:40:05 INFO util.RetryCounter: Sleeping 2000ms before retry #1...
所以它会尝试连接 600 秒然后返回
Task attempt_xxx failed to report status for 60 seconds. Killing!
尝试几次后,它会更改节点,如果碰巧新节点属于 zookeeper 列表,则作业会成功完成。
这正常吗?
我最终将所有节点添加到 zookeeper 列表中,但我想知道这是否是一个好的做法。在任何情况下区域服务器列表应该与节点列表不同吗?
谢谢
最佳答案
不,看起来你正在做的事情不是一个好的做法。对于 16 个 RS 集群,1 个 ZK 节点应该就可以了。
查看 ZK Admin guide :
For the ZooKeeper service to be active, there must be a majority of non-failing machines that can communicate with each other. To create a deployment that can tolerate the failure of F machines, you should count on deploying 2xF+1 machines. Thus, a deployment that consists of three machines can handle one failure, and a deployment of five machines can handle two failures. Note that a deployment of six machines can only handle two failures since three machines is not a majority. For this reason, ZooKeeper deployments are usually made up of an odd number of machines.
虽然那里没有说明,但 ZK 集群应该不超过 7 个节点。给定奇数节点的建议,留下 1、3、5 和 7 的选项。同样对于像您这样的小型集群,1 应该足够,但 3 会给您弹性。 5 可能有点矫枉过正。 7 绝对是。
此外,查看您粘贴的错误:
java.net.ConnectException: Connection refused
这似乎表明:
关于hadoop - 如何选择zookeeper和regionserver,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18404855/
Hbase zookeeper 启动,regionserver 在多节点集群上启动,但 hmaster 未启动并生成以下日志文件。 hbase-site.xml 快照
RegionServer 有关RegionServers的更多信息,请参阅RegionServer。 启动错误 Master启动了,但RegionServers没有 Master认为Regio
我阅读了关于加盐以及如何在顺序键的情况下将其用于负载平衡的内容。基本上,salt 应该将顺序行分发到不同的区域服务器。 我也读过这个article这解释了如何在加盐的表上运行 MR 作业。 因此,它建
RegionServer Offheap读/写路径 Offheap读取路径 在hbase-2.0.0中,HBASE-11425更改了HBase读取路径,以便它可以保存读取数据,避免将缓存数据复制到
似乎 Hbase RegionServer 是单个节点,不像 Cassandra 那样有复制节点。我知道当一个 RegionServer 宕机时,HMaster 会将崩溃的 RS 上的区域分配给其他
我想在特定的datanode\regionserver中插入数据, 为此需要进行哪些配置更改? 假设有 4 个数据节点 A、B、C、D 主机名。和 4 个线程正在运行。一个线程仅在数据节点 A 和 B
我使用 OpenTSDB over HBase(虚拟盒子上的伪分布式 Hadoop)以非常高的负载(~ 50,000 条记录/秒)发送数据。系统正常工作了一段时间,但突然崩溃了。我终止了 OpenTS
如果 RegionServer 崩溃了,数据还没有写入 DataNode 会怎样? 我会丢失数据吗? 如果一些 RegionServers 挂了,会影响数据的一致性吗? 最佳答案 如果在写入数据时启用
我安装了 hadoop,我的 HBase 运行在它之上。我在 hadoop 中的所有守护进程都已启动并正在运行。在我启动我的 hbase 之后,当我发出 JPS 命令时,我可以看到 HMaster 正
我有一个 4 节点集群(hadoop 2.5.2)(Hbase 1.0.0),主机上有一个主节点(作为从节点)和 3 个从节点。调用 start-hbase.sh 后,jps 没有显示 HRegion
我的 Apache Nutch 爬虫在日志文件中生成以下信息。 “警告 client.ScannerCallable - 忽略,可能已经关闭org.apache.hadoop.ipc.RemoteEx
我已经启动了 hbase,所有守护进程都在运行。 $ jps 8482 HQuorumPeer 25105 RemoteMavenServer 9133 SecondaryNameNode 1188
我无法启动 Hbase Master,因为我收到此错误: [Thread-18] master.HMaster: hbase:meta,,1.1588230740 is NOT online;
我是一名优秀的程序员,十分优秀!