gpt4 book ai didi

apache-zookeeper - Zookeeper 不断收到警告 : "caught end of stream exception"

转载 作者:行者123 更新时间:2023-12-04 20:38:52 24 4
gpt4 key购买 nike

我现在使用 CDH-5.3.1 集群,其中三个 zookeeper 实例位于三个 ip:

133.0.127.40 n1
133.0.127.42 n2
133.0.127.44 n3

启动时一切正常,但最近我注意到节点 n2 不断收到警告:
caught end of stream exception

EndOfStreamException: Unable to read additional data from client sessionid **0x0**, likely client has closed socket
at org.apache.zookeeper.server.NIOServerCnxn.doIO(NIOServerCnxn.java:220)
at org.apache.zookeeper.server.NIOServerCnxnFactory.run(NIOServerCnxnFactory.java:208)
at java.lang.Thread.run(Thread.java:722)

它每秒发生一次,并且仅在 n2 上发生,而 n1 和 n3 很好。
我仍然可以使用 HBase shell 来扫描我的表,并使用 Solr WEB UI 进行查询。但是我无法启动 Flume 代理,整个过程都在这一步停止:
Logging to org.slf4j.impl.Log4jLoggerAdapter(org.mortbay.log) via org.mortbay.log.Slf4jLog

jetty-6.1.26.cloudera.4

Started SelectChannelConnector@0.0.0.0:41414.

几分钟后,我从 Cloudera Manager 收到警告,说 Flume 代理超出了文件描述符的阈值。

有谁知道出了什么问题?提前致谢。

最佳答案

我记得在 ZK 中看到过类似的错误(诚然不是 Flume)。我认为当时的问题与存储在节点上和/或传输到客户端的大量数据有关。在 zoo.cfg 中需要考虑调整的事项:

  • 限制 autopurge.snapRetainCount ,例如将其设置为 10
  • 套装autopurge.purgeInterval比方说,2(小时)

  • 如果 ZK 客户端(Flume?)正在向/从 ZK 集群流式传输大型 znode,您可能需要设置 Java 系统属性 jute.maxbuffer 在客户端 JVM 上,也可能在服务器节点上,达到足够大的值。我相信这个属性的默认值是 1M。为您的工作量确定合适的值恐怕是一种反复试验的练习!

    关于apache-zookeeper - Zookeeper 不断收到警告 : "caught end of stream exception",我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30308727/

    24 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com