gpt4 book ai didi

linux - 如何增加kafka集群上的打开文件

转载 作者:行者123 更新时间:2023-12-03 09:51:35 29 4
gpt4 key购买 nike

我们有 10 台 kafka 版本为 1.X 的 kafka 机器

这个 kafka 集群版本是 HDP 版本的一部分 - 2.6.5

我们注意到在/var/log/kafka/server.log下有如下信息

ERROR Error while accepting connection {kafka.network.Accetpr}
java.io.IOException: Too many open files

我们还额外看到了

 Broker 21 stopped fetcher for partition ...................... because they are in the failed log dir /kafka/kafka-logs {kafka.server.ReplicaManager}

WARN Received a PartitionLeaderEpoch assignment for an epoch < latestEpoch. this implies messages have arrived out of order. New: {epoch:0, offset:2227488}, Currnet: {epoch 2, offset:261} for Partition: cars-list-75 {kafka.server.epochLeaderEpocHFileCache}

关于这个问题-

ERROR Error while accepting connection {kafka.network.Accetpr}
java.io.IOException: Too many open files

how to increase the MAX open files , in order to avoid this issue

更新:

在 ambari 中,我们从 kafka --> config

中看到了以下参数

enter image description here

这是我们应该增加的参数吗?

最佳答案

可以这样做:

echo "* hard nofile 100000
* soft nofile 100000" | sudo tee --append /etc/security/limits.conf

然后你应该重新启动。

关于linux - 如何增加kafka集群上的打开文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59749239/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com