gpt4 book ai didi

hadoop - ganglia 生成的 rrd 文件过多,无法自动删除

转载 作者:行者123 更新时间:2023-12-02 21:29:12 25 4
gpt4 key购买 nike

我正在使用 ganglia 3.7.2 来监控 hadoop(2.6.0-cdh5.4.0) 集群(7 个服务器),并且我在 hadoop 和 hbase 上启用了 metrics2;
我在一台服务器上安装了 gmetad,在其他服务器上安装了 gmond 和 yum ;
刚开始,monitor运行很好,在ganglia网页上可以看到正常的monitor数据,但是问题是:
几个小时后,rrd文件太多,只好为路径/var/lib/ganglia/rrds做符号链接(symbolic link),几天后,rrd文件占用了将近1TB的磁盘空间,网页无法显示上监控数据,有人知道如何解决这个问题吗?

gmond 配置(使用单 channel ):

globals {
daemonize = yes
setuid = yes
user = ganglia
debug_level = 0
max_udp_msg_len = 1472
mute = no
deaf = no
allow_extra_data = yes
host_dmax = 86400 /*secs. Expires (removes from web interface) hosts in 1 day */
host_tmax = 20 /*secs */
cleanup_threshold = 300 /*secs */
gexec = no
send_metadata_interval = 60 /*secs */
}

最佳答案

解决了这个问题,我做了以下事情:

  • 将默认 rrd 规则更改为:
    RRA "RRA:AVERAGE:0.5:1:256""RRA:AVERAGE:0.5:24:512""RRA:AVERAGE:0.5:168:512""RRA:AVERAGE:0.5:672:512""RRA:AVERAGE: 0.5:5760:1024"
  • 关闭hadoop metric2的datanode.sink和nodemanager.sink;

  • 引用: http://www.perzl.org/ganglia/bestpractices.html##Best_Practices_Ganglia_Sampling

    关于hadoop - ganglia 生成的 rrd 文件过多,无法自动删除,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34893301/

    25 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com