gpt4 book ai didi

linux - 打开的文件太多 - KairosDB

转载 作者:太空狗 更新时间:2023-10-29 11:18:24 27 4
gpt4 key购买 nike

运行此查询时:

{ "start_absolute":1359695700000, "end_absolute":1422853200000, "metrics":[{"tags":{"Building_id":["100"]},"name":"meterreadings","group_by":[{"name":"time","group_count":"12","range_size":{"value":"1","unit":"MONTHS"}}],"aggregators":[{"name":"sum","align_sampling":true,"sampling":{"value":"1","unit":"Months"}}]}]}

我收到以下回复:

500 {"errors":["Too many open files"]}

在这里this link它被写成增加文件最大的大小。

我的文件最大输出是:

cat /proc/sys/fs/file-max
382994

它已经很大了,我需要增加它的限制

最佳答案

您使用的是什么版本?您是否在查询中使用了很多 grou-by?作为解决方法,您可能需要重新启动 kairosDB。

你能检查一下你是否删除了(幻影)文件句柄(在下面的命令行中用 kairosDB 进程 ID 替换)吗?

ls -l /proc/<PID>/fd | grep kairos_cache | grep -v '(delete)' | wc -l  

0.9.5 中修复了未关闭的文件句柄。下一版本 (1.0.1) 有待修复。

比照。 https://github.com/kairosdb/kairosdb/pull/180 , https://github.com/kairosdb/kairosdb/issues/132 , 和 https://github.com/kairosdb/kairosdb/issues/175 .

关于linux - 打开的文件太多 - KairosDB,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32081539/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com