gpt4 book ai didi

hadoop - Hbase、区域服务器、存储文件大小、索引

转载 作者:可可西里 更新时间:2023-11-01 14:45:20 24 4
gpt4 key购买 nike

您是否对 Hbase 中的索引表使用压缩?如果是这样,您使用什么类型的压缩?

我注意到我的索引表的大小每天都很大,而且每天都在增长……添加新存储后,大小甚至更大。

我有例如表 A,其大小为 108.3 G

在/apps/hbase/data/data/default中,大小为380.0 G的索引表,

并且在/apps/hbase/data/archive/data/default 中,索引表的大小为 1.2 T

你能建议我如何处理索引表的大小吗?

为什么HDFS上归档的数据这么大?/apps/hbase/data/archive/data/default

能否以某种方式管理 HDFS 上存档目录的大小?存档占用了我 HDFS 空间的 2/3 以上。

我也注意到,我的三张表上有一百多个'split regions',其他表没有'split regions'。你知道可能是什么原因吗?

最佳答案

我在舞台环境中发现,/apps/hbase/data/archive/中的大数据的原因是由从 cron 运行的每日 hbase 快照引起的。

所以,现在我将重写脚本,只保留一两个表快照。

关于hadoop - Hbase、区域服务器、存储文件大小、索引,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41096775/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com