gpt4 book ai didi

hadoop - Hbase memstore 手动刷新

转载 作者:可可西里 更新时间:2023-11-01 14:20:44 32 4
gpt4 key购买 nike

根据 Hbase 的设计,Hbase 使用 memstore 来存储写入,最终当 memstore 达到大小限制时,它会将其刷新到 HDFS。这个冲洗练习是在主题后面自动发生的。

在我的例子中,我想做一个 hdfs 迁移,从一个集群迁移到另一个集群,我需要确保在我关闭源集群中的 hbase 进程之前内存中没有任何东西。无论如何我们可以手动强制刷新,即使 memstore 没有达到限制。

==已添加问题==

进一步的问题:你怎么知道flush完成了?通过指标?

最佳答案

在 shell 中你可以做 flush 'tableName'刷新内存库。

但是如果你想通过hdfs备份/hbase/table文件夹,方法是:

  • 禁用表:(从 shell:禁用“tableName”)
  • 复制文件:hadoop fs -cp/hbase/tableName/hbase-backup/tableName
  • 启用表:(从 shell:启用“tableName”)

...或者您可以使用 CopyTableExport 工具 ( http://hbase.apache.org/book/ops.backup.html )

关于hadoop - Hbase memstore 手动刷新,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13705293/

32 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com