gpt4 book ai didi

hadoop - 重新部署后 HBase 协处理器未更新

转载 作者:可可西里 更新时间:2023-11-01 15:43:17 26 4
gpt4 key购买 nike

我正在使用 HBase 1.1.2,并尝试重新部署自定义端点协处理器以修复我的 Java 代码中的错误。我对协处理器代码做了一些更改,并通过以下步骤重新部署了它:

  1. 重建协处理器 jar
  2. 将其复制到 HDFS 上的某个位置
  3. 删除现有的协处理器:alter 'table', METHOD => 'table_att_unset',NAME => 'coprocessor$1'
  4. 通过 HBase UI 确认该表没有附加协处理器
  5. 通过禁用表并运行 alter 'table', METHOD => 'table_att', 'coprocessor'=>'hdfs:///user/bwatson/sum-coprocessor-0.1.0 添加新的协处理器-SNAPSHOT.jar|uk.co.hadoopathome.coprocessor.SumAndCountEndpoint||'
  6. 重新启用表格
  7. 通过HBase UI确认协处理器已经挂载

当我重新运行与协处理器通信的客户端代码时,我可以在区域服务器日志中清楚地看到旧协处理器代码仍在运行。

如果我在托管我的表的区域服务器上本地搜索 jar,我发现该 jar 只在一个位置:

find / -name "*um-coprocesso*"
/tmp/hbase-hbase/local/jars/tmp/.2107072457.sum-coprocessor-0.1.0-SNAPSHOT.jar.1522237762363.jar
/tmp/hbase-hbase/local/jars/tmp/..2107072457.sum-coprocessor-0.1.0-SNAPSHOT.jar.1522237762363.jar.crc

我可以从这个 jar 的日期和大小确认它是旧版本。

这是 HBase 中的错误吗?我该如何解决这个问题?

最佳答案

重启 HBase 就成功了; /tmp/hbase-hbase/local/jars/tmp/ 中的 jar 已删除,我的下一次部署成功。

这是 HBase 中的一个错误,无论是在文档中还是在代码中。我将使用 HBase Jira 提出申请。

关于hadoop - 重新部署后 HBase 协处理器未更新,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55758719/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com