gpt4 book ai didi

hadoop - 错误消息 : "offset (0) + length (4) exceed the capacity of the array: 2" while fetching data from HBase

转载 作者:可可西里 更新时间:2023-11-01 15:13:57 27 4
gpt4 key购买 nike

由于上述错误,我基于 tomcat 的 REST API 应用程序无法处理请求。我在尝试从 HBase 检索数据时遇到错误。我使用 RESTFul 网络服务作为我的界面。

我正在使用包含 HBase 0.98.6 的 CDH 5.3.1。有谁知道如何解决这个问题?在此处输入代码

错误详情:错误信息:“偏移量(0)+长度(4)超出数组的容量:2”

最佳答案

也许您需要更改一些架构类型规范?

我得到这个错误,除了 offset (0) + length (4) exceed the capacity of the array: 1。这是因为缺少相关列的值,我假设 1 个字节表示空值。

在 Java 中使用 spark 到 hbase 连接器时会发生这种情况,并将列类型指定为“int”,例如:

{"cf": "fam", "col": "someColumn", "type": "int"

将类型更改为“字符串”解决了问题,缺失值显示为 null 而不是导致错误。

关于hadoop - 错误消息 : "offset (0) + length (4) exceed the capacity of the array: 2" while fetching data from HBase,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28847429/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com