gpt4 book ai didi

hadoop - Hive 外部表的最大列数

转载 作者:可可西里 更新时间:2023-11-01 15:18:47 26 4
gpt4 key购买 nike

我正在尝试在 Amazon 的 EMR 上设置 Hive,以从 DynamoDB 表中提取数据并将其转储到 S3。我已按照找到的说明进行操作 here ,并在我们的大多数 table 上取得了成功。然而,对于一个 DynamoDB 表,我收到一个错误(如下所示)。

有问题的表有很多列(> 100),将映射减少到它们的一个子集允许脚本运行,所以我假设这是问题,但我找不到关于此的任何文档。

我可以定义的列数是否有某种硬性限制?还是我可能会在这里遇到其他限制?有办法解决这个问题吗?


我得到的错误看起来像:

FAILED: Error in metadata: javax.jdo.JDODataStoreException: Put request failed : INSERT INTO `TABLE_PARAMS` (`PARAM_VALUE`,`TBL_ID`,`PARAM_KEY`) VALUES (?,?,?)
NestedThrowables:
org.datanucleus.store.mapped.exceptions.MappedDatastoreException: INSERT INTO `TABLE_PARAMS` (`PARAM_VALUE`,`TBL_ID`,`PARAM_KEY`) VALUES (?,?,?)
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask

我尝试运行的脚本如下所示:

CREATE EXTERNAL TABLE hive_WSOP_DEV_STATS_input (col1 string, col2 string...)
STORED BY 'org.apache.hadoop.hive.dynamodb.DynamoDBStorageHandler'
TBLPROPERTIES ( "dynamodb.table.name" = "DYNAMO_TABLE_NAME",
"dynamodb.column.mapping" = "col1:col1,col2:col2...");

最佳答案

几年前我遇到过类似的问题。如果我没记错的话,问题是配置单元对写入数据库的查询中的文本长度进行了限制。如果您查看调用堆栈,您可能会发现该变量是否可配置,如果不可配置,则在何处编辑代码。

关于hadoop - Hive 外部表的最大列数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10418639/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com