gpt4 book ai didi

amazon-s3 - 子目录上的 S3 hive 外部表不起作用

转载 作者:行者123 更新时间:2023-12-02 03:21:10 32 4
gpt4 key购买 nike

我有以下 s3 目录结构。

Data/
Year=2015/
Month=01/
Day=01/
files
Day=02/
files
Month=02/
Day=01/
files
Day=02/
files
.
.
.

Year=2014/
Month=01/
Day=01/
files
Day=02/
files
Month=02/
Day=01/
files
Day=02/
files

所以我正在创建 hive 外部表如下
CREATE external TABLE trips
(
trip_id STRING,probe_id STRING,provider_id STRING,
is_moving TINYINT,is_completed BOOLEAN,start_time STRING,
start_lat DOUBLE,start_lon DOUBLE,start_lat_adj DOUBLE)
PARTITIONED BY (year INT,month INT,day INT)
STORED AS TEXTFILE
LOCATION 's3n://accesskey:secretkey@bucket/data/';

当我在这个表上运行查询时,没有任何异常返回任何数据。如果我只将相同的文件放在一个目录中并且没有分区,那么它运行良好。我也试过 bey 设置
set mapred.input.dir.recursive=true;
set hive.mapred.supports.subdirectories=true;

知道我错在哪里了吗?

最佳答案

您需要运行 ALTER TABLE trips RECOVER PARTITIONS命令。此命令将为 S3 中存在的表分区创建元数据。请参阅此处的文档:https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL#LanguageManualDDL-RecoverPartitions(MSCKREPAIRTABLE)

关于amazon-s3 - 子目录上的 S3 hive 外部表不起作用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33279083/

32 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com