gpt4 book ai didi

sql - 使用Impala在INSERT INTO(Parquet)TABLE期间对分区键进行排序

转载 作者:行者123 更新时间:2023-12-02 20:28:11 24 4
gpt4 key购买 nike

我有一个ETL作业,我想将.csv文件中的数据附加到Impala表中。目前,我通过使用新数据(.csv.lzo格式)创建一个临时外部.csv表来完成此操作,然后将其插入到主表中。

我使用的查询如下所示:

INSERT INTO TABLE main_table
PARTITION(yr, mth)
SELECT
*,
CAST(extract(ts, "year") AS SMALLINT) AS yr,
CAST(extract(ts, "month") AS TINYINT) AS mth
FROM csv_table
main_table的定义如下(几列被截断):
CREATE TABLE IF NOT EXISTS main_table (
tid INT,
s1 VARCHAR,
s2 VARCHAR,
status TINYINT,
ts TIMESTAMP,
n1 DOUBLE,
n2 DOUBLE,
p DECIMAL(3,2),
mins SMALLINT,
temp DOUBLE
)
PARTITIONED BY (yr SMALLINT, mth TINYINT)
STORED AS PARQUET

数据大约为几GB(5500万行,约30列),运行需要一个多小时。我很好奇为什么会这样(因为对于本质上来说是一个追加操作的东西来说这似乎很长),并在查询计划中遇到了这个问题:
F01:PLAN FRAGMENT [HASH(CAST(extract(ts, 'year') AS SMALLINT),CAST(extract(ts, 'month') AS TINYINT))] hosts=2 instances=2
| Per-Host Resources: mem-estimate=1.01GB mem-reservation=12.00MB thread-reservation=1
WRITE TO HDFS [default.main_table, OVERWRITE=false, PARTITION-KEYS=(CAST(extract(ts, 'year') AS SMALLINT),CAST(extract(ts, 'month') AS TINYINT))]
| partitions=unavailable
| mem-estimate=1.00GB mem-reservation=0B thread-reservation=0
|
02:SORT
| order by: CAST(extract(ts, 'year') AS SMALLINT) ASC NULLS LAST, CAST(extract(ts, 'month') AS TINYINT) ASC NULLS LAST
| materialized: CAST(extract(ts, 'year') AS SMALLINT), CAST(extract(ts, 'month') AS TINYINT)
| mem-estimate=12.00MB mem-reservation=12.00MB spill-buffer=2.00MB thread-reservation=0
| tuple-ids=1 row-size=1.29KB cardinality=unavailable
| in pipelines: 02(GETNEXT), 00(OPEN)
|
01:EXCHANGE [HASH(CAST(extract(ts, 'year') AS SMALLINT),CAST(extract(ts, 'month') AS TINYINT))]
| mem-estimate=2.57MB mem-reservation=0B thread-reservation=0
| tuple-ids=0 row-size=1.28KB cardinality=unavailable
| in pipelines: 00(GETNEXT)
|

显然,大多数时间和资源都花在了分区键的排序上:
Operator       #Hosts  Avg Time  Max Time   #Rows  Est. #Rows  Peak Mem  Est. Peak Mem  Detail                                                                                          
----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
02:SORT 2 17m16s 30m50s 55.05M -1 25.60 GB 12.00 MB
01:EXCHANGE 2 9s493ms 12s822ms 55.05M -1 26.98 MB 2.90 MB HASH(CAST(extract(ts, 'year') AS SMALLINT),CAST(extract(ts, 'month') AS TINYINT))
00:SCAN HDFS 2 51s958ms 1m10s 55.05M -1 76.06 MB 704.00 MB default.csv_table

为什么Impala必须这样做?是否有任何方法可以对表进行分区而不必对分区键进行排序,或者在我的情况下可以加快表的速度,我要附加的整个.csv文件只有一个或两个分区键?

编辑:事实证明,这很可能是因为我正在使用Parquet文件格式。但我的问题仍然适用:当我知道实际上几乎不需要排序时,是否可以加快排序速度?

相比之下,像 SELECT COUNT(*) FROM csv_table WHERE extract(ts, "year") = 2018 AND extract(ts, "month") = 1这样的操作大约需要2-3分钟,而 ORDER BY(在插入过程中完成)则需要一个多小时。此示例仅具有键(2018,1)和(2018,2)。

最佳答案

Impala会进行排序,因为您使用了动态分区。特别是对于具有oncomputed stats的表,impala在动态分区方面不太好。我建议您在动态分区的情况下使用配置单元。如果您不打算使用 hive ,我的建议是:

  • 在每次插入语句之前,都要在csv表上计算统计信息。
  • 如果第一步无法正常工作,请对一些可能的分区使用静态分区,然后运行超出可能范围的动态分区。例如;如果有年份和月份的一种选择:

  • INSERT 
    INTO TABLE main_table
    PARTITION(yr=2019, mth=2)
    SELECT
    *
    FROM csv_table where CAST(extract(ts, "year") AS SMALLINT)=2019 and CAST(extract(ts, "month") AS TINYINT)=2;
    INSERT INTO TABLE main_table
    PARTITION(yr, mth)
    SELECT
    *,
    CAST(extract(ts, "year") AS SMALLINT),
    CAST(extract(ts, "month") AS TINYINT)
    FROM csv_table where CAST(extract(ts, "year") AS SMALLINT)!=2019 and CAST(extract(ts, "month") AS TINYINT)!=2;


    这些语句缩小了动态分区将要处理的集合。并有望减少花费的总时间。

    关于sql - 使用Impala在INSERT INTO(Parquet)TABLE期间对分区键进行排序,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54783262/

    24 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com