gpt4 book ai didi

hadoop - 如何找到 Parquet 文件在生成时使用的 COMPRESSION_CODEC?

转载 作者:可可西里 更新时间:2023-11-01 15:19:26 25 4
gpt4 key购买 nike

通常在 Impala 中,我们在将数据插入底层文件为 Parquet 格式的表之前使用 COMPRESSION_CODEC。

用于设置 COMPRESSION_CODEC 的命令:

set compression_codec=snappy;
set compression_codec=gzip;

是否可以通过对Parquet文件进行任何类型的操作来找出使用的压缩编解码器的类型?

最佳答案

找到 Impala Parquet 表使用的压缩算法的一种方法是通过 parquet-tools .例如,此实用程序与 Cloudera CDH 打包在一起,否则可以从源代码轻松构建。

$ parquet-tools meta <parquet-file>
creator: impala version 2.13.0-SNAPSHOT (build 100d7da677f2c81efa6af2a5e3a2240199ae54d5)

file schema: schema
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
code: OPTIONAL BINARY R:0 D:1
description: OPTIONAL BINARY R:0 D:1
value: OPTIONAL INT32 O:INT_32 R:0 D:1

row group 1: RC:823 TS:20420
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
code: BINARY GZIP DO:4 FPO:1727 SZ:2806/10130/3.61 VC:823 ENC:RLE,PLAIN_DICTIONARY
description: BINARY GZIP DO:2884 FPO:12616 SZ:10815/32928/3.04 VC:823 ENC:RLE,PLAIN_DICTIONARY
value: INT32 GZIP DO:17462 FPO:19614 SZ:3241/4130/1.27 VC:823 ENC:RLE,PLAIN_DICTIONARY

由于通常在 Parquet(不是通过 Impala)中可以逐列设置压缩,对于每个 parquet 行组,您将看到针对每个列统计信息使用的压缩。

关于hadoop - 如何找到 Parquet 文件在生成时使用的 COMPRESSION_CODEC?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57573478/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com