gpt4 book ai didi

hadoop - 我们可以使用带有Snappy压缩的Hive表使用TEXT FILE格式吗?

转载 作者:行者123 更新时间:2023-12-02 21:06:55 24 4
gpt4 key购买 nike

我在HDFS中有一个配置单元外部表,我试图在其上方创建配置单元托管表。我正在使用文本文件格式进行快速压缩,但是我想知道它如何帮助该表。

CREATE TABLE standard_cd 
(
last_update_dttm TIMESTAMP,
last_operation_type CHAR (1) ,
source_commit_dttm TIMESTAMP,
transaction_dttm TIMESTAMP ,
transaction_type CHAR (1)
)

PARTITIONED BY (process_dt DATE)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '|'
STORED AS TEXTFILE
TBLPROPERTIES ("orc.compress" = "SNAPPY");

让我知道使用这种格式创建时是否存在任何问题。

最佳答案

因此,它们在创建时没有问题。
但特性不同:

创建并存储为TEXTFILE的表:

enter image description here

创建并存储为ORC的表:

enter image description here

尽管加载某些数据后,两个表的大小相同。

还检查有关ORC file format的文档

关于hadoop - 我们可以使用带有Snappy压缩的Hive表使用TEXT FILE格式吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41583807/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com