gpt4 book ai didi

hadoop - 如何在 Hive 中使用使用 Apache Drill 创建的 Parquet 文件

转载 作者:可可西里 更新时间:2023-11-01 16:40:33 24 4
gpt4 key购买 nike

Apache Drill 有一个很好的功能,可以从许多传入的数据集中制作 parquet 文件,但似乎没有很多关于以后如何使用这些 parquet 文件的信息——特别是在 Hive 中。

Hive 有没有办法利用那些“1_0_0.parquet”等文件?也许创建一个表并从 parquet 文件加载数据,或者创建一个表并以某种方式将这些 parquet 文件放入 hdfs 以便 Hive 读取它?

最佳答案

我遇到过这个问题,如果您使用的是 Cloudera 发行版,则可以使用 impala 创建表(Impala 和 Hive 共享 metastore),它允许从 parquet 文件创建表。不幸的是 Hive 不允许这样做

CREATE EXTERNAL TABLE table_from_fileLIKE PARQUET     '/user/etl/destination/datafile1.parquet'
STORED AS PARQUET
LOCATION '/user/test/destination';

关于hadoop - 如何在 Hive 中使用使用 Apache Drill 创建的 Parquet 文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41626865/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com