gpt4 book ai didi

hadoop - 如何将外部创建的 ORC 文件加载到存储为 ORC 的 HIVE 表中?

转载 作者:可可西里 更新时间:2023-11-01 15:29:38 27 4
gpt4 key购买 nike

我创建了一个存储为 ORC 的托管配置单元表,当加载 .txt 文件时它工作正常,但是我无法将 ORC 文件加载到该表中。与分隔符有什么关系吗?还是我错过了什么?

最佳答案

下面的代码对我有用,同时将 HDFS 中存在的 ORC 文件加载到配置单元表中。

  1. 在 hive 中创建一个表。

     create table MyDB.TEST (
    Col1 String,
    Col2 String,
    Col3 String,
    Col4 String)
    STORED AS INPUTFORMAT
    'org.apache.hadoop.hive.ql.io.orc.OrcInputFormat'
    OUTPUTFORMAT
    'org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat';
  2. 将数据加载到表中。

     LOAD DATA INPATH '/hdfs/dir/folder/to/orc/files/' INTO TABLE MyDB.TEST;

关于hadoop - 如何将外部创建的 ORC 文件加载到存储为 ORC 的 HIVE 表中?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36621536/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com