gpt4 book ai didi

apache-spark - 使用USING和PARTITIONED BY子句的spark hive create table的有效语法是什么?

转载 作者:行者123 更新时间:2023-12-02 22:00:37 24 4
gpt4 key购买 nike

我试图通过以下命令传递给SparkSesssion.sql(...),以orc格式创建配置单元表:

CREATE TABLE `db`.`table`(
_id string,
...
)
PARTITIONED BY (load_date string)
ROW FORMAT SERDE
'org.apache.hadoop.hive.ql.io.orc.OrcSerde'
STORED AS INPUTFORMAT
'org.apache.hadoop.hive.ql.io.orc.OrcInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat'
USING ORC

并获得像 mismatched input 'USING' expecting <EOF>这样的异常
更改以上条款的位置无济于事。

Official documentation省略了这部分,或者至少我找不到它。

正确的方法是什么?

最佳答案

配置单元DDL语句中没有USING标签:

您需要使用存储为ORC或仅使用输入和输出格式的存储

CREATE TABLE `db`.`table`(
_id string,
...
)
PARTITIONED BY (load_date string)
STORED AS ORC

关于apache-spark - 使用USING和PARTITIONED BY子句的spark hive create table的有效语法是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57695419/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com