gpt4 book ai didi

hadoop - "insert into"正在覆盖数据

转载 作者:可可西里 更新时间:2023-11-01 15:21:51 26 4
gpt4 key购买 nike

互联网无济于事,我的知识有限。

我有一个具有以下架构的表:

CREATE EXTERNAL TABLE `db.temp_entries`(
`id` bigint,
`random_id` string)
ROW FORMAT SERDE
'org.apache.hadoop.hive.ql.io.orc.OrcSerde'
STORED AS INPUTFORMAT
'org.apache.hadoop.hive.ql.io.orc.OrcInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat'
LOCATION
'hdfs://xxxx/xxxxx/xxx/temp_entries'
TBLPROPERTIES (
'COLUMN_STATS_ACCURATE'='{\"BASIC_STATS\":\"true\"}',
'numFiles'='1',
'numRows'='1',
'orc.compress'='ZLIB',
'rawDataSize'='115',
'totalSize'='381',
'transient_lastDdlTime'='1532514067')

这里是插入查询 m 使用:

查询 1

insert into `db.temp_entries`
values (1, 'P1804010001249002159939')

查询 2

insert into `db.temp_entries`
values (2, 'P1804010001495232931398'),
(3, 'P1804010002374640308088'),
(4, 'P1804010009196709498065')

我通过 python 脚本生成它,并通过 python pyhive 包执行 insert -> from pyhive import hive

虽然我没有使用insert overwriteQuery#1 的数据正在被Query#2 覆盖。我的方法有问题吗?

最佳答案

删除表名周围的反引号``。

查询 1

insert into db.temp_entries
values (1, 'P1804010001249002159939')

查询 2

insert into db.temp_entries
values (2, 'P1804010001495232931398'),
(3, 'P1804010002374640308088'),
(4, 'P1804010009196709498065')

关于hadoop - "insert into"正在覆盖数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51517272/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com