gpt4 book ai didi

hadoop - 无法将数据加载到配置单元表中

转载 作者:行者123 更新时间:2023-12-02 21:01:38 24 4
gpt4 key购买 nike

将数据加载到Hive表中时,出现以下错误:

"Loading data to table test.temp1
Moved: 'hdfs://mdckd.kk.hyy.com:8020/apps/hive/warehouse/test.db/temp1/000000_0' to trash at: hdfs://mdckd.kk.hyy.com:8020/user/lams/.Trash/Current
Table test.temp1 stats: [numFiles=1014, numRows=0, totalSize=50113, rawDataSize=0]"

看来我的数据要丢了,但我不明白为什么。请帮忙。以下是我的表定义和我正在使用的查询:
      CREATE TABLE `temp1`(
`col1` int,
`col2` int,
`col3` int,
`col4` int,
`col5` int,
`col6` int,
`col7` int,
`col8` int,
`col9` int,
`col10` int)
ROW FORMAT SERDE
'org.apache.hadoop.hive.ql.io.orc.OrcSerde'
STORED AS INPUTFORMAT
'org.apache.hadoop.hive.ql.io.orc.OrcInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat'
LOCATION
'hdfs://mdckd.kk.hyy.com:8020/apps/hive/warehouse/test.db/temp1'
TBLPROPERTIES (
'COLUMN_STATS_ACCURATE'='true',
'numFiles'='548',
'numRows'='547',
'rawDataSize'='131280',
'totalSize'='483505',
'transient_lastDdlTime'='1490261019')

INSERT OVERWRITE TABLE temp1
select * from
(
select * from tab1
union all
select * from tab2
union all
select * from tab3
union all
select * from tab4
union all
select * from tab5
)p;

最佳答案

表中已经存在的数据将被丢弃,因为OVERWRITE正是这个意思。
如果要追加而不是截断,请使用INSERT INTO TABLE(或较新版本中的INSERT INTO)。

P.s.

您不需要外部查询。

insert into table temp1

select * from tab1
union all select * from tab2
union all select * from tab3
union all select * from tab4
union all select * from tab5
;

关于hadoop - 无法将数据加载到配置单元表中,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43110874/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com