gpt4 book ai didi

oracle - Sqoop导入问题

转载 作者:行者123 更新时间:2023-12-02 21:09:08 25 4
gpt4 key购买 nike

我正在将表格导入到 hive 中。所以我在hadoop上创建了一个外部表,并使用sqoop从oracle导入了数据。但是问题是当我查询数据时,所有列都在 hive 中变成一列。

表:

CREATE EXTERNAL TABLE `default.dba_cdr_head`(
`BI_FILE_NAME` varchar(50),
`BI_FILE_ID` int,
`UPDDATE` TIMESTAMP)
LOCATION
'hdfs:/tmp/dba_cdr_head';

Sqoop:
sqoop import \
--connect jdbc:oracle:thin:@172.16.XX.XX:15xx:CALLS \
--username username\
--password password \
--table CALLS.DBM_CDR_HEAD \
--columns "BI_FILE_NAME, BI_FILE_ID, UPDDATE" \
--target-dir /tmp/dba_cdr_head \
--hive-table default.dba_cdr_head

数据如下所示:
hive> select * from dba_cdr_head limit 5;
OK
CFT_SEP0801_20120724042610_20120724043808M,231893, NULL NULL
CFT_SEP1002_20120724051341_20120724052057M,232467, NULL NULL
CFT_SEP1002_20120724052057_20120724052817M,232613, NULL NULL
CFT_SEP0701_20120724054201_20120724055154M,232904, NULL NULL
CFT_SEP0601_20120724054812_20120724055853M,233042, NULL NULL
Time taken: 3.693 seconds, Fetched: 5 row(s)

最佳答案

我已经更改了表创建选项(行格式由','终止的字段分隔)并解决了。

CREATE EXTERNAL TABLE `default.dba_cdr_head`(
`BI_FILE_NAME` varchar(50),
`BI_FILE_ID` int,
`UPDDATE` TIMESTAMP)
ROW FORMAT DELIMITED FIELDS TERMINATED BY ','
LOCATION
'hdfs:/tmp/dba_cdr_head';

关于oracle - Sqoop导入问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40885409/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com