gpt4 book ai didi

oracle - Sqoop 导入 Oracle 到 HDFS 3 条记录就可以了。全表失败

转载 作者:可可西里 更新时间:2023-11-01 16:49:25 26 4
gpt4 key购买 nike


我通过 Sqoop 将数据从 Oracle 导入到 HDFS,其中 3 条记录可以使用以下命令:

./sqoop-import --connect <oracle-jdbc-string> --username <my-user-name> --password <my-password> --table SYS_GROUP --where "Sys_Group_ID < 4"

作业成功完成,有 3 条记录。

但是当我想导入全表时,却失败了。命令:

./sqoop-import --connect jdbc:oracle:thin:@10.58.71.164:1521:dbmss01 --username <my-user-name> --password <my-password> --table SYS_GROUP --fetch-size 100

日志:

15/12/04 02:32:19 INFO mapreduce.Job: Job job_1448967962138_0005 failed with state FAILED due to: Task failed task_1448967962138_0005_m_000003<br><br>
Job failed as tasks failed. failedMaps:1 failedReduces:0
15/12/04 02:32:19 INFO mapreduce.ImportJobBase: Transferred 378.3994 KB in 96.9962 seconds (3.9012 KB/sec)<br><br>
15/12/04 02:32:19 INFO mapreduce.ImportJobBase: Retrieved 1474 records.<br><br>
15/12/04 02:32:19 ERROR tool.ImportTool: Error during import: Import job failed!

最佳答案

尝试通过在末尾附加 --m 5 来增加映射器的数量

关于oracle - Sqoop 导入 Oracle 到 HDFS 3 条记录就可以了。全表失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34080298/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com