gpt4 book ai didi

mysql - Apache Sqoop : scoop-import giving Undefined error.

转载 作者:行者123 更新时间:2023-11-29 18:49:44 32 4
gpt4 key购买 nike

我正在使用 Apache Hadoop 和 Apache Sqoop。我正在尝试将 mysql 表导入到 hdfs 中。

这是我正在执行的命令:

sqoop-import --connect jdbc:mysql://localhost/billing_engine -username root -password root > --table cpDetail;

我已经设置了 Sqoop home 环境变量,如下所示:

export SQOOP_HOME=/Users/bng/Documents/sqoop-1.4.6.bin__hadoop-2.0.4-alpha
export PATH=$PATH:$SQOOP_HOME/bin

但是执行上面的命令会出现以下错误:

readlink: illegal option -- f
usage: readlink [-n] [file ...]
usage: dirname path
/Users/bng/Documents/sqoop-1.4.6.bin__hadoop-2.0.4-alpha/bin/sqoop-import: line 26: /Users/bng/sqoop: Undefined error: 0

这是显示我的名称节点的屏幕截图: enter image description here

请大家指教,我哪里错了?

最佳答案

这是我需要使用的正确命令:

sqoop import --connect jdbc:mysql://localhost/billing_engine?useSSL=false --username bil --password bil --table cpdetail -m 1 --target-dir /sqoopFromMysql

命令详情如下;

  1. Sqoop import:告诉使用sqoop的导入命令的命令
  2. --connect :表示要使用的连接
  3. jdbc:mysql://localhost/billing_engine?useSSL=false :使用 jdbc 连接到 mysql。数据库的主机是 localhost,数据库名称是 billing_engine。 useSSL=false 指定我们不通过 SSL 层进行连接。
  4. --username bil --password bil :指定数据库的用户名和密码。
  5. --table cpdetail :指定特定表
  6. -m 1:指定要使用的 map
  7. --target-dir/sqoopFromMysql :指定HDFS中的目标目录,数据将导入到该目录。

关于mysql - Apache Sqoop : scoop-import giving Undefined error.,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44410339/

32 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com