gpt4 book ai didi

hdfs - 使用直接导入HDFS时Sqoop找不到mysqldump

转载 作者:行者123 更新时间:2023-11-29 23:21:08 25 4
gpt4 key购买 nike

我是整个 Hadoop 堆栈的新手,所以请耐心等待。

我正在尝试使用 Sqoop 1.4.5 将整个表从 MySql 导入 HDFS,我相信我已经正确设置了所有内容,但随后 Sqoop 告诉我:

Error: java.io.IOException: Cannot run program "mysqldump": error=2, No such file or directory

我可以在没有 --direct 命令的情况下导入,但由于某种原因它找不到 mysqldump。

需要帮助,请!

PS:我用谷歌搜索了一整天,没有任何东西可以告诉我正确的路径。

PS2:我在 Mac 上使用单节点发行版。

谢谢!

最佳答案

mysqldump 实用程序与“直接连接器”一起使用。找不到它的原因是,当 Sqoop 运行 MapReduce 作业时,mysqldump 二进制文件不在您的系统上,或者不是 PATH 环境变量的一部分。有帮助的事情:

  1. 您似乎运行的是 mac,因此请尝试使用 homebrew 安装 MySQL :brew安装mysql
  2. 尝试使用 which mysqldump 来查找 mysqldump 实用程序。如果您可以通过这种方式找到它,那么您可能有一个适合您的用户的特殊路径。我尝试通过 ln -s $(which mysqldump)/usr/bin/mysqldump 在/usr/bin 中创建软链接(soft link)。否则,卸载 MySQL 并通过自制程序安装它。

关于hdfs - 使用直接导入HDFS时Sqoop找不到mysqldump,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27282535/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com