gpt4 book ai didi

mysql - Scoop 选择性导出 hdfs 到 mysql

转载 作者:可可西里 更新时间:2023-11-01 16:38:59 30 4
gpt4 key购买 nike

我在 HDFS 中有一个“test”表,其中包含列(id、name、city、salary)。我想将 (name, city) 导出到 MySQL 但是当我使用 --columns 使用 SQOOP 命令时,选择的 MySQL 列不是 hdfs 中的测试表列,hdfs 中 id 列的数据被转移到 name,hdfs 的 name 列被转移到MySQL 中的城市列。
有什么方法可以从 hdfs 中选择一个特定的列并传递给它吗?

最佳答案

这里我们可以使用 --hcatalog-table tablename ,它只会从 hive 表中获取所需的列,而不是 --export-dir ,它会获取一个目录。

关于mysql - Scoop 选择性导出 hdfs 到 mysql,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45605518/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com