gpt4 book ai didi

hadoop - 通过JAVA API进行Sqoop

转载 作者:行者123 更新时间:2023-12-02 22:03:17 24 4
gpt4 key购买 nike

我们正在尝试将数据从mysql压缩到HDFS。当我们运行代码时,数据将存储在本地文件系统中。我们希望数据在HDFS中。有人可以用以下代码建议我们吗?

    SqoopOptions options = new SqoopOptions();
options.setConnectString("jdbc:mysql:hostname/db_name");
options.setUsername("user");
options.setPassword("pass");
options.setTableName("table");
options.setDirectMode(true);
options.setNumMappers(4);
options.setDriverClassName("com.mysql.jdbc.Driver");
options.setSqlQuery("select * from table");
options.setWhereClause("value > 15.0");
options.setTargetDir("output");
options.doHiveImport();
System.out.println();
int ret=new ImportTool().run(options);
System.out.println(ret);

最佳答案

我在hdfs中运行了相同的程序,并得到了输出:)

关于hadoop - 通过JAVA API进行Sqoop,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46448279/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com