gpt4 book ai didi

mysql - 如何将HDFS输出存储到MySQL表?

转载 作者:行者123 更新时间:2023-11-29 17:39:22 24 4
gpt4 key购买 nike

我使用 Pig 和 Hive 对存储在 HDFS 中的数据集进行 MapReduce 操作。现在我想传输该输出以将其存储到 MySQL 表中。

如何将输出传输到 MySQL?

最佳答案

您可以利用 Apache SqoopHDFS 导出到 MySQL

插图:

这是HDFS中的数据

# hadoop fs -ls /example_hive  
/example_hive/file1.csv


# hadoop fs -cat /example_hive/*
1,foo
2,bar
3,ack
4,irk
5,pqr

在MySQLtest数据库中创建目标表

> create table test.example_mysql(h1 int, h2 varchar(100));

使用 Sqoop 命令导出。 (根据您的环境更新参数 --connect、--username、--password 的值)

# sqoop export --connect "jdbc:mysql://localhost/test" --username "root" --password hadoop --table "example_mysql" --export-dir "hdfs:///example_hive" --input-fields-terminated-by ','

查看MySQL中的数据

> select * from test.example_mysql;
+------+------+
| h1 | h2 |
+------+------+
| 1 | foo |
| 2 | bar |
| 3 | ack |
| 4 | irk |
| 5 | pqr |
+------+------+

关于mysql - 如何将HDFS输出存储到MySQL表?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50080198/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com