gpt4 book ai didi

mysql - 如何将mysql表转移到hive?

转载 作者:可可西里 更新时间:2023-11-01 06:45:21 25 4
gpt4 key购买 nike

我有一个大型 mysql 表,我想将其传输到 Hadoop/Hive 表。是否有标准命令或技术可以将一个简单(但很大)的表从 Mysql 传输到 Hive?该表主要存储分析数据。

最佳答案

  1. 首先下载mysql-connector-java-5.0.8,并将jar放到Sqoop的lib和bin文件夹中

  2. 在 Hive 中创建表定义,像在 mysql 中一样使用准确的字段名称和类型

    sqoop import --verbose --fields-terminated-by ',' --connect jdbc:mysql://localhost/test --table employee --hive-import --warehouse-dir/user/hive/warehouse --fields-terminated-by ',' --split-by id --hive-table employee

测试 - 数据库名称

员工 - 表名(出现在测试中)

/user/hive/warehouse - HDFS 中需要导入数据的目录

--split-by id - id可以是'employee'表的主键

--hive-table employee - 其定义存在于 Hive 中的员工表

Sqoop User Guide (学习Sqoop的最佳指南之一)

关于mysql - 如何将mysql表转移到hive?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/4632514/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com