Sqoop

Sqoop

Sqoop 是 Apache 开源工具,专用于在 Hadoop 生态系统(HDFS/Hive/HBase) 和 关系型数据库(如 MySQL、Oracle、PostgreSQL) 之间高效传输数据。即sql-to-hadoop。

原理

  • JDBC 连接:通过 JDBC 驱动与数据库交互。
  • MapReduce 并行化
    • Import:将表数据拆分为多个分片(split),每个 Map 任务处理一个分片,结果写入 HDFS。
    • Export:将 HDFS 文件拆分为多个 Map 任务,并行写入数据库。
  • 事务管理:导出时默认使用多事务提交,非原子操作(可通过 --staging-table 参数优化)。

功能

  • 导入(Import):将关系型数据库数据迁移到 HDFS、Hive 或 HBase。
  • 导出(Export):将 HDFS 或 Hive 数据写回关系型数据库。
  • 批量操作:基于 MapReduce 实现并行化,高效处理大数据量。

基本操作

1.  连接数据库

-connect jdbc:mysql://192.168.137.128:3306/ –username root –password 123456

[root@hadoop100 sqoop-1.4.7]# bin/sqoop list-databases --connect jdbc:mysql://192.168.137.128:3306/ --username root --password 123456

2. 查询数据库、数据表

[root@hadoop100 sqoop-1.4.7]# bin/sqoop list-databases --connect jdbc:mysql://192.168.137.128:3306/ --username root --password 123456
[root@hadoop100 sqoop-1.4.7]# bin/sqoop list-tables --connect jdbc:mysql://192.168.137.128:3306/usr --username root --password 123456

3. Mysql导入HDFS

需要表中有主键

添加主键:alter table TABLE_NAME add id int not null primary key Auto_increment

sqoop import \
--connect jdbc:mysql://hadoop100:3306/usr \
--username root \
--password 123456 \
--table xg \
--target-dir /hdfs_path \
--fields-terminated-by '\t'

4. HDFS导入Mysql

sqoop export \
--connect jdbc:mysql://hadoop100/usr \
--username root \
--password 123456 \
--table xg \
--export-dir /hdfs_path
--input-fields-terminated-by "\t"

页面链接:http://www.datazzh.top/archives/1689/2025/02/10/
上一篇
下一篇