Sqoop
本文最后更新于 135 天前,其中的信息可能已经有所发展或是发生改变。

Sqoop

Sqoop 是 Apache 开源工具,专用于在 Hadoop 生态系统(HDFS/Hive/HBase) 和 关系型数据库(如 MySQL、Oracle、PostgreSQL) 之间高效传输数据。即sql-to-hadoop。

原理

  • JDBC 连接:通过 JDBC 驱动与数据库交互。
  • MapReduce 并行化
    • Import:将表数据拆分为多个分片(split),每个 Map 任务处理一个分片,结果写入 HDFS。
    • Export:将 HDFS 文件拆分为多个 Map 任务,并行写入数据库。
  • 事务管理:导出时默认使用多事务提交,非原子操作(可通过 --staging-table 参数优化)。

功能

  • 导入(Import):将关系型数据库数据迁移到 HDFS、Hive 或 HBase。
  • 导出(Export):将 HDFS 或 Hive 数据写回关系型数据库。
  • 批量操作:基于 MapReduce 实现并行化,高效处理大数据量。

基本操作

1.  连接数据库

-connect jdbc:mysql://192.168.137.128:3306/ –username root –password 123456

[root@hadoop100 sqoop-1.4.7]# bin/sqoop list-databases --connect jdbc:mysql://192.168.137.128:3306/ --username root --password 123456

2. 查询数据库、数据表

[root@hadoop100 sqoop-1.4.7]# bin/sqoop list-databases --connect jdbc:mysql://192.168.137.128:3306/ --username root --password 123456
[root@hadoop100 sqoop-1.4.7]# bin/sqoop list-tables --connect jdbc:mysql://192.168.137.128:3306/usr --username root --password 123456

3. Mysql导入HDFS

需要表中有主键

添加主键:alter table TABLE_NAME add id int not null primary key Auto_increment

sqoop import \
--connect jdbc:mysql://hadoop100:3306/usr \
--username root \
--password 123456 \
--table xg \
--target-dir /hdfs_path \
--fields-terminated-by '\t'

4. HDFS导入Mysql

sqoop export \
--connect jdbc:mysql://hadoop100/usr \
--username root \
--password 123456 \
--table xg \
--export-dir /hdfs_path
--input-fields-terminated-by "\t"

页面链接:https://www.datazzh.top/archives/1689/2025/02/10/
暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇