网站首页 > 技术文章 正文
上篇文章 Mysql 到 Hbase 数据如何实时同步,强大的 Streamsets 告诉你 我们说到了如何使用 Streamsets 来进行 mysql 到 hbase 的数据实时同步(迁移)。使用 Streamsets 的优点是部署简单,配置灵活,无需编写代码。
认真阅读上篇文章的朋友会发现,Streamsets 能够实时跟踪数据的变化,将数据同步更新到 hbase 中。但是对于历史数据(并且数据不改动的记录)的同步,文章中并没有提及到。当然,并不是因为 Streamsets 不能从事这些事情,而是笔者暂时没有使用它来进行历史数据的迁移。因此,对于历史数据的迁移,笔者今天来介绍另外一个工具 - Sqoop。相对于 Streamsets,大家应该更加熟悉 Sqoop。
如果你工作中需要将关系型数据库(Mysql、Oracle等等)中的数据同步到 hadoop(HDFS、hive、hbase) 中,或者将 hadoop 中的数据同步到关系型数据库中,那这篇文章应该能帮助到你。
注:Streamsets 以及 Sqoop 都属于数据同步、迁移方面比较流行的解决方案,类似的工具还有很多,比如 Datax、kettle 等等,从事数据方面工作的朋友可以去多多了解,找到适合自己工作场景的方案。
认识一下
Sqoop 的命名,仔细一看是不是有点像 sql 和 hadoop 两个词语的拼接产物。其实从它的命名来看也就很明显:它是用来将关系型数据库和 Hadoop 中的数据进行相互转移的工具,并且这种转换是双向的。看下图就能一目了然:
从关系型数据库到 hadoop 我们称之为 import,从 hadoop 到关系型数据库我们称之为 export。文章后面大家就会看到 "import"、"export" 对应命令的两个模式。
安装
对于 Sqoop 的安装,这里就不做介绍了,网上有很多的教程,因为是一个工具,所以安装起来也是很方便简单。需要注意的是 Sqoop 有两个大的版本:Sqoop1、Sqoop2。
访问 Sqoop 官网 ,官网上的 1.4.x 的为 Sqoop1, 1.99.* 为 Sqoop2。
关于 Sqoop1 与 Sqoop2 的区别,通俗来讲就是:
- sqoop1 只是一个客户端工具,Sqoop2 加入了 Server 来集中化管理连接器
- Sqoop1 通过命令行来工作,工作方式单一,Sqoop2 则有更多的方式来工作,比如 REST api接口、Web 页
- Sqoop2 加入权限安全机制
对于笔者来说,Sqoop 就是一个同步工具,命令行足够满足工作需求,并且大部分数据同步都是在同一个局域网内部(也就没有数据安全之类问题),所以选择的是 Sqoop1(具体版本是 1.4.6)
框架原理
通过上图可以看出, Sqoop Client 通过 shell 命令来使用 sqoop, sqoop 中的 Task Translater 将命令转换成 hadoop 中的 mapreduce 任务进行具体的数据操作。可以这样理解,例如 Mysql 中某个表数据同步到 hadoop 这个场景,Sqoop 会将表记录分成多份,每份分到各自 mapper 中去进行落地 hadoop(保证同步效率)。大家可能发现,其实这里的 mapreduce 没有 reduce,只有 map。
实操
了解了 Sqoop 是什么,能做什么以及大概的框架原理,接下来我们直接使用 Sqoop 命令来感受一下使用 Sqoop 是如何简单及有效。本文案例中的关系型数据库使用的是 mysql,oracle 以及其他使用 jdbc 连接的关系型数据库操作类似,差别不大。
运行 sqoop help 可以看到 Sqoop 提供了哪些操作,如下图
这些操作其实都会一一对应到 sqoop bin 目录下的一个个可运行脚本文件,如果想了解细节,可以打开这些脚本进行查看
工作中一般常用的几个操作或者命令如下:
- list-databases : 查看有哪些数据库
- list-tables : 查看数据库中有哪些表
- import : 关系型数据库到 hadoop 数据同步
- export : hadoop 到关系型数据库数据同步
- version :查看 Sqoop 版本
列出数据库
sqoop list-databases --connect jdbc:mysql://192.168.1.123:3306/ --username root --password 12345678
列出表
sqoop list-databases --connect jdbc:mysql://192.168.1.123:3306/databasename --username root --password 12345678
mysql 到 hdfs
sqoop import --connect jdbc:mysql://192.168.1.123:3306/databasename --username root --password 12345678 --table tablename --target-dir /hadoopDir/ --fields-terminalted-by '\t' -m 1 --check-column id --last-value num --incremental append
--connect : 数据库的 JDBC URL,后面的 databasename 想要连接的数据库名称
--table : 数据库表
--username : 数据库用户名
--password : 数据库密码
--target-dir : HDFS 目标目录
--fields-terminated-by :数据导入后每个字段之间的分隔符
-m :mapper 的并发数量
--check-column : 指定增量导入时的参考列,这里是 id (主键)
--last-value : 上一次导入的最后一个值
--incremental append :导入方式为增量
注意:工作中需要增量同步的场景下,我们就可以使用 --incremental append 以及 --last-value。比如这里我们使用 id 来作为参考列,如果上次同步到了 1000, 这次我们想只同步新的数据,就可以带上参数 --last-value 1000。
mysql 到 hive
使用 imort --create-hive-table
--create-hive-table -m 1 --connect jdbc:mysql://192.168.1.123:3306/databasename --username root --password 12345678 --table tablename --hive-import --hive-database databasename_hive --hive-overwrite --hive-table tablename_hive
mysql 到 hbase
hbase shell create_namespace 'database_tmp' create 'database_tmp:table_tmp','info' sqoop import --connect jdbc:mysql://192.168.1.123:3306/databasename --username 'root' --password '12345678' --table 'tablename' --hbase-table 'database_tmp:table_tmp' --hbase-row-key 'id' --column-family 'info'
首先进入 hbase shell,创建好 namespace 以及 数据库。databasetmp 位命名空间,tabletmp 为数据库。
hdfs 到 mysql
sqoop export --connect jdbc:mysql://192.168.1.123:3306/databasename --username root --password '12345678' --table tablename --m 1 --export-dir /hadoopDir/ --input-fields-terminated-by '\t' --columns="column1,column2"
--columns : 制定导出哪些列
hive 到 mysql
了解 hive 的朋友都知道,hive 的真实数据其实就是 hdfs 磁盘上的数据,所以 hive 到 mysql 的同步操作与 hdfs 到 mysql 的操作类似
hbase 到 mysql
目前 Sqoop 没有提供直接将 hbase 数据同步到 mysql 的操作
总结: 在 sql to hadoop 和 hadoop to sql 这种数据同步场景,Sqoop 是一个很有效且灵活的工具,大家不妨使用它来从事数据方面的工作。
猜你喜欢
- 2024-11-01 Canal数据同步实战 数据同步工具有哪些
- 2024-11-01 支持断点续传的数据库同步服务 断点续传需要服务器支持吗
- 2024-11-01 Oracle OGG 单向DDL同步 oracle ogg双向同步
- 2024-11-01 数据同步组件(Canal)在珍爱网的应用与实践
- 2024-11-01 MySQL 到 Hazelcast Cloud 实时数据同步实操分享
- 2024-11-01 用Spark实现高并发数据同步 spark并行
- 2024-11-01 PostgreSQL中使用FDW+MV玩转数据同步
- 2024-11-01 mysql:Otter跨机房数据同步(单向)
- 2024-11-01 「数据库」 如何解决异地机房的数据同步问题?
- 2024-11-01 阿里数据同步工具Otter和Canal简介
你 发表评论:
欢迎- 633℃几个Oracle空值处理函数 oracle处理null值的函数
- 626℃Oracle分析函数之Lag和Lead()使用
- 614℃0497-如何将Kerberos的CDH6.1从Oracle JDK 1.8迁移至OpenJDK 1.8
- 608℃Oracle数据库的单、多行函数 oracle执行多个sql语句
- 606℃Oracle 12c PDB迁移(一) oracle迁移到oceanbase
- 598℃【数据统计分析】详解Oracle分组函数之CUBE
- 588℃最佳实践 | 提效 47 倍,制造业生产 Oracle 迁移替换
- 573℃Oracle有哪些常见的函数? oracle中常用的函数
- 最近发表
-
- oracle 19cOCM认证有哪些内容(oracle认证ocm月薪)
- Oracle新出AI课程认证,转型要持续学习
- oracle 表的查询join顺序,可能会影响查询效率
- Oracle DatabaseAmazon Web Services正式可用,Oracle数据库上云更容易了
- Oracle 19.28 RU 升级最佳实践指南
- 汉得信息:发布EBS系统安装启用JWS的高效解决方案
- 如何主导设计一个亿级高并发系统架构-数据存储架构(三)
- Java 后端开发必看!工厂设计模式轻松拿捏
- ORA-00600 「25027」 「x」报错(抱错孩子电视剧 爸爸是武术 另一个爸爸是画家)
- 新项目终于用上了jdk24(jdk新建项目)
- 标签列表
-
- 前端设计模式 (75)
- 前端性能优化 (51)
- 前端模板 (66)
- 前端跨域 (52)
- 前端缓存 (63)
- 前端aes加密 (58)
- 前端脚手架 (56)
- 前端md5加密 (54)
- 前端路由 (61)
- 前端数组 (73)
- 前端js面试题 (50)
- 前端定时器 (59)
- 前端获取当前时间 (50)
- Oracle RAC (76)
- oracle恢复 (77)
- oracle 删除表 (52)
- oracle 用户名 (80)
- oracle 工具 (55)
- oracle 内存 (55)
- oracle 导出表 (62)
- oracle约束 (54)
- oracle 中文 (51)
- oracle链接 (54)
- oracle的函数 (58)
- 前端调试 (52)
本文暂时没有评论,来添加一个吧(●'◡'●)