网站首页 > 技术文章 正文
最近的项目中有用到Flink Oracle CDC实时到监听数据库变化,将变化的数据sink到Kafka。Oracle CDC依赖Debezium组件解析Redo Log与Archive Log,Debezium 通过Oracle 的Logminer解析Log。在我们生产环境遇到
运行一段时间后,再也查询不到数据,直到报miss log file异常(线上环境cron job 将一小时前的archvied log压缩生成gzip文件),Flink job运行失败。
日志量比较大的时候,延迟非常大,每小时archived log size超过60G时延迟去到小时级别。
Canal binlog, debezium
Oracle: log, redolog, archive log
Flink CDC LogMiner流程
目前Flink Oracle CDC与Confluent Oracle CDC Kafak Connector都主要是通过Oracle LogMiner 解析 Redo Log与 Archived Log的方式同步数据,其主要流程如下:
- Start LogMiner
begin
DBMS_LOGMNR.START_LOGMNR(STARTSCN => scn, ENDSCN => end scn,
OPTIONS => DBMS_LOGMNR.DICT_FROM_ONLINE_CATALOG + DBMS_LOGMNR.CONTINUOUS_MINE +
DBMS_LOGMNR.SKIP_CORRUPTION);
end;
Start LogMiner,添加scn 对应的日志文件:
参数说明:
start scn:scn = start scn + 1, LogMiner 根据scn定位对应的日志文件,日志文件分为redo log与archived log,每个日志文件对应数据一条记录,其中 first_change#(这个日志文件最小的scn 值),next_change# (下一个日志文件的开始scn值)。[first_change#,next_change#)前闭后开。
下一个日志文件的 first_change#与上一个的日志文件的next_change# 值相等。
LogMiner 根据scn处在[first_change#,next_change#)区间定位到日志文件(redo
log或者archvied log文件)。
日志文件包含很多block。每个block会有对应的start scn索引信息,方便我们根据scn 定位要解析的日志块,因此LogMiner就可以只解析少量的日志块,而不是整个日志文件(这块非常类似于HBase基于rowid查询数据逻辑)。
end scn: LogMiner解析到end scn定位等日志块。
CONTINUOUS_MINE: 自动添加对应的日志文件到待解析列表
Redo LOG:
select *
from v$log
where first_change# <= scn and next_change# > scn;
Archvied LOG:
select *
from v$archived_log A
where first_change# <= scn and next_change# > scn
AND A.ARCHIVED = 'YES' AND A.STATUS = 'A' ;
- 查询V$LOGMNR_CONTENTS触发LogMiner解析
SELECT SCN,
SQL_REDO,
OPERATION_CODE,
TIMESTAMP,
XID,
CSF,
TABLE_NAME,
SEG_OWNER,
OPERATION,
USERNAME,
ROW_ID,
ROLLBACK,
RS_ID
FROM V$LOGMNR_CONTENTS
WHERE SCN > start scn
AND SCN <= end scn
AND ((OPERATION_CODE IN (6, 7, 36) OR
(OPERATION_CODE = 5 AND USERNAME in ('RMSPRD') AND INFO NOT LIKE 'INTERNAL DDL%' AND
SEG_OWNER in ('RMSPRD'))) OR (OPERATION_CODE IN (1, 2, 3) AND SEG_OWNER in ('RMSPRD')
AND TABLE_NAME in ('RESTART_PROGRAM_STATUS', 'ITEM_LOC')));
参数说明:
OPERATION_CODE:
public static final int INSERT = 1;
public static final int DELETE = 2;
public static final int UPDATE = 3;
public static final int DDL = 5;
public static final int ROLLBACK = 36;
查询数据:
事物:开启,提交,回滚事物
DDL:监听的schema与table的DDL操作事件
数据操作:监听的table的数据变化(增加,删除,修改,save point 记录回滚。save point记录回滚,回滚的每条记录都会有一条记录,OPERATION_CODE与正向的操作一样,只是ROLLBACK=1)。
start scn 上次一次返回的数据的最后记录的scn值(last processed scn),再继续查询。这块存在性能问题,极端情况下会一直查不到数据返回。
修复如下:
如果对应scn 范围的文件是archived log文件,查询没有数据返回了,就表明这范围内没有我们需要的数据, start scn = end scn;
如果对应scn 范围的文件是redo log文件,且当的文件正在写入,查询没有数据返回了,不能说明明这范围内没有我们需要的数据,有可能LGBR还没有刷新到文件中,我们需要修改start scn 上次一次返回的数据的最后记录的scn值(last processed scn),再继续查询,直到end scn对应的日志文件不是当前写入状态,或者对应的日志文件被 archive。
Flink CDC LogMiner 问题
LogMiner 最大的问题在于其性能, 他运行在 Oracle 内部, 并且运行在日志落地之后, 不可避免地需要消耗数据库的算力去完成工作, 为了降低这个不在主流程的进程的资源消耗, Oracle 对 LogMiner 做了非常严格的资源限制, 每个 LogMiner 进程, 他的资源消耗都不能超过 1 个 cpu 核心, 在大多数场景下, 这个将 LogMiner 的日志解析速度限制在 1w 条每秒以下, 在一些严肃的场合, 这个速度是远远不够的, Oracle 是一个事务数据库, 一个大的 Update, 可能会带来数十万上百万的更新, 在这种情况下, 每秒 1w 的解析速度会使得下游延迟增大到数分钟级别, 更糟糕的是, 在数据库本身负载较高的情况下, 由于 LogMiner 的解析与数据库共享负载, 会让解析速度进一步下降。
在工程上, 这个问题也有办法可以解决, LogMiner 本质上只是一个日志解析工具, 如果开发者在外部自己管理 LogMiner 进程, 将不同的日志通过不同的 LogMiner 进程并行解析, 理论上可以通过消耗更多的 CPU, 来实现更快的解析, 但是这个也导致了数据库的资源被进一步消耗, 最终速度是否达到预期并不是想当然的事情。
为了解决 LogMiner 与数据库争夺资源的问题, 还有一个异步解析的方案, 首先通过 Oracle 的机制, 将 redo log 异步传输到另外一台没有业务压力的 Oracle 实例上, 然后在另外一台机器上开启并发解析。
并发LogMiner解析方案:
主要分为三模块,
模块一:一个线程负责scn range 切分
模块二:获取切分的scn range,开启LogMiner线程并发的解析对应scn range 事件
模块三:顺序的处理获取到的事件
流程描述:
- scn range 切分线程
scn range,(start scn-end scn],end scn = start scn + batch range,根据scn = start scn + 1 定位日志文件,如果end scn > 这个日志文件的next_change-1, end scn=next_change-1。
select *
from v$log
where first_change# <= scn and next_change# > scn;
select *
from v$archived_log A
where first_change# <= scn and next_change# > scn
AND A.ARCHIVED = 'YES' AND A.STATUS = 'A' ;
scn = start scn + 1, eg: start scn=13541729493874, 查询V$LOGMNR_CONTENTS where scn > start scn, 也就是希望查询的第一个scn=13541729493875,根据这个scn定位日志文件。
- 顺序log 处理控制线程
获取切换分的scn range对象,添加到待LogMiner解析队列,同时也添加到待处理的log队列
- LogMiner线程池
获取待LogMiner队列的数据,LogMiner线程获取分片的startScn, endScn,开启LogMiner,判断是否需要持续LogMiner,查询V$LOGMNR_CONTENTS数据,
- LOG event 处理线程
猜你喜欢
- 2024-11-07 使用Sysbench测试统信UOS或麒麟KYLINOS的CPU性能
- 2024-11-07 安全与优化并重 甲骨文SPARC M7处理器解析
- 2024-11-07 AMD R7 4750G在java开发中的日常体验
- 2024-11-07 CPU百分百?别慌,教你迅速排查的三种姿势
- 2024-11-07 Oracle正式发布MySQL HeatWave Lakehouse
- 2024-11-07 VMWare向AMD处理器开刀:你核心多,就要多缴费
- 2024-11-07 作为一个DBA,怎么去做日常巡检--检查数据库cpu、I/O、内存性能
- 2024-11-07 结合我们公司的需求,看了ORACLE的收费,决定弃购!
- 2024-11-07 oracle故障处理-业务处理慢数据库CPU使用率低resmgr:cpu quantum
- 2024-11-07 Oracle 中查找 CPU 使用最多的会话或 SQL 查询
你 发表评论:
欢迎- 617℃几个Oracle空值处理函数 oracle处理null值的函数
- 610℃Oracle分析函数之Lag和Lead()使用
- 599℃0497-如何将Kerberos的CDH6.1从Oracle JDK 1.8迁移至OpenJDK 1.8
- 595℃Oracle数据库的单、多行函数 oracle执行多个sql语句
- 591℃Oracle 12c PDB迁移(一) oracle迁移到oceanbase
- 582℃【数据统计分析】详解Oracle分组函数之CUBE
- 572℃最佳实践 | 提效 47 倍,制造业生产 Oracle 迁移替换
- 560℃Oracle有哪些常见的函数? oracle中常用的函数
- 最近发表
-
- PageHelper - 最方便的 MyBatis 分页插件
- 面试二:pagehelper是怎么实现分页的,
- MyBatis如何实现分页查询?(mybatis-plus分页查询)
- SpringBoot 各种分页查询方式详解(全网最全)
- 如何在Linux上运行exe文件,怎么用linux运行windows软件
- 快速了解hive(快速了解美国50个州)
- Python 中的 pyodbc 库(pydbclib)
- Linux搭建Weblogic集群(linux weblogic部署项目步骤)
- 「DM专栏」DMDSC共享集群之部署(一)——共享存储配置
- 故障分析 | MySQL 派生表优化(mysql pipe)
- 标签列表
-
- 前端设计模式 (75)
- 前端性能优化 (51)
- 前端模板 (66)
- 前端跨域 (52)
- 前端缓存 (63)
- 前端aes加密 (58)
- 前端脚手架 (56)
- 前端md5加密 (54)
- 前端路由 (61)
- 前端数组 (73)
- 前端js面试题 (50)
- 前端定时器 (59)
- 前端获取当前时间 (50)
- Oracle RAC (76)
- oracle恢复 (77)
- oracle 删除表 (52)
- oracle 用户名 (80)
- oracle 工具 (55)
- oracle 内存 (55)
- oracle 导出表 (62)
- oracle约束 (54)
- oracle 中文 (51)
- oracle链接 (54)
- oracle的函数 (58)
- 前端调试 (52)
本文暂时没有评论,来添加一个吧(●'◡'●)