美文网首页转载部分
MySQL-18.高可用的基础-主备切换逻辑

MySQL-18.高可用的基础-主备切换逻辑

作者: 王侦 | 来源:发表于2019-08-16 12:34 被阅读43次

    MySQL 要提供高可用能力,只有最终一致性是不够的。

    双 M 结构的主备切换流程图:


    1.主备延迟

    主备切换可能是一个主动运维动作,比如软件升级、主库所在机器按计划下线等,也可能是被动操作,比如主库所在机器掉电。

    “同步延迟”。与数据同步有关的时间点主要包括以下三个:

    • 1)主库 A 执行完成一个事务,写入 binlog,我们把这个时刻记为 T1;
    • 2)之后传给备库 B,我们把备库 B 接收完这个 binlog 的时刻记为 T2;
    • 3)备库 B 执行完成这个事务,我们把这个时刻记为 T3。

    所谓主备延迟,就是同一个事务,在备库执行完成的时间和主库执行完成的时间之间的差值,也就是 T3-T1。

    可以在备库上执行 show slave status 命令,它的返回结果里面会显示seconds_behind_master,用于表示当前备库延迟了多少秒。

    seconds_behind_master 的计算方法是这样的:

    • 1)每个事务的 binlog 里面都有一个时间字段,用于记录主库上写入的时间;
    • 2)备库取出当前正在执行的事务的时间字段的值,计算它与当前系统时间的差值,得到seconds_behind_master。

    其实 seconds_behind_master 这个参数计算的就是 T3-T1。所以,可以用seconds_behind_master 来作为主备延迟的值,这个值的时间精度是秒。

    问题:

    • 如果主备库机器的系统时间设置不一致,会不会导致主备延迟的值不准?

    Ans:

    • 其实不会的。因为,备库连接到主库的时候,会通过执行 SELECT UNIX_TIMESTAMP() 函数来获得当前主库的系统时间。如果这时候发现主库的系统时间与自己不一致,备库在执行seconds_behind_master 计算的时候会自动扣掉这个差值。

    主备延迟最直接的表现是,备库消费中转日志(relay log)的速度,比主库生产binlog 的速度要慢。

    2.主备延迟的来源

    2.1 有些部署条件下,备库所在机器的性能要比主库所在的机器性能差

    更新请求对 IOPS 的压力,在主库和备库上是无差别的。所以,做这种部署时,一般都会将备库设置为“非双 1”的模式。

    但实际上,更新过程中也会触发大量的读操作。所以,当备库主机上的多个备库都在争抢资源的时候,就可能会导致主备延迟了。

    当然,这种部署现在比较少了。因为主备可能发生切换,备库随时可能变成主库,所以主备库选用相同规格的机器,并且做对称部署,是现在比较常见的情况。

    2.2 备库的压力大

    一般的想法是,主库既然提供了写能力,那么备库可以提供一些读能力。或者一些运营后台需要的分析语句,不能影响正常业务,所以只能在备库上跑。

    由于主库直接影响业务,大家使用起来会比较克制,反而忽视了备库的压力控制。结果就是,备库上的查询耗费了大量的 CPU 资源,影响了同步速度,造成主备延迟。

    一般可以这么处理:

    • 1)一主多从。除了备库外,可以多接几个从库,让这些从库来分担读的压力。
    • 2)通过 binlog 输出到外部系统,比如 Hadoop 这类系统,让外部系统提供统计类查询的能力。

    其中,一主多从的方式大都会被采用。因为作为数据库系统,还必须保证有定期全量备份的能力。而从库,就很适合用来做备份。

    2.3 大事务

    因为主库上必须等事务执行完成才会写入 binlog,再传给备库。所以,如果一个主库上的语句执行 10 分钟,那这个事务很可能就会导致从库延迟 10 分钟。

    不要一次性地用 delete 语句删除太多数据。其实,这就是一个典型的大事务场景。

    比如,一些归档类的数据,平时没有注意删除历史数据,等到空间快满了,业务开发人员要一次性地删掉大量历史数据。同时,又因为要避免在高峰期操作会影响业务(至少有这个意识还是很不错的),所以会在晚上执行这些大量数据的删除操作。

    结果,负责的 DBA 同学半夜就会收到延迟报警。然后,DBA 团队就要求你后续再删除数据的时候,要控制每个事务删除的数据量,分成多次删除。

    2.3.1 另一种典型的大事务场景,就是大表 DDL

    处理方案就是,计划内的 DDL,建议使用 gh-ost 方案

    2.4 备库的并行复制能力

    如果主库上也不做大事务了,还有什么原因会导致主备延迟吗?

    Ans:

    • 造成主备延迟还有一个大方向的原因,就是备库的并行复制能力。
      如果备库执行日志的速度持续低于主库生成日志的速度,那这个延迟就有可能成了小时级别。而且对于一个压力持续比较高的主库来说,备库很可能永远都追不上主库的节奏。


    • 在主库上,影响并发度的原因就是各种锁了。由于 InnoDB 引擎支持行锁,除了所有并发事务都在更新同一行(热点行)这种极端场景外,它对业务并发度的支持还是很友好的。所以,你在性能测试的时候会发现,并发压测线程 32 就比单线程时,总体吞吐量高。
    • 而日志在备库上的执行,就是图中备库上 sql_thread 更新数据 (DATA) 的逻辑。如果是用单线程的话,就会导致备库应用日志不够快,造成主备延迟。在官方的 5.6 版本之前,MySQL 只支持单线程复制,由此在主库并发高、TPS 高时就会出现严重的主备延迟问题。
    • 从单线程复制到最新版本的多线程复制,中间的演化经历了好几个版本。

    其实说到底,所有的多线程复制机制,都是要把一个线程的 sql_thread,拆成多个线程:



    coordinator 就是原来的 sql_thread, 不过现在它不再直接更新数据了,只负责读取中
    转日志和分发事务。真正更新日志的,变成了 worker 线程。而 work 线程的个数,就是由参数slave_parallel_workers 决定的。根据经验,把这个值设置为 8~16 之间最好(32 核物理机的情况),毕竟备库还有可能要提供读查询,不能把 CPU 都吃光了。

    事务能不能按照轮询的方式分发给各个 worker,也就是第一个事务分给 worker_1,第二个事务发给 worker_2 呢?

    Ans:

    • 其实是不行的。因为,事务被分发给 worker 以后,不同的 worker 就独立执行了。但是,由于CPU 的调度策略,很可能第二个事务最终比第一个事务先执行。而如果这时候刚好这两个事务更新的是同一行,也就意味着,同一行上的两个事务,在主库和备库上的执行顺序相反,会导致主备不一致的问题。

    同一个事务的多个更新语句,能不能分给不同的worker 来执行呢?

    Ans:

    • 也不行。举个例子,一个事务更新了表 t1 和表 t2 中的各一行,如果这两条更新语句被分到不同 worker 的话,虽然最终的结果是主备一致的,但如果表 t1 执行完成的瞬间,备库上有一个查询,就会看到这个事务“更新了一半的结果”,破坏了事务逻辑的原子性。
    • 所以,coordinator 在分发的时候,需要满足以下这两个基本要求:
      1)不能造成更新覆盖。这就要求更新同一行的两个事务,必须被分发到同一个 worker 中。
      2) 同一个事务不能被拆开,必须放到同一个 worker 中。
    • 各个版本的多线程复制,都遵循了这两条基本原则。

    2.4.1 MySQL 5.5 版本的并行复制策略

    官方 MySQL 5.5 版本是不支持并行复制的。作者自己写了两个版本的并行策略,即按表分发策略和按行分发策略。

    1)按表分发策略

    • 如果两个事务更新不同的表,它们就可以并行。因为数据是存储在表里的,所以按表分发,可以保证两个 worker 不会更新同一行。
    • 当然,如果有跨表的事务,还是要把两张表放在一起考虑的。

    每个 worker 线程对应一个 hash 表,用于保存当前正在这个 worker 的“执行队列”里的事务所涉及的表。hash 表的 key 是“库名. 表名”,value 是一个数字,表示队列中有多少个事务修改这个表。在有事务分配给 worker 时,事务里面涉及的表会被加到对应的 hash 表中。worker 执行完成后,这个表会被从 hash 表中去掉。

    假设在图中的情况下,coordinator 从中转日志中读入一个新事务 T,这个事务修改的行涉及到表 t1 和 t3。现在用事务 T 的分配流程,来看一下分配规则。

    • step1. 由于事务 T 中涉及修改表 t1,而 worker_1 队列中有事务在修改表 t1,事务 T 和队列中的某个事务要修改同一个表的数据,这种情况我们说事务 T 和 worker_1 是冲突的。
    • step2. 按照这个逻辑,顺序判断事务 T 和每个 worker 队列的冲突关系,会发现事务 T 跟worker_2 也冲突。
    • step3. 事务 T 跟多于一个 worker 冲突,coordinator 线程就进入等待。
    • step4. 每个 worker 继续执行,同时修改 hash_table。假设 hash_table_2 里面涉及到修改表 t3的事务先执行完成,就会从 hash_table_2 中把 db1.t3 这一项去掉。
    • step5. 这样 coordinator 会发现跟事务 T 冲突的 worker 只有 worker_1 了,因此就把它分配给worker_1。
    • step6. coordinator 继续读下一个中转日志,继续分配事务。

    每个事务在分发的时候,跟所有 worker 的冲突关系包括以下三种情况:

    • a)如果跟所有 worker 都不冲突,coordinator 线程就会把这个事务分配给最空闲的 woker;
    • b)如果跟多于一个 worker 冲突,coordinator 线程就进入等待状态,直到和这个事务存在冲突关系的 worker 只剩下 1 个;
    • c)如果只跟一个 worker 冲突,coordinator 线程就会把这个事务分配给这个存在冲突关系的worker。

    这个按表分发的方案,在多个表负载均匀的场景里应用效果很好。但是,如果碰到热点表,比如所有的更新事务都会涉及到某一个表的时候,所有事务都会被分配到同一个 worker 中,就变成单线程复制了。

    2)按行分发策略

    • 要解决热点表的并行复制问题,就需要一个按行并行复制的方案。按行复制的核心思路是:如果两个事务没有更新相同的行,它们在备库上可以并行执行。显然,这个模式要求 binlog 格式必须是 row。这时候,判断一个事务 T 和 worker 是否冲突,用的就规则是“修改同一行”。
    • 按行复制和按表复制的数据结构差不多,也是为每个 worker,分配一个 hash 表。只是要实现按行分发,这时候的 key,就必须是“库名 + 表名 + 唯一键的值(包含主键以外的唯一键)”。
    • 但是,这个“唯一键”只有主键 id 还是不够的,还需要考虑下面这种场景,表 t1 中除了主键,还有唯一索引 a:
    CREATE TABLE `t1` (
     `id` int(11) NOT NULL,
     `a` int(11) DEFAULT NULL,
     `b` int(11) DEFAULT NULL,
     PRIMARY KEY (`id`),
     UNIQUE KEY `a` (`a`)
    ) ENGINE=InnoDB;
    
    insert into t1 values(1,1,1),(2,2,2),(3,3,3),(4,4,4),(5,5,5);
    

    假设,接下来要在主库执行这两个事务:



    这两个事务要更新的行的主键值不同,但是如果它们被分到不同的 worker,就有可能 session B 的语句先执行。这时候 id=1 的行的 a 的值还是 1,就会报唯一键冲突。

    因此,基于行的策略,事务 hash 表中还需要考虑唯一键,即 key 应该是“库名 + 表名 + 索引a 的名字 +a 的值”。

    3)对比
    相比于按表并行分发策略,按行并行策略在决定线程分发的时候,需要消耗更多的计算资源。这两个方案其实都有一些约束条件:

    • 1)要能够从 binlog 里面解析出表名、主键值和唯一索引的值。也就是说,主库的 binlog 格式必须是 row;
    • 2)表必须有主键;
    • 3)不能有外键。表上如果有外键,级联更新的行不会记录在 binlog 中,这样冲突检测就不准确。

    对比按表分发和按行分发这两个方案的话,按行分发策略的并行度更高。不过,如果是要操作很多行的大事务的话,按行分发的策略有两个问题:

    • 1)耗费内存。比如一个语句要删除 100 万行数据,这时候 hash 表就要记录 100 万个项。
    • 2)耗费 CPU。解析 binlog,然后计算 hash 值,对于大事务,这个成本还是很高的。

    所以,在实现这个策略的时候会设置一个阈值,单个事务如果超过设置的行数阈值(比如,如果单个事务更新的行数超过 10 万行),就暂时退化为单线程模式,退化过程的逻辑大概是这样的:

    • 1)coordinator 暂时先 hold 住这个事务;
    • 2)等待所有 worker 都执行完成,变成空队列;
    • 3)coordinator 直接执行这个事务;
    • 4)恢复并行模式。

    2.4.2 MySQL 5.6 版本的并行复制策略

    官方 MySQL5.6 版本,支持了并行复制,只是支持的粒度是按库并行。用于决定分发策略的 hash 表里,key 就是数据库名。

    这个策略的并行效果,取决于压力模型。如果在主库上有多个 DB,并且各个 DB 的压力均衡,使用这个策略的效果会很好。

    相比于按表和按行分发,这个策略有两个优势:

    • 1)构造 hash 值的时候很快,只需要库名;而且一个实例上 DB 数也不会很多,不会出现需要构造 100 万个项这种情况。
    • 2)不要求 binlog 的格式。因为 statement 格式的 binlog 也可以很容易拿到库名。

    但是,如果主库上的表都放在同一个 DB 里面,这个策略就没有效果了;或者如果不同 DB的热点不同,比如一个是业务逻辑库,一个是系统配置库,那也起不到并行的效果。

    理论上可以创建不同的 DB,把相同热度的表均匀分到这些不同的 DB 中,强行使用这个策略。不过由于需要特地移动数据,这个策略用得并不多。

    2.4.3 MariaDB 的并行复制策略

    redo log 组提交 (group commit) 优化, 而 MariaDB 的并行复制策略利用的就是这个特性:

    • 1)能够在同一组里提交的事务,一定不会修改同一行;
    • 2)主库上可以并行执行的事务,备库上也一定是可以并行执行的。

    在实现上,MariaDB 是这么做的:

    • 1)在一组里面一起提交的事务,有一个相同的 commit_id,下一组就是 commit_id+1;
    • 2)commit_id 直接写到 binlog 里面;
    • 3)传到备库应用的时候,相同 commit_id 的事务分发到多个 worker 执行;
    • 4)这一组全部执行完成后,coordinator 再去取下一批。

    之前业界的思路都是在“分析 binlog,并拆分到 worker”上。而 MariaDB 的这个策略,目标是“模拟主库的并行模式”。但是,这个策略有一个问题,它并没有实现“真正的模拟主库并发度”这个目标。在主库上,一组事务在 commit 的时候,下一组事务是同时处于“执行中”状态的。

    如下图所示,假设了三组事务在主库的执行情况,你可以看到在 trx1、trx2 和 trx3 提交的时候,trx4、trx5 和 trx6 是在执行的。这样,在第一组事务提交完成的时候,下一组事务很快就会进入 commit 状态。



    而按照 MariaDB 的并行复制策略,备库上的执行效果如下图所示:


    可以看到,在备库上执行的时候,要等第一组事务完全执行完成后,第二组事务才能开始执行,这样系统的吞吐量就不够。

    另外,这个方案很容易被大事务拖后腿。假设 trx2 是一个超大事务,那么在备库应用的时候,trx1 和 trx3 执行完成后,就只能等 trx2 完全执行完成,下一组才能开始执行。这段时间,只有一个 worker 线程在工作,是对资源的浪费。

    2.4.4 MySQL 5.7 的并行复制策略

    在 MariaDB 并行复制实现之后,官方的 MySQL5.7 版本也提供了类似的功能,由参数 slave-parallel-type 来控制并行复制策略:

    • 1)配置为 DATABASE,表示使用 MySQL 5.6 版本的按库并行策略;
    • 2)配置为 LOGICAL_CLOCK,表示的就是类似 MariaDB 的策略。不过,MySQL 5.7 这个策略,针对并行度做了优化。

    同时处于“执行状态”的所有事务,是不是可以并行?

    Ans:

    • 不能。
      因为,这里面可能有由于锁冲突而处于锁等待状态的事务。如果这些事务在备库上被分配到不同的 worker,就会出现备库跟主库不一致的情况。
      而上面提到的 MariaDB 这个策略的核心,是“所有处于 commit”状态的事务可以并行。事务处于 commit 状态,表示已经通过了锁冲突的检验了。
    • 其实,不用等到 commit 阶段,只要能够到达 redo log prepare 阶段,就表示事务已经通过锁冲突的检验了。


    因此,MySQL 5.7 并行复制策略的思想是:

    • 1)同时处于 prepare 状态的事务,在备库执行时是可以并行的;
    • 2)处于 prepare 状态的事务,与处于 commit 状态的事务之间,在备库执行时也是可以并行的。

    binlog 组提交的两个参数:

    • 1)binlog_group_commit_sync_delay 参数,表示延迟多少微秒后才调用 fsync;
    • 2)binlog_group_commit_sync_no_delay_count 参数,表示累积多少次以后才调用 fsync。

    这两个参数是用于故意拉长 binlog 从 write 到 fsync 的时间,以此减少 binlog 的写盘次数。在 MySQL 5.7 的并行复制策略里,它们可以用来制造更多的“同时处于 prepare 阶段的事务”。这样就增加了备库复制的并行度。

    也就是说,这两个参数,既可以“故意”让主库提交得慢些,又可以让备库执行得快些。在
    MySQL 5.7 处理备库延迟的时候,可以考虑调整这两个参数值,来达到提升备库复制并发度的目的。

    2.4.5 MySQL 5.7.22 的并行复制策略

    在 2018 年 4 月份发布的 MySQL 5.7.22 版本里,MySQL 增加了一个新的并行复制策略,基于WRITESET 的并行复制。

    相应地,新增了一个参数 binlog-transaction-dependency-tracking,用来控制是否启用这个新策略。这个参数的可选值有以下三种:

    • 1)COMMIT_ORDER,表示的就是前面介绍的,根据同时进入 prepare 和 commit 来判断是否可以并行的策略。
    • 2)WRITESET,表示的是对于事务涉及更新的每一行,计算出这一行的 hash 值,组成集合writeset。如果两个事务没有操作相同的行,也就是说它们的 writeset 没有交集,就可以并行。
    • 3)WRITESET_SESSION,是在 WRITESET 的基础上多了一个约束,即在主库上同一个线程先后执行的两个事务,在备库执行的时候,要保证相同的先后顺序。

    当然为了唯一标识,这个 hash 值是通过“库名 + 表名 + 索引名 + 值”计算出来的。如果一个表上除了有主键索引外,还有其他唯一索引,那么对于每个唯一索引,insert 语句对应的writeset 就要多增加一个 hash 值。

    跟前面介绍的基于 MySQL 5.5 版本的按行分发的策略是差不多的。不过,MySQL 官方的这个实现还是有很大的优势:

    • 1)writeset 是在主库生成后直接写入到 binlog 里面的,这样在备库执行的时候,不需要解析binlog 内容,节省了很多计算量;
    • 2)不需要把整个事务的 binlog 都扫一遍才能决定分发到哪个 worker,更省内存;
    • 3)由于备库的分发策略不依赖于 binlog 内容,所以 binlog 是 statement 格式也是可以的。

    因此,MySQL 5.7.22 的并行复制策略在通用性上还是有保证的。

    当然,对于“表上没主键”和“外键约束”的场景,WRITESET 策略也是没法并行的,也会暂时退化为单线程模型。

    2.4.6 总结

    为什么要有多线程复制呢?

    Ans:

    • 这是因为单线程复制的能力全面低于多线程复制,对于更新压力较大的主库,备库是可能一直追不上主库的。从现象上看就是,备库上 seconds_behind_master 的值越来越大。

    大事务不仅会影响到主库,也是造成备库复制延迟的主要原因之一。因此,在平时的开发工作中,建议尽量减少大事务操作,把大事务拆成小事务。

    官方 MySQL5.7 版本新增的备库并行策略,修改了 binlog 的内容,也就是说 binlog 协议并不是向上兼容的,在主备切换、版本升级的时候需要把这个因素也考虑进去。

    问题:

    • 假设一个 MySQL 5.7.22 版本的主库,单线程插入了很多数据,过了 3 个小时后,我们要给这个主库搭建一个相同版本的备库。
      这时候,你为了更快地让备库追上主库,要开并行复制。在 binlog-transaction-dependency-tracking 参数的 COMMIT_ORDER、WRITESET 和 WRITE_SESSION 这三个取值中,你会选择哪一个呢?
      你选择的原因是什么?如果设置另外两个参数,你认为会出现什么现象呢?

    Ans:

    • 这个问题的答案是,应该将这个参数设置为 WRITESET。
    • 由于主库是单线程压力模式,所以每个事务的 commit_id 都不同,那么设置为COMMIT_ORDER 模式的话,从库也只能单线程执行。
    • 同样地,由于 WRITESET_SESSION 模式要求在备库应用日志的时候,同一个线程的日志必须与主库上执行的先后顺序相同,也会导致主库单线程压力模式下退化成单线程复制。
    • 所以,应该将 binlog-transaction-dependency-tracking 设置为 WRITESET。

    3.主备切换策略

    3.1 可靠性优先策略


    双 M 结构下,从状态 1 到状态 2 切换的详细过程是这样的:

    • step1. 判断备库 B 现在的 seconds_behind_master,如果小于某个值(比如 5 秒)继续下一步,否则持续重试这一步;
    • step2. 把主库 A 改成只读状态,即把 readonly 设置为 true;
    • step3. 判断备库 B 的 seconds_behind_master 的值,直到这个值变成 0 为止;
    • step4. 把备库 B 改成可读写状态,也就是把 readonly 设置为 false;
    • step5. 把业务请求切到备库 B。

    这个切换流程,一般是由专门的 HA 系统来完成的。


    可以看到,这个切换流程中是有不可用时间的。因为在步骤 2 之后,主库 A 和备库 B 都处于readonly 状态,也就是说这时系统处于不可写状态,直到步骤 5 完成后才能恢复。

    在这个不可用状态中,比较耗费时间的是步骤 3,可能需要耗费好几秒的时间。这也是为什么需要在步骤 1 先做判断,确保 seconds_behind_master 的值足够小。

    3.2 可用性优先策略

    如果强行把步骤 4、5 调整到最开始执行,也就是说不等主备数据同步,直接把连接切到备库B,并且让备库 B 可以读写,那么系统几乎就没有不可用时间了。

    这个切换流程的代价,就是可能出现数据不一致的情况。

    CREATE TABLE `t` (
     `id` int(11) unsigned NOT NULL AUTO_INCREMENT,
     `c` int(11) unsigned DEFAULT NULL,
     PRIMARY KEY (`id`)
    ) ENGINE=InnoDB;
    insert into t(c) values(1),(2),(3);
    
    • step1.这个表定义了一个自增主键 id,初始化数据后,主库和备库上都是 3 行数据。
    • step2.业务人员要继续在表 t 上执行两条插入语句的命令
    insert into t(c) values(4);
    insert into t(c) values(5);
    
    • step3.假设,现在主库上其他的数据表有大量的更新,导致主备延迟达到 5 秒。在插入一条 c=4 的语句后,发起了主备切换。

    下图是可用性优先策略,且 binlog_format=mixed时的切换流程和数据结果。



    切换流程:

    • step1. 步骤 2 中,主库 A 执行完 insert 语句,插入了一行数据(4,4),之后开始进行主备切换。
    • step2. 步骤 3 中,由于主备之间有 5 秒的延迟,所以备库 B 还没来得及应用“插入 c=4”这个中转日志,就开始接收客户端“插入 c=5”的命令。
    • step3. 步骤 4 中,备库 B 插入了一行数据(4,5),并且把这个 binlog 发给主库 A。
    • step4. 步骤 5 中,备库 B 执行“插入 c=4”这个中转日志,插入了一行数据(5,4)。而直接在备库 B 执行的“插入 c=5”这个语句,传到主库 A,就插入了一行新数据(5,5)。

    最后的结果就是,主库 A 和备库 B 上出现了两行不一致的数据。可以看到,这个数据不一致,是由可用性优先流程导致的。

    这里的关键原因是:这里的主键是自动生成的,然后主备切换时,后插入的先在B库上执行。

    如果用可用性优先策略,但设置 binlog_format=row,情况又会怎样呢?

    Ans:

    • 因为 row 格式在记录 binlog 的时候,会记录新插入的行的所有字段值,所以最后只会有一行不一致。而且,两边的主备同步的应用线程会报错 duplicate key error 并停止。
    • 这种情况下,备库 B 的 (4,5) 和主库 A 的 (4,4) 这两行数据,都不会被对方执行。


    一些结论:

    • 1)使用 row 格式的 binlog 时,数据不一致的问题更容易被发现。而使用 mixed 或者statement 格式的 binlog 时,数据很可能悄悄地就不一致了。如果你过了很久才发现数据不一致的问题,很可能这时的数据不一致已经不可查,或者连带造成了更多的数据逻辑不一致。
    • 2)主备切换的可用性优先策略会导致数据不一致。因此,大多数情况下,建议使用可靠性优先策略。毕竟对数据服务来说的话,数据的可靠性一般还是要优于可用性的。

    但事无绝对,有没有哪种情况数据的可用性优先级更高呢?

    Ans:

    • 场景:
      1)有一个库的作用是记录操作日志。这时候,如果数据不一致可以通过 binlog 来修补,而这个短暂的不一致也不会引发业务问题。
      2)同时,业务系统依赖于这个日志写入逻辑,如果这个库不可写,会导致线上的业务操作无法执行。
    • 这时候,可能就需要选择先强行切换,事后再补数据的策略。
    • 一个改进措施就是,让业务逻辑不要依赖于这类日志的写入。也就是说,日志写入这个逻辑模块应该可以降级,比如写到本地文件,或者写到另外一个临时库里面。
      这样的话,这种场景就又可以使用可靠性优先策略了。

    按照可靠性优先的思路,异常切换会是什么效果?

    • 主库 A 和备库 B 间的主备延迟是 30 分钟,这时候主库 A 掉电了,HA 系统要切换 B 作为主库。在主动切换的时候,可以等到主备延迟小于 5 秒的时候再启动切换,但这时候已经别无选择了。
    • 采用可靠性优先策略的话,就必须得等到备库 B 的seconds_behind_master=0 之后,才能切换。但现在的情况比刚刚更严重,并不是系统只读、不可写的问题了,而是系统处于完全不可用的状态。因为,主库 A 掉电后,连接还没有切到备库 B。
    • 那能不能直接切换到备库 B,但是保持 B 只读呢?
      不行。因为,这段时间内,中转日志还没有应用完成,如果直接发起主备切换,客户端查询看不到之前执行完成的事务,会认为有“数据丢失”。
      虽然随着中转日志的继续应用,这些数据会恢复回来,但是对于一些业务来说,查询到“暂时丢失数据的状态”也是不能被接受的。

    在满足数据可靠性的前提下,MySQL 高可用系统的可用性,是依赖于主备延迟的。延迟的时间越小,在主库故障的时候,服务恢复需要的时间就越短,可用性就越高。

    问题:

    • 一般现在的数据库运维系统都有备库延迟监控,其实就是在备库上执行 show slave status,采集 seconds_behind_master 的值。
      现在你看到你维护的一个备库,它的延迟监控的图像类似下图,是一个 45°斜向上的线段,你觉得可能是什么原因导致呢?你又会怎么去确认这个原因呢?


    Ans:

    • 原因:备库的同步在这段时间完全被堵住了。
    • 产生这种现象典型的场景主要包括两种:
      1)一种是大事务(包括大表 DDL、一个事务操作很多行);
      2)还有一种情况比较隐蔽,就是备库起了一个长事务,比如
    begin; 
    select * from t limit 1;
    

    这时候主库对表 t 做了一个加字段操作,即使这个表很小,这个 DDL 在备库应用的时候也会被堵住。

    相关文章

      网友评论

        本文标题:MySQL-18.高可用的基础-主备切换逻辑

        本文链接:https://www.haomeiwen.com/subject/wiffsctx.html