一、事务4大特性
1.1、原子性
事务的原子性由事务的
redo 日志
和undo 日志
来保证
1.2、一致性
事务的一致性由事务的
redo 日志
和undo 日志
来保证
1.3、隔离性
事务的隔离性由
锁机制
实现
1.4、持久性
事务的持久性由事务的
redo 日志
和undo 日志
来保证
1.5、REDO LOG
-
REDO LOG
称为重做日志
,提供再写入操作,恢复提交事务修改的页操作,用来保证事务的持久性
-
REDO LOG
:是存储引擎层
生成的日志,记录的是物理级别
上的页修改操作,比如页号(x)、偏移量(y)写入了(zzz)数据。主要为了保证数据的可靠性
1.6、UNDO LOG
-
UNDO LOG
称为回滚日志
,回滚行记录到某个特定版本,用来保证事务的原子性、一致性
-
UNDO LOG
:是存储引擎层生成的日志,记录的是逻辑操作
日志,比如对某一行数据进行了INSERT
语句操作,那么UNDO LOG
就记录一条与之相反的DELETE
操作。主要用于事务的回滚( UNDO LOG 记录的是每个修改操作的 逆操作 )
和一致性非锁定读(UNDO LOG 回滚行记录到某种特定的版本——MVCC,即多版本并发控制)
二、REDO 日志
InnoDB存储引擎以
页为单位
来管理存储空间。在真正访问页面之前,需要把在磁盘上
的页缓存到内存中的Buffer Pool
之后才可以访问。所有的变更都必须先更新缓冲池
中的数据,然后缓冲池中的脏页
会以一定的频率被刷入磁盘(checkPoint机制),通过缓冲池
来优化CPU
和磁盘
之间的鸿沟,这样就可以保证整体的性能不会下降太快
2.1 为什么需要REDO日志
2.1.1、checkpoint并不是每次变更的时候就触发
缓冲池
可以帮助我们消除CPU
和磁盘
之间的鸿沟,checkpoint机制可以保证数据的最终落盘,然而由于checkpoint 并不是每次变更的时候就触发
的,而是master线程隔一段时间去处理的。所以最坏的情况就是事务提交后,刚写完缓冲池,数据库宕机了,那么这段数据就是丢失的,无法恢复
2.1.2、持久性
事务包含
持久性
的特性,就是说对于一个已经提交的事务,在事务提交后即使系统发生了崩溃,这个事务对数据库中所做的更改也不能丢失
2.1.2.1、实现持久性方案
在事务提交完成之前把该事务所修改的所有页面都刷新到磁盘,这样的做法存在的问题
-
问题1:
修改量与刷新磁盘工作量严重不成比例:
有时仅仅修改某个页面中的一个字节,但是由于InnoDB中是以页为单位来进行磁盘IO的,也就是说在该事务提交时不得不将一个完整的页面从内存中刷新到磁盘,一个页面默认是16KB
大小,只修改一个字节就要刷新16KB的数据到磁盘上显然是太小题大做了 -
问题2:
随机IO刷新较慢:
一个事务可能包含很多语句,即使是一条语句也可能修改许多页面,假如该事务修改的这些页面可能并不相邻,这就意味着在将某个事务修改的Buffer Pool
中的页面刷新到磁盘
时,需要进行很多的随机IO
,随机IO比顺序IO要慢,尤其对于传统的机械磁盘来说
2.1.2.2、REDO日志
REDO日志.png我们只是想让已经提交了的事务对数据库中数据所做的修改永久生效,即使后来系统崩溃,在重启后也能把这种修改恢复出来。所以我们其实没有必要在每次事务提交时就把该事务在内存中修改过的全部页面刷新到磁盘,只需要把
修改
了哪些东西记录一下
就好。比如,某个事务将系统表空间中第10号
页面中偏移量为100
处的那个字节的值1
改成2
。我们只需要记录一下:将第0号表空间的10号页面的偏移量为100处的值更新为 2 。
2.2、REDO日志的优点
- REDO日志降低了刷盘频率
- REDO日志占用的空间非常小
存储
表空间ID
、页号
、偏移量
以及需要更新的值,所需的存储空间小,刷盘块
2.3、REDO日志的特点
2.3.1、REDO日志是顺序写入磁盘
在执行事务的过程中,每执行一条语句,就可能产生若干条REDO日志,这些日志是按照
产生的顺序写入磁盘的
,也就是使用顺序IO
,效率比随机IO
快
2.3.2、事务执行过程中,REDO LOG 在不断记录
REDO LOG 与 Bin Log 的区别,REDO LOG是
存储引擎层
产生的,而Bin Log
是数据库层
产生的。假设一个事务,对表做10万
行的记录插入,在这个过程中,一直不断地往REDO LOG
顺序记录,而Binlog
不会记录,直到这个事务提交,才会一次写入到Binlog文件中
2.4、REDO的组成
2.4.1、第一部分:重做日志的缓冲
Redo Log Buffer.png
重做日志的缓冲(Redo Log Buffer)
,保存在内存中,是容易丢失的。在服务器启动时就向操作系统申请了一大片称之为Redo Log Buffer
的连续内存
空间,也就是Redo日志缓冲区
。这片内存空间被划分成若干个连续的Redo Log block
。一个Redo Log block
占用512字节
大小
2.4.1.1、查看 Redo Log Buffer 大小
redo log buffer 大小,默认
16M
,最大值是4096M,最小值为1M
- 查询SQL
SHOW VARIABLES LIKE '%innodb_log_buffer_size%';
Redo Log Buffer大小.png
# 16.00000000
SELECT 16777216 / 1024 / 1024;
2.4.2、第二部分:重做日志文件
重做日志文件(Redo Log File)
,保存在硬盘中,是持久的。其中的ib_logfile0
和ib_logfile1
即为Redo日志
2.5、REDO工作流程
2.5.1、以更新事务为例,redo log 流转过程,如下图所示: redo log 流转过程.png
第1步:先将
更新数据
从磁盘
中读取到内存
中,更新内存中数据
第2步:生成一条重做日志并写入redo log buffer
,记录的是数据被修改后的值
第3步:当事务Commit
时,将redo log buffer
中的内容刷新
到redo log file
磁盘文件,对redo log file
采用追加写的方式
第4步:定期将内存中修改的数据刷新
到磁盘
中
Write-Ahead-Log(预先日志持久化)
:在持久化一个数据页之前,先将内存中相应的日志页持久化
2.6、Redo-Log的刷盘策略
Redo-Log 的写入并不是直接写入
磁盘
的,InnoDB引擎会在写redo log
的时候先写入redo log buffer(内存级别缓存)
,之后以一定的频率
刷入到真正的redo log file(磁盘级别)
中
- 数据更新-Redo-Log工作流程 数据更新-Redo-Log工作流程.png
在现代操作系统中为了提高文件写入效率做了一个优化,在
redo log buffer
刷盘到redo log file
的过程并不是真正的刷到磁盘中,只是刷入到文件系统缓存(page cache)
中。真正的写入会交给系统自己来决定(如page Cache足够大了)。那么对于InnoDB来说就存在一个问题,如果交给系统来同步,同样如果系统宕机,那么数据也丢失了(虽然系统宕机几率较小)。针对这种情况,InnoDB给出innodb_flush_log_at_trx_commit
参数,该参数控制Commit提交事务
时,如何将redo log buffer
中的日志刷新到redo log file
中。
2.6.1、Redo-Log的刷盘策略一
设置
innodb_flush_log_at_trx_commit = 0
,表示每次事务提交时不进行刷盘操作
。(系统默认master thread 每隔1s
进行一次重做日志的同步)
- 工作原理 工作原理.png
-
小结
-
Master Thread
中每1秒
进行一次重做日志的fsync
操作,因此实例Crash
最多丢失1秒钟
内的事务。这种策略效率理论上是介于innodb_flush_log_at_trx_commit = 1
和innodb_flush_log_at_trx_commit = 2
的
-
2.6.2、Redo-Log的刷盘策略二
设置
innodb_flush_log_at_trx_commit = 1
,表示每次事务提交时都将进行同步刷盘操作(默认方式)
-
工作原理
image.png - 小结
- 只要事务提交成功,
redo log
记录就一定在磁盘里
,不会有任何数据丢失 - 如果事务执行期间
MySQL服务
挂了或宕机,这部分日志会丢失,但是事务并没有提交,所以日志丢失也不会有损失。这种策略数据绝对不会丢失,但是效率最差
- 只要事务提交成功,
2.6.3、Redo-Log的刷盘策略三
设置
innodb_flush_log_at_trx_commit = 2
,表示每次事务提交时都只把redo log buffer
内容写入page cache
,不进行同步。由操作系统自己决定什么时候同步到磁盘
- 工作流程 工作流程.png
-
小结
- 只要事务提交成功,
redo log buffer
中的内容只写入文件系统缓存(page cache) - 如果
MySQL服务
挂了不会有任何数据丢失,但是操作系统
宕机可能会有1秒
数据的丢失。但是效率最高
- 只要事务提交成功,
2.7、写入 Redo Log Buffer 过程
2.7.1、Mini-Transaction
image.pngMySQL把对
底层页面中的一次原子访问
的过程称之为一个Mini-Transaction
,简称mtr
,如:向某个索引对应的B+树中插入一条记录的过程就是一个Mini-Transaction
。一个所谓的mtr
可以包含一组redo日志
,在进行崩溃恢复时这一组redo
日志作为一个不可分割的整体。一个事务可以包含若干条语句,每一条语句其实是由若干个mtr
组成,每一个mtr
又可以包含如干条redo
日志。如下图
2.7.2、Redo日志写入 Log Buffer
Log-Buffer.png向
Log Buffer
中写入 Redo日志的过程是顺序
的,也就是先往前边的Block
中写,当该Block
的空闲空间用完之后再往下一个Block
中写,当我们想往Log Buffer
中写入Redo日志时,第一个遇到的问题就是应该写在哪个Block
的哪个偏移量处,所以InnoDB
的设计者特意提供了一个称之为Buf_free
的全局变量,该变量指明后续写入的Redo日志应该写入到log buffer中的哪个位置
一个
mtr
执行过程中可能产生若干条Redo日志,这些redo日志是一个不可分割的组
,所以其实并不是每生成一条 redo 日志,就将其插入到log buffer
中,而是每个 mtr 运行过程中产生的日志先暂时存到一个地方,当该 mtr 结束的时候,将过程中产生的一组 redo 日志再全部复制到log buffer
中,我们现在假设有两个名为T1、T2
的事务,每个事务都包含2个mtr
,我们给这几个mtr命名:
-
事务
T1
的两个mtr
分别称为mtr_T1_1
和mtr_T1_2
-
事务
T2
的两个mtr
分别称为mtr_T2_1
和mtr_T2_2
-
每个
image.pngmtr
都会产生一组 redo 日志 -
不同的事务可能是
image.png并发
执行的,所以T1、T2
之间的mtr
可能是交替执行
的。每当一个mtr执行完成时,伴随该mtr生成的一组redo日志就需要被复制到log buffer
中,也就是说不同事务的mtr可能是交替写入 log buffer的。
2.7.3、Redo Log Block 结构图
一个
Redo Log Block
是由日志头、日志体、日志尾
组成。日志头占用12
字节,日志尾占用8字节
,所以一个Block真正能存储的数据就是492
字节。
- 为什么一个Block设计成 512 字节?
这个和磁盘的扇区有关,机械磁盘默认的扇区就是 512 字节,如果你要写入的数据大于 512 字节,那么要写入的扇区肯定不止一个,这时就要涉及到盘片的转动,找到下一个扇区,假设现在需要写入2个扇区A和B,如果A扇区写入成功,而扇区B写入失败,那么就会出现
非原子性写入
,而如果每次只写入和扇区的大小一样的512
字节,那么每次的写入都是原子性写入
- Redo Log Block 结构 Redo Log Block.png
-
真正的 redo 日志都是存储到占用 496 字节大小的
image.pngLog Block Body
中,图中的log block header
和log block trailer
存储的是一些管理信息
2.7.3.1、log block header 的属性
-
LOG_BLOCK_HDR_NO
:log buffer是由 log block 组成,在内部 log buffer 就好似一个数组
,因此LOG_BLOCK_HDR_NO
用来标记这个数组中的位置。其是递增并且循环使用的,占用4个字节,但是由于第1位用来判断是否是Flush bit,所以最大的值为 2G -
LOG_BLOCK_HDR_DATA_LEN
:表示block中已经使用了多少字节,初始值为12。随着往block中写入的redo日志越来越多,本属性值也跟着增长。如果log block body
已经被全部写满,那么本属性的值被设置为 512 -
LOG_BLOCK_FIRST_REC_GROUP
:一条redo日志也可以称之为一条redo日志记录(redo log record),一个mtr会生产多条redo日志记录,这些redo日志记录被称为一个redo日志记录组(redo log record group)。LOG_BLOCK_FIRST_REC_GROUP
就代表该block中第一个 mtr 生成的 redo 日志记录组的偏移量(其实就是这个block里第一个mtr生成的第一条redo日志的偏移量)。如果该值的大小和LOG_BLOCK_HDR_DATA_LEN
相同,则表示当前log block不包含新的日志 -
LOG_BLOCK_CHECKPOINT_NO
:占用 4 字节,表示该 log block 最后被写入时的checkpoint
2.7.3.2、log block trailer 的属性
-
LOG_BLOCK_CHECKSUM
:表示 block 的校验值,用于正确性校验
2.8、Redo Log File
2.8.1、相关参数设置
-
innodb_log_group_home_dir
:指定 redo log 文件组所在的路径,默认值为./
,表示在数据库的数据目录下。MySQL的默认数据目录(var/lib/mysql
)下默认有两个名为ib_logfile0
和ib_logfile1
的文件,log buffer中的日志默认情况下就是刷新到这两个磁盘文件中。此redo日志文件位置还可以修改 -
innodb_log_files_in_group
:指明redo log file的个数,命名方式如:ib_logfile0,iblogfile1... iblogfilen。默认2个,最大100个 -
innodb_flush_log_at_trx_commit
:控制 redo log 刷新到磁盘的策略,默认为1。 -
innodb_log_file_size
:单个 redo log 文件设置大小,默认值为48M
。最大值为512G,注意最大值
指的是整个 redo log 系列文件之和,即(innodb_log_files_in_group * innodb_log_file_size )不能大于最大值512G -
命令
show variables like 'innodb_log_file_size';
- 根据业务修改其大小,以便容纳较大的事务。编辑my.cnf文件并重启数据库生效
vim /etc/my.cnf
innodb_log_file_size=200M
2.8.2、日志文件组
磁盘上的
redo
日志文件不只一个,而是以一个日志文件组
的形式出现的。这些文件以ib_logfile[数字]
的形式进行命名,每个的redo日志文件大小都是一样的。在将redo日志写入日志文件组时,是从ib_logfile0
开始写,如果ib_logfile0
写满了,接着ib_logfile1
写。同理ib_logfile1
写满了就去写ib_logfile2
,依次类推。如果写到最后一个文件,那就重新转到ib_logfile0
继续写
- redo 日志文件组示意图 redo 日志文件组示意图.png
2.8.3、checkpoint
采用循环使用的方式向 redo 日志文件组里写数据的话,会导致后写入的 redo 日子覆盖掉前边写的redo日志。所以InnoDB的设计者提出了 checkpoint 的概念
- checkpoint属性
在整个日志文件组中还有两个重要的属性,分别是
write pos、checkpoint
-
write pos
:是当前记录的位置,一边写一边后移 -
checkpoint
:是当前要擦除的位置,也是往后推移 -
刷盘过程
-
1、每次刷盘 redo log 记录到日志文件组中,
write pos
位置就会后移更新。 -
2、每次 MySQL 加载日志文件组恢复数据时,会清空加载过的 redo log 记录,并把 checkpoint 后移更新。
image.png -
3、如果
image.pngwrite pos
追上checkpoint
,表示日志文件组
满了,这时候不能再写入新的 redo log 记录,MySQL 需要停下来,清空一些记录,把checkpoint
推进一下
-
2.9、小结
InnoDB 的更新操作采用的是
Write Ahead Log(预先日志持久化)策略,即先写日志,再写入磁盘
三、Undo 日志
redo log
是事务持久性
的保证,undo log
是事务原子性
的保证。在事务中更新数据
的前置操作
其实是要先写入一个undo log
3.1、Undo 日志保证事务原子性
事务需要保证
原子性
,也就是事务中的操作要么全部完成,要么什么也不做。但有时候事务执行到一半会出现一些情况,如:
情况一
:事务执行过程中可能遇到各种错误,比如服务器错误、操作系统错误
,甚至是突然断电
导致的错误。
情况二
:程序员可以在事务执行过程中手动输入ROLLBACK
语句结束当前事务的执行。
以上情况出现,我们需要把数据改回原先的样子,这个过程称之位回滚
,这样就可以造成一个假象:这个事务看起来什么都没做,所以符合 原子性 要求
- 每当我们要对一条记录做改动时(
INSERT、DELETE、UPDATE
),都需要“留一手”——把回滚时所需的东西记录下来- 当
插入一条记录
时,至少要把这条记录的主键值记录下来,之后回滚的时候只需要把这个主键值对应的记录删掉
就好了。(对于每个INSERT,InnoDB存储引擎会完成一个 DELETE) - 当
删除一条记录
时,至少要把这条记录中的内容都记下来,这样之后回滚时再把由这些内容组成的记录插入
到表中就好了。(对于每个DELETE,InnoDB存储引擎会执行一个 INSERT) - 当
修改一条记录
时,至少要把修改这条记录前的旧值都记录下来,这样之后回滚时再把这条记录更新为旧值
就好了。
- 当
3.2、Undo 日志的作用
- 作用一:回滚数据
Undo
用于将数据库物理层恢复到执行语句或事务之前的样子(新增而造成的新增页是无法恢复的)。但事实并非如此。Undo是逻辑日志
,因此只是将数据库逻辑恢复到原来的样子。所有修改都被逻辑取消了,但是数据结构
和页
本身在回滚之后可能大不相同。这是因为在多用户并发系统中,可能会有数十、数百甚至数千个并发事务。数据库的主要任务就是协调对数据记录的并发访问。如:一个事务在修改当前一个页中某几条记录,同时还有别的事务在同一个页中另几条记录进行修改。因此,不能将一个页回滚到事务开始的样子,因为这样会影响其他事务正在进行的工作
- 作用二:MVCC
Undo
的另一个作用是MVCC,即在InnoDB存储引擎中MVCC的实现是通过Undo来完成。当用户读取一行记录时,若该记录已经被其他事务占用,当前事务可以通过Undo读取之前的行版本信息,以此实现非锁定读取
3.3、undo的存储结构
3.3.1、回滚段与undo页
InnoDB对undo log的管理采用
段
的方式,也就是回滚段(rollback segment)
。每个回滚段记录了1024
个undo log segment
,而在每个undo log segment
段中进行undo页
的申请。
-
在
InnoDB1.1版本之前 (不包括1.1版本)
,只有一个rollback segment
,因此支持同时在线的事务限制为1024
。虽然对绝大多数的应用来说都已经够用 -
从1.1版本开始InnoDB支持最大
128个rollback segment
,故其支持同时在线的事务限制提高到了128*1024
-
InnoDB版本支持 128 个
Rollback Segment
,但是这些Rollback Segment
都存储于共享表空间ibdata
中。从InnoDB1.2版本开始,可以通过参数对Rollback Segment
做进一步的设置。这些参数包括:-
innodb_undo_directory
:设置Rollback Segment
文件所在的路径。这意味着Rollback Segment
可以存放在共享表空间以外的位置,即可以设置为独立表空间
-
innodb_undo_logs
:设置Rollback Segment
的个数,默认值为128。在InnoDB1.2版本中,该参数用来替换之前版本的参数innodb_rollback_segments
-
innodb_undo_tablespaces
:设置构成 文件的Rollback Segment
数量,这样Rollback Segment
可以较为平均地分布在多个文件中。设置改参数后,会在路径innodb_undo_directory
看到undo为前缀的文件,该文件就代表Rollback Segment
文件
-
-
undo页的重用
当开启一个事务需要写 undo log 的时候,就得先去
undo log segment
中去找到一个空闲的位置,当有空位的时候,就去申请undo页,在这个申请到的undo页
中进行undo log
的写入。我们知道MySQL默认一页的大小16KB
。
为每一个事务分配一个页,是非常浪费的(除非事务非常长),假设你的应用的TPS(每秒处理的事务数目)为1000,那么1s就需要 1000 个页,大概需要16M
的存储,1分钟大概需要1G
的存储。如果照这样下去除非MySQL清理的非常勤快,否则随着时间的推移,磁盘空间会增长的非常快,而且很多空间都是浪费的。
于是undo页就被设计的可以重用
了,当事务提交时,并不会立刻删除undo页
。因为重用,所以这个undo页可能混杂着其他事务的undo log。undo log在commit后,会被放到一个链表
中,然后判断 undo 页的使用空间是否小于 3/4
,如果小于3/4的话,则表示当前的undo页可以被重用,那么它就不会被回收,其他事务的undo log可以记录在当前undo页的后面。由于 undo log 是离散的
,所以清理对应的磁盘空间时,效率不高
3.3.2、回滚段与事务
- 每个事务只会使用一个回滚段,一个回滚段在同一时刻可能会服务于多个事务
- 当一个事务开始的时候,会制定一个回滚段,在事务进行的过程中,当数据被修改时,原始的数据会被复制到回滚段。
- 在回滚段中,事务会不断填充盘区,直到事务结束或所有的空间被用完。如果当前的盘区不够用,事务会在段中请求扩展下一个盘区,如果所有已分配的盘区都被用完,事务会覆盖最初的盘区或者在回滚段允许的情况下扩展新的盘区来使用。
- 回滚段存在于undo表空间中,在数据库中可以存在多个undo表空间,但同一时刻只能使用一个undo表空间。
-
- 当事务提交时,InnoDB存储引擎会做以下两件事情:
- 将undo log放入列表中,以供之后的purge操作
- 判断undo log所在的页是否可以重用,若可以分配给下个事务使用
3.3.3、回滚段中的数据分类
-
未提交的回滚数据(uncommitted undo information)
:该数据所关联的事务并未提交,用于实现读一致性,所以该数据不能被其他事务的数据覆盖
-
-
已经提交但未过期的回滚数据(committed undo information)
:该数据关联的事务已经提交,但是仍受到undo retention
参数的保持时间的影响
-
-
事务已经提交并过期的数据(expired undo information)
:事务已经提交,而且数据保存时间已经超过undo retention
参数指定的时间,属于已经过期的数据。当回滚段满了之后,会优先覆盖“事务已经已经提交并过期的数据”
-
- 事务提交后并不能马上删除
undo log
及undo log
所在的页。这是因为可能还有其他事务需要通过undo log
来得到行记录之前的版本。故事务提交时将undo log
放入一个链表中,是否可以最终删除undo log
及undo log
所在页由purge
线程来判断
3.4、 undo的类型
- insert undo log
insert undo log
是指在 INSERT 操作中产生的undo log。因为INSERT操作的记录,只对事务本身可见,对其他事务不可见(这是事务隔离性的要求),故该 undo log 可以在事务提交后直接删除。不需要进行 purge操作
- update undo log
update undo log记录的是对 DELETE 和 UPDATE 操作产生的 undo log。该 undo log 可能需要提供 MVCC 机制,因此不能在事务提交时就进行删除。提交时放入 undo log 链表,等待 purge 线程进行最后的删除
3.5、undo log 的生命周期
3.5.1、简要生成过程
假设有 2 个数值,分别为A=1 和 B=2,然后将A修改为3,B修改为4
1、BEGIN;
2、记录 A=1 到 undo log;
3、update A=3;
4、记录 A=3 到 redo log;
5、记录 B=2 到 undo log;
6、update B=4;
7、记录 B=4 到 redo log;
8、将 redo log 刷新到磁盘;
9、commit;
- 在1~8步骤的任意一步系统宕机,事务未提交,该事务就不会对磁盘上的数据做任何影响
- 在8~9之间宕机,恢复之后可以选择回滚,也可以选择继续完成事务提交,因为此时 redo log 已经持久化
- 若在9之后系统宕机,内存映射中变更的数据还来不及刷会磁盘,那么系统恢复之后,可以根据
redo log
把数据刷回磁盘
3.5.2、没有 Redo-Log 和 Undo-Log刷盘原理 没有 Redo-Log 和 Undo-Log刷盘原理.png
3.5.3、有了 Redo-Log 和 Undo-Log刷盘原理 Redo-Log 和 Undo-Log刷盘原理.png
3.5.4、生成过程
对于InnoDB引擎来说,每个行记录除了记录本身的数据之外,还有几个隐藏的列
-
DB_ROW_ID
:如果没有为表显式的定义主键
,并且表中也没有定义唯一索引
,那么InnoDB会自动为表添加一个row_id
的隐藏列作为主键 -
DB_TRX_ID
:每个事务都会分配一个事务ID,当对某条记录发生变更时,就会将这个事务的事务ID写入trx_id
中 -
DB_ROLL_PTR
:回滚指针,本质上就是指向undo log
的指针 - 行记录 行记录.png
3.5.4.1、执行 INSERT 时
BEGIN;
INSERT INTO user (name) VALUES ("tom");
image.png
3.5.4.2、执行 UPDATE 时
对于更新的操作会产生 update undo log,并且会分
更新主键
和不更新主键
UPDATE user SET name='SUN' WHERE id=1;
更新非主键.png
- 分析:这时会把老的记录写入新的 undo log,让回滚指针指向新的 undo log,它的undo no 是 1,并且新的undo log 会指向老的 undo log
3.5.4.3、更新主键
更新主键逻辑,删除旧数据,新增一条记录
UPDATE user SET id=2 WHERE id=1;
更新主键.png
- 分析
对于更新主键的操作,会先把原来的数据
deletemark
标识打开,这时并没有真正的删除数据,真正的删除会交给清理线程去判断,然后在后面插入一条新的数据,新的数据也会产生 undo log,并且 undo log 的序号会递增。可以发现每次对数据的变更都会产生一个 undo log,当一条记录被变更多次时,那么就会产生多条 undo log,undo log记录的是变更前的日志,并且每个 undo log的序号是递增的,那么当要回滚的时候,按照序号依次向前推
,就可以找到我们的原始数据
3.5.5、undo log 回滚过程
以上面例子为例,执行 ROLLBACK
- 通过undo no=3的日志把id=2的数据删除
- 通过undo no=2的日志把id=1的数据的deletemark还原成0
- 通过undo no=1的日志把id=1的数据的name还原成Tom
- 通过undo no=0的日志把id=1的数据删除
3.5.6、undo log 删除
- 针对于insert undo log
因为insert操作的记录,只对事务本身可见,对其他事务不可见。故该undo log可以在事务提交后直接删除,不需要进行purge操作
- 针对于update undo log
该undo log可能需要提供MVCC机制,因此不能在事务提交时就进行删除。提交时放入undo log链表,等待purge线程进行最后的删除
- purge 线程两个主要作用是:
清理undo页
和清除page里面带有 Delete_Bit标识的数据行
。在InnoDB中,事务中的DELETE操作实际上并不是真正的删除掉数据行,而是一种Delete Mark 操作,在记录上标识Delete_Bit,而不删除记录。是一种“假删除”,只是做了个标记,真正的删除工作需要后台purge线程去完成
四、小结
image.pngundo log是逻辑日志,对事务回滚时,只是将数据库逻辑地恢复到原来的样子
redo log是物理日志,记录的是数据页的物理变化,undo log不是redo log的逆过程
- 1、以
页
为单位从磁盘文件
中加载需要的数据到内存Buffer Pool
- 2、在对内存中
Buffer Pool
的数据进行修改时,首先将现在的旧数据
写入undo日志文件
便于回滚 - 3、更新内存中
Buffer Pool
的数据 - 4、在执行第3步的同时把相应的记录写入
Redo Log Buffer
中,为出现异常时持久化恢复数据做准备 - 5、把
Redo Log Buffer
中的内容刷盘到系统缓存(OS Cache),由系统策略在定时刷新到redo日志文件 - 6、有了
undo log
日志文件就可以保证事务的原子性 - 7、有了
redo log
日志文件就可以保证事务的持久性
网友评论