农历新年的最后一天,趁着假期看看代码,顺便做点笔记。时间上比较仓促,如有问题/疑问,欢迎指出。
简介
LevelDB 的写操作是 Append-Only 的,新的数据写入后,相应的旧数据就过期了。过期的数据需要被 Garbage Collection,不然数据文件的体积会持续膨胀,这是不可接受的。
LevelDB 通过后台线程的 compation 来对过期数据进行 Garbage Collection。
分析
LevelDB 在执行读操作和写操作的时候都有可能会调用 MaybeScheduleCompaction
函数,MaybeScheduleCompaction
有可能触发 compaction。
-
读操作调用
MaybeScheduleCompaction
(相关代码)
if (have_stat_update && current->UpdateStats(stats)) {
MaybeScheduleCompaction();
}
- 当本次读取的数据没有在 MemTable 和 Immutable MemTable 命中, 而是从 SST 文件查找时,
have_stat_update
为true
。(相关代码 ) - 从 SST 文件查找时,如果查找的文件多于一个,则记录下第一个查找的文件,存放在
stats
。(相关代码) -
UpdateStats
函数根据步骤 2 记录下的 SST 文件,allowed_seeks
(一开始初始化为 2^30)减 1。当allowed_seeks <= 0
且当前没有其它文件等待 compaction 时,记录当前文件为待 compaction 的文件,并返回 true ,否则返回 false。(相关代码)
- 个人理解
浏览代码的时候,上面 2 和 3 的逻辑让我不是很好理解。自己思考了一下,现在来尝试回答一下(不一定完全准确)。
LevelDB-多级缓存结构.PNGLevelDB 的结构,其实就是一个多级缓存的结构。看看读操作的顺序就是很好理解这个多级缓存结构。
- MemTable 是 Immutable MemTable 的缓存。
- Immutable MemTable 是 Level 0 的缓存。
- Level0 是 Level1 的缓存。
- Level1 是 Level2 的缓存。
- ...
从 SST 文件进行查找时,首先根据要查找的 Key 从文件的元数据(记录着每一个 SST 文件 Key 范围)找出每个 Level 对应的文件(某些 Level 可能没有对应的文件,Level0 可能有多个对应文件)。按照文件的新旧排序,就组成这个 Key 对应的一个多级缓存。查找的时候也是按照这个顺序,如果最新的 SST_n 文件命中目标,则直接返回结果,否则继续查找 SST_n-1、SST_n-2 ...
Level-SST-Cache.PNG这种情况下,我们自然希望大部分请求都能在第一个 SST 文件命中,这样效率最高。
如果有很多请求不能从第一个查找的文件命中目标,说明,这个文件的 Key 并没有缓存的价值,应该把这个文件向下一级 Level 合并掉,这样可以减少无效的文件查找。
- 写操作调用
MaybeScheduleCompaction
写操作会调用 MakeRoomForWrite
为即将写入数据准备空间。整个逻辑由下面几个分支组成。(相关代码)
-
!bg_error_.ok()
:后台任务有错误,直接返回错误。 -
allow_delay && versions_->NumLevelFiles(0) >= config::kL0_SlowdownWritesTrigger
:正常的写操作都allow_delay
都为true
。Level0 的文件数量超过了config::kL0_SlowdownWritesTrigger
,说明有可能写入太多了,后台线程来不及 Compaction,需要减慢写操作。LevelDB 减慢写操作的方法是,每个写操作 sleep 1ms。 -
!force && (mem_->ApproximateMemoryUsage() <= options_.write_buffer_size)
:MemTable 还有足够的空间支持这次写入,直接返回。 -
imm != NULL
: 来到这里说明 MemTable 的空间不够了,且 Immutable MemTable 还存在(没被 compaction 或 正在被 compaction),需要等到compaction 完成。 -
versions_->NumLevelFiles(0) >= config::kL0_StopWritesTrigger
: Level0 的文件实在太多了,停止写入操作,等待 compaction 完成。 -
来到这里说明:1. Level0 的文件数量在正常范围内;2. Immutable MemTable 已经被 Compact;3. MemTable 已经满了。此时会切换 MemTable,并调用
MaybeScheduleCompaction
。
-
MaybeScheduleCompaction
的实现(相关代码 )
MaybeScheduleCompaction
函数的实现比较简单:判断几个分支的情况,最后确定需要 Compaction 则将任务交交给后台线程。
-
bg_compaction_scheduled_
: 后台线程已经在进行 compaction。 -
shutting_down_.Acquire_Load()
:正在关闭数据库。 -
!bg_error_.ok()
: 后台任务错误。 -
imm_ == NULL && manual_compaction_ == NULL && !versions_->NeedsCompaction()
:不需要 compaction。 - 由后台线程调用
DBImpl::BGWork
进行compaction。DBImpl::BGWork
直接调用了DBImpl::BackgroundCall
。 (相关代码)
-
DBImpl::BackgroundCall
的实现(相关代码)
- 调用
BackgroundCompaction
执行 compaction 。 - 调用
MaybeScheduleCompaction
尝试再触发 compaction。
-
DBImpl::BackgroundCompaction
的实现 (相关代码)
- 持久化 Immutable MemTable:如果存在 Immutable MemTable,则调用
CompactMemTable
进行 compaction。一个 Immutable MemTable 被持久化为 Level0 的一个 SST 文件。(相关代码) -
非人工触发,调用
VersionSet::PickCompaction
,获得一个Compaction
对象。class Compaction
封装了本次要进行 compaction 的信息。(class Compaction
的相关代码 )。人工触发的 compaction 走另一个分支,暂不讨论。 -
VersionSet::PickCompaction
选择要进行 compaction 的文件的策略有两种(相关代码):
1)size compaction,某一 Level 的数据太多了;
2)seek compaction,太多查询没有命中第一个 SST 文件。
另外还有一点要注意的就是 Level0 需要特殊处理,因为每个文件的 Key 范围可能是相交的。 - LevelDB 的 compaction 是 Level_n-1 合并到 Level_n。一些比较特殊的情况,只需要把 Level_n-1 的文件**移到 ** Level_n 即可。
- 一般的 compaction 分下面几步:
1)调用DoCompactionWork
, 执行 compaction。
2)调用CleanupCompaction
,清理已经完成的 compaction 完成。
3)调用DeleteObsoleteFiles
, 删除无效文件。
小结
- Compaction 都是通过
MaybeScheduleCompaction
函数触发的。 - Compaction 是单线程异步完成的。
-
seek compaction:LevelDB 在 SST 文件查找效率较低时(太多请求不在第一个 SST 文件命中,导致
allowed_seeks
小于等于 0)会触发 compaction。 - LevelDB 切换 MemTable 会生成 Immutable MemTable,需要将 Immutable MemTable 持久化,此时会触发 compaction。
-
size compaction :每次执行 Compaction 的任务完成后,会尝试再次调用
MaybeScheduleCompaction
。因为有可能 level_n 的这次 compaction 导致 level_n+1 的 size 太大,需要进行 compaction。 - Compaction 是单线程异步完成的,所以,LevelDB 的写入速度在一定程度上受限于 compaction 的速度。对于写入量比较平稳的业务可能影响不大,但是对于经常有写入峰值的业务,峰值时的写入请求可能会受影响。
网友评论