前言
笔者一个同事面试某大厂时问到的一个问题,这里拿来讲讲:Redis过期后key是怎么样清理的?
在Redis中,对于过期key的清理主要有惰性清除,定时清理,内存不够时清理三种方法,下面我们就来具体看看这三种清理方法。
惰性清除
在访问key时,如果发现key已经过期,那么会将key删除。
定时清理
Redis配置项hz定义了serverCron任务的执行周期,默认每次清理时间为25ms,每次清理会依次遍历所有DB,从db随机取出20个key,如果过期就删除,如果其中有5个key过期,那么就继续对这个db进行清理,否则开始清理下一个db。
内存不够时清理
当执行写入命令时,如果发现内存不够,那么就会按照配置的淘汰策略清理内存,淘汰策略一般有6种,Redis4.0版本后又增加了2种,主要由分为三类
第一类 不处理,等报错(默认的配置)noeviction,发现内存不够时,不删除key,执行写入命令时直接返回错误信息。(Redis默认的配置就是noeviction)
第二类 从所有结果集中的key中挑选,进行淘汰allkeys-random 就是从所有的key中随机挑选key,进行淘汰allkeys-lru 就是从所有的key中挑选最近使用时间距离现在最远的key,进行淘汰allkeys-lfu 就是从所有的key中挑选使用频率最低的key,进行淘汰。(这是Redis 4.0版本后新增的策略)
第三类 从设置了过期时间的key中挑选,进行淘汰这种就是从设置了expires过期时间的结果集中选出一部分key淘汰,挑选的算法有:volatile-random 从设置了过期时间的结果集中随机挑选key删除。volatile-lru 从设置了过期时间的结果集中挑选上次使用时间距离现在最久的key开始删除volatile-ttl 从设置了过期时间的结果集中挑选可存活时间最短的key开始删除(也就是从哪些快要过期的key中先删除)volatile-lfu 从过期时间的结果集中选择使用频率最低的key开始删除(这是Redis 4.0版本后新增的策略)
LRU算法
LRU算法的设计原则是如果一个数据近期没有被访问到,那么之后一段时间都不会被访问到。所以当元素个数达到限制的值时,优先移除距离上次使用时间最久的元素。
可以使用双向链表Node+HashMap<String, Node>来实现,每次访问元素后,将元素移动到链表头部,当元素满了时,将链表尾部的元素移除,HashMap主要用于根据key获得Node以及添加时判断节点是否已存在和删除时快速找到节点。
PS:使用单向链表能不能实现呢,也可以,单向链表的节点虽然获取不到pre节点的信息,但是可以将下一个节点的key和value设置在当前节点上,然后把当前节点的next指针指向下下个节点,这样相当于把下一个节点删除了
//双向链表
public static class ListNode {
String key;//这里存储key便于元素满时,删除尾节点时可以快速从HashMap删除键值对 Integer value;
ListNode pre = null;
ListNodenext= null;
ListNode(String key, Integer value) {
this.key = key;
this.value = value;
}
}
istNode head;
ListNode last;
int limit=4;
HashMap hashMap = new HashMap();
public void add(String key, Integer val) {
ListNode existNode = hashMap.get(key);
if(existNode!=null) {
//从链表中删除这个元素
ListNode pre = existNode.pre;
ListNodenext= existNode.next;
if(pre!=null) {
pre.next=next;
}if(next!=null) {
next.pre = pre;
}
//更新尾节点
if(last==existNode) {
last = existNode.pre;
}
//移动到最前面
head.pre = existNode;
existNode.next= head;
head = existNode;
//更新值
existNode.value = val;
}else{
//达到限制,先删除尾节点
if(hashMap.size() == limit) {
ListNode deleteNode = last;
hashMap.remove(deleteNode.key);
//正是因为需要删除,所以才需要每个ListNode保存key
last = deleteNode.pre;
deleteNode.pre = null;
last.next= null;
}
ListNode node = new ListNode(key,val);
hashMap.put(key,node);if(head==null) {
head = node;
last = node;
}else{
//插入头结点
node.next= head;
head.pre = node;
head = node;
}
}
}
public ListNode get(String key) {
returnhashMap.get(key);
}
public voidremove(String key) {
ListNode deleteNode = hashMap.get(key);
ListNode preNode = deleteNode.pre;
ListNode nextNode = deleteNode.next;
if(preNode!=null) {
preNode.next= nextNode;
}if(nextNode!=null) {
nextNode.pre = preNode;
}if(head==deleteNode) {
head = nextNode;
}if(last == deleteNode) {
last = preNode; }
hashMap.remove(key);
}
最后
LFU算法的设计原则时,如果一个数据在最近一段时间被访问的时次数越多,那么之后被访问的概率会越大,基本实现是每个数据都有一个引用计数,每次数据被访问后,引用计数加1,需要淘汰数据时,淘汰引用计数最小的数据。在Redis的实现中,每次key被访问后,引用计数是加一个介于0到1之间的数p,并且访问越频繁p值越大,而且在一定的时间间隔内,如果key没有被访问,引用计数会减少。
网友评论