美文网首页
高并发基础:缓存淘汰算法的 FIFO、LRU、LFU 详解

高并发基础:缓存淘汰算法的 FIFO、LRU、LFU 详解

作者: you的日常 | 来源:发表于2021-12-28 09:53 被阅读0次

    缓存淘汰算法

    在高并发、高性能的质量要求不断提高时,我们首先会想到的就是利用缓存予以应对。

    第一次请求时把计算好的结果存放在缓存中,下次遇到同样的请求时,把之前保存在缓存中的数据直接拿来使用。

    但是,缓存的空间一般都是有限,不可能把所有的结果全部保存下来。那么,当缓存空间全部被占满再有新的数据需要被保存,就要决定删除原来的哪些数据。如何做这样决定需要使用缓存淘汰算法。

    常用的缓存淘汰算法有:FIFO、LRU、LFU,下面我们就逐一介绍一下。

    FIFO

    FIFO,First In First Out,先进先出算法。判断被存储的时间,离目前最远的数据优先被淘汰。简单地说,先存入缓存的数据,先被淘汰。

    最早存入缓存的数据,其不再被使用的可能性比刚存入缓存的可能性大。建立一个FIFO队列,记录所有在缓存中的数据。当一条数据被存入缓存时,就把它插在队尾上。需要被淘汰的数据一直在队列头。这种算法只是在按线性顺序访问数据时才是理想的,否则效率不高。因为那些常被访问的数据,往往在缓存中也停留得最久,结果它们却因变“老”而不得不被淘汰出去。

    FIFO 算法用队列实现就可以了,这里就不做代码实现了。

    LRU

    LRU,Least Recently Used,最近最少使用算法。判断最近被使用的时间,目前最远的数据优先被淘汰。简单地说,LRU 的淘汰规则是基于访问时间。

    如果一个数据在最近一段时间没有被使用到,那么可以认为在将来它被使用的可能性也很小。因此,当缓存空间满时,最久没有使用的数据最先被淘汰。

    在Java中,其实LinkedHashMap已经实现了LRU缓存淘汰算法,需要在构造函数第三个参数传入true,表示按照时间顺序访问。可以直接继承LinkedHashMap来实现。

    package one.more;
    
    import java.util.LinkedHashMap;
    import java.util.Map;
    
    public class LruCache<K, V> extends LinkedHashMap<K, V> {
    
        /**
         * 容量限制
         */
        private int capacity;
    
        LruCache(int capacity) {
            // 初始大小,0.75是装载因子,true是表示按照访问时间排序
            super(capacity, 0.75f, true);
            //缓存最大容量
            this.capacity = capacity;
        }
    
        /**
         * 重写removeEldestEntry方法,如果缓存满了,则把链表头部第一个节点和对应的数据删除。
         */
        @Override
        protected boolean removeEldestEntry(Map.Entry<K, V> eldest) {
            return size() > capacity;
        }
    }
    
    

    写一个简单的程序测试一下:

    package one.more;
    
    public class TestApp {
    
        public static void main(String[] args) {
            LruCache<String, String> cache = new LruCache(3);
            cache.put("keyA", "valueA");
            System.out.println("put keyA");
            System.out.println(cache);
            System.out.println("=========================");
    
            cache.put("keyB", "valueB");
            System.out.println("put keyB");
            System.out.println(cache);
            System.out.println("=========================");
    
            cache.put("keyC", "valueC");
            System.out.println("put keyC");
            System.out.println(cache);
            System.out.println("=========================");
    
            cache.get("keyA");
            System.out.println("get keyA");
            System.out.println(cache);
            System.out.println("=========================");
    
            cache.put("keyD", "valueD");
            System.out.println("put keyD");
            System.out.println(cache);
        }
    }
    
    

    运行结果如下:

    put keyA
    {keyA=valueA}
    =========================
    put keyB
    {keyA=valueA, keyB=valueB}
    =========================
    put keyC
    {keyA=valueA, keyB=valueB, keyC=valueC}
    =========================
    get keyA
    {keyB=valueB, keyC=valueC, keyA=valueA}
    =========================
    put keyD
    {keyC=valueC, keyA=valueA, keyD=valueD}
    
    

    当然,这个不是面试官想要的,也不是我们想要的。我们可以使用双向链表和哈希表进行实现,哈希表用于存储对应的数据,双向链表用于数据被使用的时间先后顺序。

    在访问数据时,如果数据已存在缓存中,则把该数据的对应节点移到链表尾部。如此操作,在链表头部的节点则是最近最少使用的数据。

    当需要添加新的数据到缓存时,如果该数据已存在缓存中,则把该数据对应的节点移到链表尾部;如果不存在,则新建一个对应的节点,放到链表尾部;如果缓存满了,则把链表头部第一个节点和对应的数据删除。

    相关文章

      网友评论

          本文标题:高并发基础:缓存淘汰算法的 FIFO、LRU、LFU 详解

          本文链接:https://www.haomeiwen.com/subject/orjhqrtx.html