美文网首页
ehcache的clear()方法使用不当引起的gc

ehcache的clear()方法使用不当引起的gc

作者: 猫尾草 | 来源:发表于2021-12-16 00:23 被阅读0次

    1. 问题:

    线上的一个服务需要做缓存,并且每隔 10s 刷新一次缓存,使用了 Ehcache 框架。
    为了避免缓存的并发读写问题(仔细研究 ehcache 就会发现这并不是问题),当时设计了两个 Cache 对象轮流使用的方式,即 使用(读取)缓存 A 的过程中刷新缓存 B,时间到之后使用缓存 B,使用缓存B的过程中再去刷新缓存 A,循环往复。
    上线一段时间后,服务在峰值期间会在某个时间点开始 young GC 变得非常频繁,老年代大小快速增长随后引发多次 mixed GC(使用的是G1),服务峰值过后会自愈,但服务峰值期间重启无效。

    2. 问题分析

    使用 jmap 得到 mixed gc 发生前后的直方图,发现 mixed gc 时有大量的
    org.ehcache.impl.internal.concurrent.ConcurrentHashMap$Node
    ,即问题出现 ehcache 缓存上。

    因为是频繁的young gc 然后引发多次的 mixed gc 并且 mixed gc 能回收大量堆内存,所以肯定是因为某种原因持续不断的产生了大量对象,并且这种对象经过多次 young gc 仍然存活然后进入了老年代。


    首先想到的是服务峰值期间 young gc 太频繁,导致 10s 缓存期间缓存对象的 gc 年龄达到了最大值,进入了老年代。那么观察两个指标:

    1. young gc 频率
    2. jvm 设置的老年代晋升年龄

    对应如下:

    1. 10s刷新一次缓存,AB轮流,所以缓存最长生存 20s(不可能达到20s),发生问题时服务平均 30s 进行一次 young gc
    2. 使用的是默认晋升年龄15(实际上晋升年龄是动态调整的,但是这里不影响)

    所以不可能通过正常的 young gc 产生这么多晋升老年代的 缓存对象。


    运维通过压测得出结论,当缓存数量超过19.8万时才会出现这个问题。说明这些被缓存的Node对象正常是能够被 young GC 回收掉的,并没有进入老年代。那么为什么数据到达 19.8 万之后这些对象就没有被回收掉呢?


    仔细看 gc 日志,偶然注意到发生 mixed gc之前开始出现多次:
    [GC pause (G1 Humongous Allocation)
    意味着发生了大对象直接分配在老年代。


    在G1中,如果一个对象的大小超过分区大小的一半,该对象就被定义为大对象(Humongous Object)。大对象时直接分配到老年代分区,分配之后也不会被移动。
    如果缓存作为大对象分配在老年代,那么缓存的Node因为被缓存集合对象引用,也无法回收,最终进入老年代?
    G1的分区大小对照表:

    最小堆大小 分区的大小
    heap < 4GB 1MB
    4GB <= heap < 8GB 2MB
    8GB <= heap < 16GB 4MB
    16GB <= heap < 32GB 8MB
    32GB <= heap < 64GB 16MB
    64GB <= heap 32MB

    我们的服务是8G的堆,所以大于 2MB 就是大对象。
    我们来算一下存放 19.8w 个 Node 的 ConcurrentHashMap 应该是多大:

    HashMap 中 Node 数组大小应该是 2 的 n 次方,并且算上承载因子 0.75 后应该大于19.8万,最后计算得到应该是 262144 个。
    4 byte * 262144 = 1M (HashMap保存的是Node的引用,引用压缩之后是 4 byte,压测数据还是很靠谱的)。
    如果大于19.8w个,HashMap需要翻倍扩容,就大于 2M 了,这时候就是个大对象了。


    刚要兴奋,找到了问题,突然一想又不对。虽然大对象 HashMap 在老年代,但是这些Node 只是在 HashMap 中有个引用,Node 本体还是在年轻代,10s后就作为垃圾回收了,并不会进入老年代。
    这时候我们的任务就变成了寻找为什么Node会进入老年代。这是一个很曲折的过程,怎么发现的已经回想不清,这里只能给出结果。

    3. ehcache的clear()方法的特殊之处

    首先我们来看一段代码。java.util.ConcurrentHashMap 有一个 clear() 方法,用于清楚当前所持有的所有 key-value 数据:

    public void clear() {
        long delta = 0L; 
        int i = 0;
        Node<K,V>[] tab = table;
        while (tab != null && i < tab.length) {
            int fh;
            Node<K,V> f = tabAt(tab, i);
            if (f == null)
                ++i;
            else if ((fh = f.hash) == MOVED) {
                tab = helpTransfer(tab, f);
                i = 0; // restart
            }
            else {
                synchronized (f) {
                    if (tabAt(tab, i) == f) {
                        Node<K,V> p = (fh >= 0 ? f :
                                       (f instanceof TreeBin) ?
                                       ((TreeBin<K,V>)f).first : null);
                        while (p != null) {
                            --delta;
                            p = p.next;
                        }
                        setTabAt(tab, i++, null);
                    }
                }
            }
        }
        if (delta != 0L) {
            addCount(delta, -1);
        }
    }
    

    即使你看不懂这段代码也没关系,你应该能看出来这段代码在把当前 map 中的数据去掉。这个操作很符合我们对于 clear() 的认知,事实上 jdk 中集合类的 clear() 方法也基本是这个效果。
    我们仔细去debug ehcache 的 clear() 方法(一定要debug,不然接口有多个实现类根本不知道是哪个):
    Ehcache.clear() -> EhcacheBase.clear() -> OnHeapStore.clear() -> SimpleBackend.clear()
    SimpleBackend.clear() 就是最终操作,它做了什么呢?

        public void clear() {
            // 如果你去下载源码,就可以看到下面的注释,"这比清理map快"
            // This is faster than performing a clear on the underlying map
            this.realMap = (EvictingConcurrentMap)this.realMapSupplier.get();
        }
    

    每次 clear() 都是创建了一个新的 EvictingConcurrentMap 对象,让 SimpleBackend 的属性 realMap 指向新对象,即使用这个新对象来存储缓存数据。旧对象呢?旧对象不再被引用,变成垃圾。如果频繁使用 clear() 方法,就会产生大量的等待回收的 EvictingConcurrentMap 对象。
    在我们这里,这些 clear() 后产生的 HashMap 都是大对象,那么发生 mixed gc 之前就不会被回收,被引用的Node也就不能被回收,从而经过多次 young gc 之后进入老年代,导致老年代迅速增长:

    1. 每10s增加一个HashMap对象2M
    2. HashMap的key-value分别为 Long 和 CopiedOnHeapValueHolder,所以持有的对象数组是 Node<Long, CopiedOnHeapValueHolder<Object>>[], 其中 Object 就是缓存的数据,一个Node 大概 136 byte,20w 个就是 27M
      。定时任务每10s一次,每次29M,半小时 27M * 6 * 30 = 5.22G,不到半小时就要产生一次 mixed gc。

    4. clear() 方法创建 EvictingConcurrentMap 对象的解释

    这里使用了函数式接口,如果不了解函数式接口可能会看不懂为什么 clear() 方法会新建一个 EvictingConcurrentMap 对象。
    realMapSupplier 是 OnHeapStore 类的属性,它的类型是 Supplier<EvictingConcurrentMap<K, OnHeapValueHolder<V>>>, 而 Supplier 是一个带泛型的函数式接口:

    @FunctionalInterface
    public interface Supplier<T> {
        T get();
    }
    

    任意一个类如果实现了 get() 方法,就是实现了这个函数式接口,而 java 类的构造函数恰好可以算作实现了 get() 方法。
    realMapSupplier 的初始化在 OnHeapStore 的构造函数中,OnHeapStore 的构造函数的调用在自己的子类 Provider 中:

    OnHeapStore<K, V> onHeapStore = new OnHeapStore(storeConfig, timeSource, keyCopier, valueCopier, >sizeOfEngine, eventDispatcher, ConcurrentHashMap::new);
    

    所以 realMapSupplier 的实现就是 ConcurrentHashMap::new 即 ConcurrentHashMap 的构造函数, 每次调用 realMapSupplier.get() 就会得到一个 ConcurrentHashMap 对象。

    相关文章

      网友评论

          本文标题:ehcache的clear()方法使用不当引起的gc

          本文链接:https://www.haomeiwen.com/subject/qhvbfrtx.html