美文网首页jvmJVM
频繁操作本地缓存导致YGC耗时过长

频繁操作本地缓存导致YGC耗时过长

作者: 阿菜的博客 | 来源:发表于2018-08-02 19:33 被阅读658次

    某天,某位群友在JVM讨论群里发来一张GC log的图片。

    其中主要的问题是YGC过长,每次耗时约为200ms。

    YGC耗时过长

    使用的JVM参数如下:

    -Xmn2048m -Xms4096m -Xmx4096m -XX:+PrintGC -XX:+PrintGCTimeStamps -XX:+PrintGCDetails -XX:+PrintHeapAtGC -XX:+PrintTenuringDistribution -XX:MetaspaceSize=128M -XX:MaxMetaspaceSize=128M

    指定年轻代内存为2g,初始JVM内存为4g,最大JVM内存为4g。


    这个问题引起了群友们的关注。

    从GC log和JVM参数可以看出,GC算法使用默认的Parallel Scanvenge。

    可以看到Eden区大小为1536M,两个Survivor区大小为256M。

    得出-XX:SurvivorRatio = 6。

    此外可以看到在GC时,desired survivor size 268435456 bytes = 256M,得出-XX:TargetSurvivorRatio = 100。

    默认情况下,-XX:SurvivorRatio = 8,-XX:SurvivorRatio = 50。

    然而并未设置这两个参数,一直怀疑是配置没有生效。

    一时没有想到办法,有群友建议试着调整下 MaxGCPauseMills 或者 GCTimeRatio 参数。

    然后效果都不好。


    之后的某天,尝试使用jmap -heap pid打印应用的堆栈信息。

    jmap查看应用堆栈信息

    发现虽然写着SurvivorRatio = 8,但是E:S0:S1的比例并非是8:1:1。

    于是开始寻找原因。

    找到来自R大的回答:

    http://hllvm.group.iteye.com/group/topic/35468

    HotSpot VM里,ParallelScavenge系的GC(UseParallelGC / UseParallelOldGC)默认行为是SurvivorRatio如果不显式设置就没啥用。显式设置到跟默认值一样的值则会有效果。

    因为ParallelScavenge系的GC最初设计就是默认打开AdaptiveSizePolicy的,它会自动、自适应的调整各种参数。

    于是推荐群友尝试使用CMS,让这些配置固定下来,不做自适应调整。

    但设置之后,发现YGC效果依旧不好。

    jstat信息

    显示发生4次YGC,耗时1.145s,平均耗时约286ms,情况反而更糟。


    回头再次分析GC log。

    发现日志中有这么一行。

    new threshold 7 (max 15)

    JVM中有个参数为晋升年龄阈值(-XX:MaxTenuringThreshold),默认值为15。

    意思为在YGC时,超过该年龄的对象会被晋升到老年代。

    但GC log中显示该阈值被修改成了7。

    在年轻代对象晋升时,有一个判断条件如下:

    动态年龄判断,大于等于某个年龄的对象超过了survivor空间一半,大于等于某个年龄的对象直接进入老年代。

    得出,在某次YGC时,Survivor区中,年龄超过7的对象占用了Survivor空间一半以上。

    而正常情况下,年轻代对象朝生夕死。

    网络服务处理请求为毫秒级,YGC几秒甚至十几秒才发生一次。

    多数年轻对象活不过1代。

    于是,猜测该群友使用了本地缓存。


    在得到肯定的回复后,详细询问了群友使用本地缓存的方法。

    自行实现了一个本地缓存,类似于HashMap。

    别的服务会每一分钟推送缓存数据用于同步。

    在同步的时候不做diff操作,直接put。

    举例:

    缓存中保存Person类。

    @Data
    class Person {
    
        private String name;
    
        private Integer age;
    }
    

    缓存内容可能为:

    {
        "jjs":{
            "age":27,
            "name":"jjs"
        }
    }
    

    缓存同步涉及两种操作:新增和覆盖

    两种操作均直接使用put操作实现,无论当前缓存key是否已经存在。

    这样的操作方法在业务上完全没有问题。

    但对于GC而言,每次缓存同步需要new很多新的对象,并且这些对象都将一直存活,直到被覆盖,或者晋升到老年代。

    这些缓存对象首先会被分配到年轻代,在YGC时候,这些对象都会被标记为存活。

    得到YGC耗时过长原因一:

    年轻代中有太多存活的对象,增加了标记时间。

    此外,HashMap是数组加链表的结构,使用Node结构用于保存key、value。

    HashMap的Node结构如下:

        static class Node<K,V> implements Map.Entry<K,V> {
            final int hash;
            final K key;
            V value;
            Node<K,V> next;
        }
    

    每次put生成的node节点,很可能(hash冲突)被挂在已有node节点的next域上。

    已有node为缓存,长期存活,很有可能位于老年代。

    那么,就形成了老年代对象对年轻代对象的引用。

    在YGC中,需要扫描Card Table中的dirty区域来识别被老年代对象引用的年轻代对象。

    正常情况下,这种情形并不多。但在本文例子中,会大量存在。

    得到YGC耗时过长原因二:

    YGC又需要花费大量的时间在扫描Card Table上。

    总结原因是操作本地缓存太频繁导致了YGC耗时过长。


    回顾YGC的大致过程:

    YGC / 图片来自Garbage Collection in the Java HotSpot Virtual Machine
    1. 从根节点开始扫描年轻代对象,直到扫描到下个引用为非年轻代对象。(可以避免YGC扫描整个堆。)
    2. 扫描老年代dirty区域,即可扫描到被老年代对象引用的年轻代对象。(老年代被分为不同的块,Card Table字节数组中每个字节表示老年代中的一块。新分配对象时,触发写屏障,存在有老年代对象引用年轻代对象时,将对应的卡表设置为dirty。)
    3. 将Eden和From区中的对象复制到To区。如果To区已满,则直接复制到老年代。

    YGC耗时过长问题的排查还是应该从两个点出发:

    1. YGC时存活的年轻代对象太多。

    2. 老年代对象引用年轻代对象的情况太多。


    解决方案:

    修改代码需要一定的时间,群友采用了一种短期的办法。

    修改了推送的周期。原来每一分钟推送一次。

    YGC下降到18-25ms,但在缓存推送时,YGC时间仍然达到200ms。

    两次缓存推送之间的对象都符合朝生夕死的弱分代假设,YGC时间正常。


    后续修改思考/建议:

    • 分批推送缓存,并且在接到推送的缓存时做diff操作,尽量修改已有对象而非新建对象。此举可减少长寿对象生成。
    • 即使使用分批推送,在应用启动时,还是需要全量加载缓存。仍旧会面临应用刚启动时,YGC耗时过长的问题。
    • 重新规划应用。因为经常变化的数据并不适合放在缓存中。
    • 使用Redis缓存。Redis的响应时间为毫秒级,甚至只需几毫秒,并且无需考虑分布式下缓存同步问题。
    • 使用CMS垃圾回收算法。因为默认和Parallel Scanvenge算法配合的老年代回收算法是Serial Old或者Parallel Old。该算法需要标记清理压缩,STW时间较长。

    相关文章

      网友评论

        本文标题:频繁操作本地缓存导致YGC耗时过长

        本文链接:https://www.haomeiwen.com/subject/bzrsvftx.html