美文网首页
ConcurrentHashMap原理

ConcurrentHashMap原理

作者: 爱健身的兔子 | 来源:发表于2021-03-29 10:24 被阅读0次

    1 ConcurrentHashMap介绍

    ConcurrentHashMap是HashMap的多线程版本,结构和HashMap一样是数组+链表+红黑树的结构,也有链表长度到达8时树化,变成6时退化。数组长度也是2的幂次方。

    当未ConcurrentHashMap指定初始容量是2的幂次方时,ConcurrentHashMap算出的初始容量是大于给定初始容量的最小2的幂次方的数据,但是HashMap将是给定的这个2的幂次方的数据。

    ConcurrentHashMap不支持key和value为null,HashMap支持。这是应为在多线程环境下无法保障数据获取返回null是ConcurrentHashMap是否存在这个key。

    ConcurrentHashMap对key取Hash值时,会保障Hash值是一个正整数。因为ConcurrentHashMap引入了-1,-2等负数Hash值做特殊用途。HashMap则没有。

    2 重要字段

        private transient volatile int sizeCtl;
        //扩容时线程每次领取完还剩余的任务
        private transient volatile int transferIndex;
        //标志数组的下标正在扩容
        static final int MOVED     = -1;
        //标志数组的下标存放的是树结构
        static final int TREEBIN   = -2;
    

    sizeCtl这个字段很重要,意义也很多:

    sizeCtl为0,代表数组未初始化, 且数组的初始容量为16

    sizeCtl为正数,如果数组未初始化,那么其记录的是数组的初始容量,如果数组已经初始化,那么其记录的是数组的扩容阈值,用(n - (n >>> 2))计算阀值。

    sizeCtl为-1,表示数组正在进行初始化

    sizeCtl小于0,并且不是-1,表示数组正在扩容, -(1+n),表示此时有n个线程正在共同完成数组的扩容操作

    ConcurrentHashMap扩容时,是对数组分段进行数据迁移的,每个分段的开始现在位置由transferIndex指定,每次迁移最少迁移16个捅位。当一个桶的数据被迁移完成时,这个桶上会创建一个ForwardingNode节点,它的哈希值是MOVED(-1)。当线程put时,发现当前桶位是ForwardingNode节点,意味着数组正在扩容,于是就去协助扩容,等扩容完成时在put数据。

    final class ForwardingNode<K,V> extends Node<K,V> {
        final Node<K,V>[] nextTable;
        ForwardingNode(Node<K,V>[] tab) {
            super(MOVED, null, null, null);
            this.nextTable = tab;
        }
    }
    

    ConcurrentHashMap在树化时除了保存红黑树和双向链表的特征外,还引入了TreeBin节点,当树化完成时,在桶上的节点是TreeBin,Hash值为TREEBIN(-2 )。

    3 put方法

    ConcurrentHashMap的添加元素通过Cas+自旋+Synchronize来保障线程安全。

    public V put(K key, V value) {
        return putVal(key, value, false);
    }
    
    final V putVal(K key, V value, boolean onlyIfAbsent) {
        //如果有空值或者空键,直接抛异常
        if (key == null || value == null) throw new NullPointerException();
        //基于key计算hash值,并进行一定的扰动
        int hash = spread(key.hashCode());
        //记录某个桶上元素的个数,如果超过8个,会转成红黑树
        int binCount = 0;
        for (Node<K,V>[] tab = table;;) {
            Node<K,V> f; int n, i, fh;
            //如果数组还未初始化,先对数组进行初始化
            if (tab == null || (n = tab.length) == 0)
                tab = initTable();
            //如果hash计算得到的桶位置没有元素,利用cas将元素添加
            else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
                //cas+自旋(和外侧的for构成自旋循环),保证元素添加安全
                if (casTabAt(tab, i, null,
                             new Node<K,V>(hash, key, value, null)))
                    break;                   // no lock when adding to empty bin
            }
            //如果hash计算得到的桶位置元素的hash值为MOVED,证明正在扩容,那么协助扩容
            else if ((fh = f.hash) == MOVED)
                tab = helpTransfer(tab, f);
            else {
                //hash计算的桶位置元素不为空,且当前没有处于扩容操作,进行元素添加
                V oldVal = null;
                //对当前桶进行加锁,保证线程安全,执行元素添加操作
                synchronized (f) {
                    if (tabAt(tab, i) == f) {
                        //普通链表节点
                        if (fh >= 0) {
                            binCount = 1;
                            for (Node<K,V> e = f;; ++binCount) {
                                K ek;
                                if (e.hash == hash &&
                                    ((ek = e.key) == key ||
                                     (ek != null && key.equals(ek)))) {
                                    oldVal = e.val;
                                    if (!onlyIfAbsent)
                                        e.val = value;
                                    break;
                                }
                                Node<K,V> pred = e;
                                if ((e = e.next) == null) {
                                    pred.next = new Node<K,V>(hash, key,
                                                              value, null);
                                    break;
                                }
                            }
                        }
                        //树节点,将元素添加到红黑树中
                        else if (f instanceof TreeBin) {
                            Node<K,V> p;
                            binCount = 2;
                            if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
                                                           value)) != null) {
                                oldVal = p.val;
                                if (!onlyIfAbsent)
                                    p.val = value;
                            }
                        }
                    }
                }
                //binCount初始是0,0代表插入的下标没值,插入的是头节点
                //binCount!= 0,1代表插入的是链表,2代表是树
                //所以先判断binCount!= 0,再去判断是否达到转树的阈值
                if (binCount != 0) {
                    //链表长度大于/等于8,将链表转成红黑树
                    if (binCount >= TREEIFY_THRESHOLD)
                        treeifyBin(tab, i);
                    //如果是重复键,直接将旧值返回
                    if (oldVal != null)
                        return oldVal;
                    break;
                }
            }
        }
        //添加的是新元素,维护集合长度,并判断是否要进行扩容操作
        addCount(1L, binCount);
        return null;
    }
    

    流程说明:

    1. 通过for自旋把添加操作包起来

    2. 先判断数组是否初始化,没有就进行初始化,然后自旋进行新一轮的判断

    3. 如果数组初始化了,判断Hash桶是否有为null,为null就cas+自旋添加。

    4. 如果Hash桶存在数据,判断时候数组当前节点适合被迁移,如果是就协助迁移。

    5. 如果当前节点没有迁移,就对当前节点加锁在然后进行数据添加操作。添加和HashMap差不多,这里就不在赘述。

    6. 最后为添加集合数量。

    注意:

    在添加数据时,先加锁,在判断节点是否变化,用了双重检查(常规操作),防止数据迁移对添加数据的影响。

    4 initTable方法

    数组的初始化在第一次put操作时执行。为了防止多线程的初始问题。 initTable方法也采用Cas+自旋的方式。

    private final Node<K,V>[] initTable() {
        Node<K,V>[] tab; int sc;
        //cas+自旋,保证线程安全,对数组进行初始化操作
        while ((tab = table) == null || tab.length == 0) {
            //如果sizeCtl的值(-1)小于0,说明此时正在初始化, 让出cpu
            if ((sc = sizeCtl) < 0)
                Thread.yield(); // lost initialization race; just spin
            //cas修改sizeCtl的值为-1,修改成功,进行数组初始化,失败,继续自旋
            else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
                try {
                    if ((tab = table) == null || tab.length == 0) {
                        //sizeCtl为0,取默认长度16,否则去sizeCtl的值
                        int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
                        @SuppressWarnings("unchecked")
                        //基于初始长度,构建数组对象
                        Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
                        table = tab = nt;
                        //计算扩容阈值,并赋值给sc
                        sc = n - (n >>> 2);
                    }
                } finally {
                    //将扩容阈值,赋值给sizeCtl
                    sizeCtl = sc;
                }
                break;
            }
        }
        return tab;
    }
    

    注意:

    流程很简单,就是判断sizeCtl的值,如果是-1表示有线程在进行初始化,则让出CPU,如果是0表示创建ConcurrentHashMap时没有指定初始容量,如果大于0表示指定了初始容量,通过Cas将sizeCtl的值变成-1,然后初始化数组,再将sizeCtl赋值为新数组的阀值。

    这里Cas成功后又进行了检查,个人认为是为了防止Cas的ABA问题。

    如果创建ConcurrentHashMap时指定初始容量1,那么sizeCtl就是2。如果两个线程A,B同时初始化,当A线程Cas成功,初始化数组,然后赋值sizeCtl时,它的值还是2,当B线程这个时候Cas就会执行成功,如果不检查,那么就会重现创建新的数组,可能导致数据丢失。

    5 addCount方法

    addCount方法是累加ConcurrentHashMap中元素个数的方法。由于是多线程添加元素,所有ConcurrentHashMap采用一个baseCount字段和一个CounterCell[]数组来累加元素个数。

     //0:表示counterCells无人使用
     //因为counterCells是一个数组,线程不安全的
     //所以在操作counterCells之前,都要用CAS将cellsBusy改成1,表示有人在使用该数组
     private transient volatile int cellsBusy;
     private transient volatile long baseCount;
     //数组大小也是2的N次方,也会扩容,但是数组最大长度不当前CPU的核数。
     private transient volatile CounterCell[] counterCells;
    
    private final void addCount(long x, int check) {
        CounterCell[] as; long b, s;
        //当CounterCell数组不为空,则优先利用数组中的CounterCell记录数量
        //或者当baseCount的累加操作失败,会利用数组中的CounterCell记录数量
        if ((as = counterCells) != null ||
            !U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
            CounterCell a; long v; int m;
            //标识是否有多线程竞争,true为没有,false为有
            boolean uncontended = true;
            //当as数组为空
            //或者当as长度为0
            //或者当前线程对应的as数组桶位的元素为空
            //或者当前线程对应的as数组桶位不为空,但是累加失败
            if (as == null || (m = as.length - 1) < 0 ||
                (a = as[ThreadLocalRandom.getProbe() & m]) == null ||
                !(uncontended =
                  U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
                //以上任何一种情况成立,都会进入该方法,传入的uncontended是false
                fullAddCount(x, uncontended);
                return;
            }
            //到这表示CAS把值记到counterCells肯定成功了,因为上面的是 ||,CAS是最后一个判断条件
            //check == 0:表示插入的下标是空的,此时是头节点,此坑位还有不少直接return
            //check == 1:表示插入的是链表的第2个,此坑位还有不少,就不考虑扩容,直接return
            //check == -1:表示的是删除,直接return
            //这里跟hashMap有点不一样,没有直接判断大于多少就扩容
            if (check <= 1)
                return;
            //计算元素个数
            s = sumCount();
        }
        if (check >= 0) {
            Node<K,V>[] tab, nt; int n, sc;
            //当元素个数达到扩容阈值
            //并且数组不为空
            //并且数组长度小于限定的最大值
            //满足以上所有条件,执行扩容
            while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&
                   (n = tab.length) < MAXIMUM_CAPACITY) {
                //这个是一个很大的正数
                int rs = resizeStamp(n);
                //sc小于0,说明有线程正在扩容,那么会协助扩容
                if (sc < 0) {
                    //扩容结束或者扩容线程数达到最大值或者扩容后的数组为null或者没有更多的桶位需要转移,结束操作
                    if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                        sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
                        transferIndex <= 0)
                        break;
                    //扩容线程加1,成功后,进行协助扩容操作
                    if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
                        //协助扩容,newTable不为null
                        transfer(tab, nt);
                }
                //没有其他线程在进行扩容,达到扩容阈值后,给sizeCtl赋了一个很大的负数
                //rs << RESIZE_STAMP_SHIFT)是一个很大的负数
                else if (U.compareAndSwapInt(this, SIZECTL, sc,
                                             (rs << RESIZE_STAMP_SHIFT) + 2))
                    //扩容,newTable为null
                    transfer(tab, null);
                s = sumCount();
            }
        }
    }
    

    流程说明:

    addCount主要包括两部,一是累加计数,二是扩容。这里有一个需要注意的,当累计计数成功,没有进入fullAddCount方法并且check<=1时,不进行扩容,这个和HashMap判断是否需要扩容不一样。这里并不是强制元素个数达到阀值就扩容。

    第二步扩容中有一个非常难理解的方法resizeStamp

    private static int RESIZE_STAMP_BITS = 16;
    
    private static final int RESIZE_STAMP_SHIFT = 32 - RESIZE_STAMP_BITS;
    
    static final int resizeStamp(int n) {
            return Integer.numberOfLeadingZeros(n) | (1 << (RESIZE_STAMP_BITS - 1));
    }
    

    Integer.numberOfLeadingZeros(n)用于计算n转换成二进制后前面有几个0。就是计算当前数组容量n前面有几个0。由于n必定是2的幂次方,所以不同的容量n前面0的个数必然不同,这样可以保证是在原容量为n的情况下进行扩容。

    (1 << (RESIZE_STAMP_BITS - 1)即是1<<15,表示为二进制即是高16位为0,第16位为1的数

    0000 0000 0000 0000 1000 0000 0000 0000
    

    所以resizeStamp(n)的返回值为:高16位置0,第16位为1,低15位存放当前容量n,用于表示是对n的扩容。

    当第一个线程进行扩容时会把sizeCtl设置成(rs << RESIZE_STAMP_SHIFT) + 2,其中第一位为1,表示是一个负数,后面的15位表示当前数组的长度,低16为用于存放当前扩容的线程数。第一个线程低15位用2表示。

    6 fullAddCount方法

    private final void fullAddCount(long x, boolean wasUncontended) {
        int h;
        //获取当前线程的hash值,如果为0表示没有初始化
        if ((h = ThreadLocalRandom.getProbe()) == 0) {
            ThreadLocalRandom.localInit();      // force initialization
            h = ThreadLocalRandom.getProbe();
            //把标志位置为true,表示没有CAS,false表示CAS
            wasUncontended = true;
        }
        //标识是否有冲突,如果最后一个桶不是null,那么为true
        boolean collide = false;                // True if last slot nonempty
        for (;;) {
            CounterCell[] as; CounterCell a; int n; long v;
            //数组不为空,优先对数组中CouterCell的value累加
            if ((as = counterCells) != null && (n = as.length) > 0) {
                //线程对应的桶位为null
                if ((a = as[(n - 1) & h]) == null) {
                    if (cellsBusy == 0) {            // Try to attach new Cell
                        //创建CounterCell对象
                        CounterCell r = new CounterCell(x); // Optimistic create
                        //利用CAS修改cellBusy状态为1,成功则将刚才创建的CounterCell对象放入数组中
                        if (cellsBusy == 0 &&
                            U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
                            boolean created = false;
                            try {               // Recheck under lock
                                CounterCell[] rs; int m, j;
                                //桶位为空, 将CounterCell对象放入数组
                                if ((rs = counterCells) != null &&
                                    (m = rs.length) > 0 &&
                                    rs[j = (m - 1) & h] == null) {
                                    rs[j] = r;
                                    //表示放入成功
                                    created = true;
                                }
                            } finally {
                                cellsBusy = 0;
                            }
                            if (created) //成功退出循环
                                break;
                            //桶位已经被别的线程放置了已给CounterCell对象,继续循环
                            continue;           // Slot is now non-empty
                        }
                    }
                    collide = false;
                }
                //桶位不为空,重新计算线程hash值,然后继续循环
                else if (!wasUncontended)       // CAS already known to fail
                    wasUncontended = true;      // Continue after rehash
                //重新计算了hash值后,对应的桶位依然不为空,对value累加
                //成功则结束循环
                //失败则继续下面判断
                else if (U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))
                    break;
                //数组被别的线程改变了,或者数组长度超过了可用cpu大小,重新计算线程hash值,否则继续下一个判断
                else if (counterCells != as || n >= NCPU)
                    collide = false;            // At max size or stale
                //当没有冲突,修改为有冲突,并重新计算线程hash,继续循环
                else if (!collide)
                    collide = true;
                //如果CounterCell的数组长度没有超过cpu核数,对数组进行两倍扩容
                //并继续循环
                else if (cellsBusy == 0 &&
                         U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
                    try {
                        if (counterCells == as) {// Expand table unless stale
                            CounterCell[] rs = new CounterCell[n << 1];
                            for (int i = 0; i < n; ++i)
                                rs[i] = as[i];
                            counterCells = rs;
                        }
                    } finally {
                        cellsBusy = 0;
                    }
                    collide = false;
                    continue;                   // Retry with expanded table
                }
                h = ThreadLocalRandom.advanceProbe(h);
            }
            //CounterCell数组为空,并且没有线程在创建数组,修改标记,并创建数组
            else if (cellsBusy == 0 && counterCells == as &&
                     U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
                boolean init = false;
                try {                           // Initialize table
                    if (counterCells == as) {
                        CounterCell[] rs = new CounterCell[2];
                        rs[h & 1] = new CounterCell(x);
                        counterCells = rs;
                        init = true;
                    }
                } finally {
                    cellsBusy = 0;
                }
                if (init)
                    break;
            }
            //数组为空,并且有别的线程在创建数组,那么尝试对baseCount做累加,成功就退出循环,失败就继续循环
            else if (U.compareAndSwapLong(this, BASECOUNT, v = baseCount, v + x))
                break;                          // Fall back on using base
        }
    }
    

    流程说明:

    该方法也是通过自旋+cas的方式进行累加,代码比较长,但是逻辑还是挺清晰的:主要的步骤包括:

    1. 当CounterCell数组不为空,优先对CounterCell数组中的CounterCell的value累加

    2. 当CounterCell数组为空,会去创建CounterCell数组,默认长度为2,并对数组中的CounterCell的value累加

    3. 当数组为空,并且此时有别的线程正在创建数组,那么尝试对baseCount做累加,成功即返回,否则自旋

    通过cellsBusy来对CounterCell[]的创建,扩容,累加,进行控制,0表示可以进行,1表示不可以进行。

    7 transfer方法

    transfer方法用于对数组进行扩容。总结一下扩容条件:

    • 元素个数达到扩容阈值。

    • 调用 putAll 方法,但目前容量不足以存放所有元素时。

    • 某条链表长度达到8,但数组长度却小于64时。

    private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
        int n = tab.length, stride;
        //用CPU数量去判断,每个CPU扩容的数组长度,最少16
        //为什么是(n >>> 3) / NCPU,而不是直接n / NCPU呢?
        //我觉得大概是因为(个人想法):
        //1:真正扩容的线程一次不需要领取太多任务,给扩容线程一个机会,让别的线程有机会帮助扩容
        //2:尽可能的利用每个CPU,这样put场景多的情况,就会分散压力到每个CPU
        if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
            stride = MIN_TRANSFER_STRIDE; // subdivide range
        //如果是扩容线程,此时新数组为null
        if (nextTab == null) {            // initiating
            try {
                @SuppressWarnings("unchecked")
                //两倍扩容创建新数组
                Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
                nextTab = nt;
            } catch (Throwable ex) {      // try to cope with OOME
                //上面的代码会报错,原因只有2个
                //1:n << 1结果过大,但是 < Integer.MAX_VALUE,导致OOM,堆空间溢出
                //2:n << 1结果超出Integer.MAX_VALUE,导致结果是负数
                sizeCtl = Integer.MAX_VALUE;
                return;
            }
            nextTable = nextTab;
            //记录线程开始迁移的桶位,从后往前迁移
            transferIndex = n;
        }
        //记录新数组的末尾
        int nextn = nextTab.length;
        //已经迁移的桶位,会用这个节点占位(这个节点的hash值为-1--MOVED)
        ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
        //当前线程是否需要继续寻找下一个可处理的节点
        boolean advance = true;
        boolean finishing = false; //所有桶是否都已迁移完成。
        //i:是遍历的下标
        //bound:表示当前线程需要处理的区间的最小下标
        for (int i = 0, bound = 0;;) {
            Node<K,V> f; int fh;
            //此循环的作用是确定当前线程要迁移的桶的范围或通过更新i的值确定当前范围内下一个要处理的节点。
            while (advance) {
                int nextIndex, nextBound;
                //i记录当前正在迁移桶位的索引值
                //bound记录下一次任务迁移的开始桶位
                //--i >= bound 成立表示当前线程分配的迁移任务还没有完成
                if (--i >= bound || finishing)
                    advance = false;
                //没有元素需要迁移 -- 后续会去将扩容线程数减1,并判断扩容是否完成
                else if ((nextIndex = transferIndex) <= 0) {
                    i = -1;
                    advance = false;
                }
                //计算下一次任务迁移的开始桶位,并将这个值赋值给transferIndex
                else if (U.compareAndSwapInt
                         (this, TRANSFERINDEX, nextIndex,
                          nextBound = (nextIndex > stride ?
                                       nextIndex - stride : 0))) {
                    bound = nextBound;
                    i = nextIndex - 1;
                    advance = false;
                }
            }
            //如果没有更多的需要迁移的桶位,就进入该if
            if (i < 0 || i >= n || i + n >= nextn) {
                int sc;
                //扩容结束后,保存新数组,并重新计算扩容阈值,赋值给sizeCtl
                if (finishing) {
                    nextTable = null;
                    table = nextTab;
                    sizeCtl = (n << 1) - (n >>> 1);
                    return;
                }
               //当前线程执行完扩容扩容任务线程数减1
                if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
                    //判断当前所有扩容任务线程是否都执行完成
                    if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
                        return;
                    //所有扩容线程都执行完,标识结束
                    finishing = advance = true;
                    i = n; // recheck before commit
                }
            }
            //当前迁移的桶位没有元素,直接在该位置添加一个fwd节点
            else if ((f = tabAt(tab, i)) == null)
                advance = casTabAt(tab, i, null, fwd);
            //当前节点已经被迁移
            else if ((fh = f.hash) == MOVED)
                advance = true; // already processed
            else {
                //当前节点需要迁移,加锁迁移,保证多线程安全
                //此处和tHashMap相同,不再赘述
                synchronized (f) {
                    if (tabAt(tab, i) == f) {
                        Node<K,V> ln, hn;
                        if (fh >= 0) {
                            int runBit = fh & n;
                            Node<K,V> lastRun = f;
                            for (Node<K,V> p = f.next; p != null; p = p.next) {
                                int b = p.hash & n;
                                if (b != runBit) {
                                    runBit = b;
                                    lastRun = p;
                                }
                            }
                            if (runBit == 0) {
                                ln = lastRun;
                                hn = null;
                            }
                            else {
                                hn = lastRun;
                                ln = null;
                            }
                            for (Node<K,V> p = f; p != lastRun; p = p.next) {
                                int ph = p.hash; K pk = p.key; V pv = p.val;
                                if ((ph & n) == 0)
                                    ln = new Node<K,V>(ph, pk, pv, ln);
                                else
                                    hn = new Node<K,V>(ph, pk, pv, hn);
                            }
                            setTabAt(nextTab, i, ln);
                            setTabAt(nextTab, i + n, hn);
                            setTabAt(tab, i, fwd);
                            advance = true;
                        }
                        else if (f instanceof TreeBin) {
                            TreeBin<K,V> t = (TreeBin<K,V>)f;
                            TreeNode<K,V> lo = null, loTail = null;
                            TreeNode<K,V> hi = null, hiTail = null;
                            int lc = 0, hc = 0;
                            for (Node<K,V> e = t.first; e != null; e = e.next) {
                                int h = e.hash;
                                TreeNode<K,V> p = new TreeNode<K,V>
                                    (h, e.key, e.val, null, null);
                                if ((h & n) == 0) {
                                    if ((p.prev = loTail) == null)
                                        lo = p;
                                    else
                                        loTail.next = p;
                                    loTail = p;
                                    ++lc;
                                }
                                else {
                                    if ((p.prev = hiTail) == null)
                                        hi = p;
                                    else
                                        hiTail.next = p;
                                    hiTail = p;
                                    ++hc;
                                }
                            }
                            ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
                                (hc != 0) ? new TreeBin<K,V>(lo) : t;
                            hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
                                (lc != 0) ? new TreeBin<K,V>(hi) : t;
                            setTabAt(nextTab, i, ln);
                            setTabAt(nextTab, i + n, hn);
                            setTabAt(tab, i, fwd);
                            advance = true;
                        }
                    }
                }
            }
        }
    }
    

    流程说明:

    1. 判断当前线程是否是扩容,nextTab=null为扩容,nextTab!=null表示协助扩容

    2. 如果扩容,则创建新数组

    3. 获取每次扩容的区间stride,最小扩容区间为16

    4. 然后是一个for循环扩容,从后往前扩容,每次扩容的初始值是i=nextIndex - 1,终止值是bound(nextIndex-stride)。

    5. while(advence)循环主要是更新i的值,并确定下一个区间

    6. 之后判断finishing的值确定数据迁移是否完成。

    7. 真正的数据迁移在最后,过程和HashMap相似。

    7.1 协助扩容

    如果当前更新的节点是ForwardingNode,则协助扩容

    final Node<K,V>[] helpTransfer(Node<K,V>[] tab, Node<K,V> f) {
        Node<K,V>[] nextTab; int sc;
        if (tab != null && (f instanceof ForwardingNode) &&
            (nextTab = ((ForwardingNode<K,V>)f).nextTable) != null) {
            int rs = resizeStamp(tab.length);
            while (nextTab == nextTable && table == tab &&
                   (sc = sizeCtl) < 0) {
                if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                    sc == rs + MAX_RESIZERS || transferIndex <= 0)
                    break;
                if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) {
                    //扩容,传递一个不是null的nextTab
                    transfer(tab, nextTab);
                    break;
                }
            }
            return nextTab;
        }
        return table;
    }
    
    7.2 单线程扩容
    7.3 多线程扩容

    8 JDK1.7与JDK1.8的区别

    项目 JDK1.7 JDK1.8
    数据结构
    同步机制 分段锁,每个segment继承ReentrantLock CAS + synchronized保证并发更新
    存储结构 数组+链表 数组+链表+红黑树
    键值对 HashEntry Node
    put操作 多个线程同时竞争获取同一个segment锁,获取成功的线程更新map;失败的线程尝试多次获取锁仍未成功,则挂起线程,等待释放锁 访问相应的bucket时,使用sychronizeded关键字,防止多个线程同时操作同一个bucket,如果该节点的hash不小于0,则遍历链表更新节点或插入新节点;如果该节点是TreeBin类型的节点,说明是红黑树结构,则通过putTreeVal方法往红黑树中插入节点;更新了节点数量,还要考虑扩容和链表转红黑树
    size实现 统计每个Segment对象中的元素个数,然后进行累加,但是这种方式计算出来的结果并不一样的准确的。先采用不加锁的方式,连续计算元素的个数,最多计算3次:如果前后两次计算结果相同,则说明计算出来的元素个数是准确的;如果前后两次计算结果都不同,则给每个Segment进行加锁,再计算一次元素的个数 通过累加baseCount和CounterCell数组中的数量,即可得到元素的总个数

    【面试篇】ConcurrentHashMap1.8 扩容细节_Mind_programmonkey的博客-CSDN博客

    ConcurrentHashMap底层详解(图解扩容)(JDK1.8)_愿万事胜意-CSDN博客

    ConcurrentHashMap源码解析(jdk1.8)_programmer_at的专栏-CSDN博客_concurrenthashmap源码

    相关文章

      网友评论

          本文标题:ConcurrentHashMap原理

          本文链接:https://www.haomeiwen.com/subject/uknvhltx.html