美文网首页
java并发容器-ConcurrentHashMap-大概了解

java并发容器-ConcurrentHashMap-大概了解

作者: MJLDG | 来源:发表于2019-12-28 11:30 被阅读0次

    在多线程环境下,HashMap不符合使用场景,因为不是线程安全的,而如果使用Collections.synchronizedMap()来产生的Map又是一个使用全局锁来进行同步不同线程
    之间的并发访问,效率和性能都不高。
    这时候就有了HashMap的线程安全版 - ConcurrentHashMap。
    ConcurrentHashMap 底层使用 数组 + 链表或者红黑树 来实现。
    无论是读操作还是写操作性能都很高,读操作时几乎不加锁,写操作时又只对一个链表或者红黑树
    进行加锁,不会对其他链表或者红黑树产生影响,即可以同时访问数组的各个链表或者红黑树。

    jdk1.7之前和1.8之后实现方式不一样。
    1.7之前实现数组+链表,put的时候锁住数组的一段,按一段段的锁,即一段可能包含几个链表。
    1.8之后实现是数组 + 链表或者红黑树, put的时候锁住的数组的每一个元素,即每一个链表一个锁。
    使用node + CAS + synchronized 来实现并发的put操作

    其中不管是HashMap还是ConcurrentHashMap,1.7之前插入元素都是头插(即插入链表头部),
    1.8之后都是尾插(链表尾部)。因为使用头插法时可能发生逆序并形成环形链表死循环。

    ConcurrentHashMap 默认数组大小为16。

    put 操作

    ConcurrentHashMap 不允许key 或者value 为null

     final V putVal(K key, V value, boolean onlyIfAbsent) {
            if (key == null || value == null) throw new NullPointerException();
            int hash = spread(key.hashCode());
            int binCount = 0;
            for (Node<K,V>[] tab = table;;) {
                Node<K,V> f; int n, i, fh;
                if (tab == null || (n = tab.length) == 0)
                    tab = initTable();
                else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
                    if (casTabAt(tab, i, null,
                                 new Node<K,V>(hash, key, value, null)))
                        break;                   // no lock when adding to empty bin
                }
                else if ((fh = f.hash) == MOVED)
                    tab = helpTransfer(tab, f);
                else {
                    V oldVal = null;
                    synchronized (f) {
                        if (tabAt(tab, i) == f) {
                            if (fh >= 0) {
                                binCount = 1;
                                for (Node<K,V> e = f;; ++binCount) {
                                    K ek;
                                    if (e.hash == hash &&
                                        ((ek = e.key) == key ||
                                         (ek != null && key.equals(ek)))) {
                                        oldVal = e.val;
                                        if (!onlyIfAbsent)
                                            e.val = value;
                                        break;
                                    }
                                    Node<K,V> pred = e;
                                    if ((e = e.next) == null) {
                                        pred.next = new Node<K,V>(hash, key,
                                                                  value, null);
                                        break;
                                    }
                                }
                            }
                            else if (f instanceof TreeBin) {
                                Node<K,V> p;
                                binCount = 2;
                                if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
                                                               value)) != null) {
                                    oldVal = p.val;
                                    if (!onlyIfAbsent)
                                        p.val = value;
                                }
                            }
                        }
                    }
                    if (binCount != 0) {
                        if (binCount >= TREEIFY_THRESHOLD)
                            treeifyBin(tab, i);
                        if (oldVal != null)
                            return oldVal;
                        break;
                    }
                }
            }
            addCount(1L, binCount);
            return null;
        }
    

    1.首先根据key获得hash值
    2.如果数组为null或者数组大小为0,则进行数组初始化,默认数组大小为16,
    只能由一条线程来进行初始化数组
    3.根据hash值找到在数组中对应的链表,如果链表为null,则以CAS方式插入链表
    4.如果链表不为null,为两种情况。一种是当前处于移动状态,即正在扩容,则当前线程去帮忙扩容。
    否则以synchronized锁住当前链表。如果hash值大于0,则遍历链表更新节点或者在尾部插入节点,
    如果当前链表节点是树节点,说明是红黑树,调用putTreeVal 方法往红黑树中插入节点

    5.其中有一局部变量binCount记录当前链表节点数量,如果节点是树节点,则为2。
    在将元素插入链表后,会判断binCount是否大于阈值8,如果大于8,则将链表转为红黑树。

    6.在链表符合转为红黑树条件的时候(即链表节点数量大于8),会先判断数组大小是否小于64。
    如果小于64,则将当前数组扩大1倍,变为原来大小的两倍。
    if ((n = tab.length) < MIN_TREEIFY_CAPACITY) 这一句

     private final void treeifyBin(Node<K,V>[] tab, int index) {
            Node<K,V> b; int n, sc;
            if (tab != null) {
                if ((n = tab.length) < MIN_TREEIFY_CAPACITY)
                    tryPresize(n << 1);
                else if ((b = tabAt(tab, index)) != null && b.hash >= 0) {
                    synchronized (b) {
    
    

    get 操作

      public V get(Object key) {
            Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;
            int h = spread(key.hashCode());
            if ((tab = table) != null && (n = tab.length) > 0 &&
                (e = tabAt(tab, (n - 1) & h)) != null) {
                if ((eh = e.hash) == h) {
                    if ((ek = e.key) == key || (ek != null && key.equals(ek)))
                        return e.val;
                }
                else if (eh < 0)
                    return (p = e.find(h, key)) != null ? p.val : null;
                while ((e = e.next) != null) {
                    if (e.hash == h &&
                        ((ek = e.key) == key || (ek != null && key.equals(ek))))
                        return e.val;
                }
            }
            return null;
        }
    

    1.先根据key获得hash值
    2.根据hash值获得在数组中链表,如果链表为null,直接返回null
    3.链表不为null时,判断hash值,如果链表首节点符合,则返回对应value值。
    如果链表首节点hash值小于0,说明正在扩容,则调用扩容节点的find方法,查找节点。
    hash值大于0,则从首节点开始遍历节点,匹配则返回,否则返回null。

    tryPresize 扩容方法

    扩容大小必须为2的n次方,这个是因为和扩容后元素在数组中的链表位置相关。
    扩容后的每个链表的元素的位置,要么不变,要么是原table索引位置+原table的容量大小。
    例如三个元素(2,5,7)要放入map里面,table的的容量是2,
    简单的假设元素位置=元素的值 % 数组容量 = 元素的值 % 2
    得到

    [0]=2  
    [1]=5->7  
    

    现在数组扩容为为4,得到

    [0]=null 
    [1]=5 
    [2]=2
    [3]=7
    

    符合这个要求(扩容后的每个链表的元素的位置,要么不变,要么是原table索引位置+原table的容量大小)
    所以数组不管在扩容前还是扩容后都能通过 元素hash值 % 数组容量 拿到元素正确的位置。

    ps: 不管ConcurrentHashMap还是HashMap,
    在将链表转为树或者新增数组链表节点的时候都有可能触发扩容

    
      private final void tryPresize(int size) {
          int c = (size >= (MAXIMUM_CAPACITY >>> 1)) ? MAXIMUM_CAPACITY :
              tableSizeFor(size + (size >>> 1) + 1);
          int sc;
    
    

    相关文章

      网友评论

          本文标题:java并发容器-ConcurrentHashMap-大概了解

          本文链接:https://www.haomeiwen.com/subject/fgwdoctx.html