HashMap 1.8

作者: virtual灬zzZ | 来源:发表于2022-01-26 20:21 被阅读0次

    1.8 HashMap

    HashMap主要是数组+单链表+红黑树组成。其实就是在一定条件下,数组index下的单链表转化成红黑树,这是提升查找效率的。

    原来jdk1.7的优点是增删效率高,于是在jdk1.8的时候,不仅仅增删效率高,而且查找效率也提升了。

    注意:不是说变成了红黑树效率就一定提高了,只有在链表的长度大于8,而且数组的长度不小于64的时候才会将链表转化为红黑树,

    问题一:什么是红黑树呢?
    红黑树是一个自平衡的二叉查找树,也就是说红黑树的查找效率是非常的高,查找效率会从链表的o(n)降低为o(logn)。如果之前没有了解过红黑树的话,也没关系,你就记住红黑树的查找效率很高就OK了。

    问题二:为什么不一下子把整个链表变为红黑树呢?
    这个问题的意思是这样的,就是说我们为什么非要等到链表的长度大于等于8的时候,才转变成红黑树?在这里可以从两方面来解释:
    (1)构造红黑树要比构造链表复杂,在链表的节点不多的时候,从整体的性能看来, 数组+链表+红黑树的结构可能不一定比数组+链表的结构性能高。就好比杀鸡焉用牛刀的意思。
    (2)HashMap频繁的扩容,会造成底部红黑树不断的进行拆分和重组,这是非常耗时的。因此,也就是链表长度比较长的时候转变成红黑树才会显著提高效率。

    数据模型

    重要属性

    总体和1.7的差不多,但注意1.7的节点是Entry,1.8是Node,还是单链表的时候就是Node,转化为红黑树的时候就是TreeNode。

    简要概括inti、put、get:
    • init
      初始一个HashMap,可以传入容量大小和负载因子,不传容量大小的话默认是16,负载因子默认0.75,初始化的时候,仅仅是设置参数而已,还没赋予table数组的内存空间,即还没有new对象。真正赋予内存空间,是第一次执行put操作的时候,后续源码会详细讲解。

    • put
      传入HashMap的是Key-Value对,进行put的时候,主要首先对Key进行hash扰动计算,计算出在数组的哪个下标index,然后采用尾插法的方式进行添加,如果该index上的单链表,key存在就替换,不同就用尾插法顶替,这里又分为替换的node是普通Node还是treeNode,treeNode就进行单独的入红黑树处理。这里不展开。 如果put的时候,是需要new Node的,普通Node的话,单链表已经超过到了8,而且总Node数达到了64,就会进行树化,如果没有到64,仅仅是超过8,还是只会进行扩容而已。最后判断如果总的size数超过了threshold,就会进行扩容。

    • get
      get无非就是找commonNode或TreeNode找到相应的Node,将其的value返回去即可。

    源码分析:

    初始化init

    也是仅仅给属性赋予值,但还没初始化,threshold这里和1.7有区别,它是传入的大小的最接近中最小的2次幂数,如传入13,threshold计算出是16。这里需要注意,capacity没传入甚至是不会初始化threshold的。

    public HashMap() {
            this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
        }
    
    public HashMap(int initialCapacity) {
            this(initialCapacity, DEFAULT_LOAD_FACTOR);
        }
    
    public HashMap(int initialCapacity, float loadFactor) {
            if (initialCapacity < 0)
                throw new IllegalArgumentException("Illegal initial capacity: " +
                                                   initialCapacity);
            if (initialCapacity > MAXIMUM_CAPACITY)
                initialCapacity = MAXIMUM_CAPACITY;
            if (loadFactor <= 0 || Float.isNaN(loadFactor))
                throw new IllegalArgumentException("Illegal load factor: " +
                                                   loadFactor);
            this.loadFactor = loadFactor;
            this.threshold = tableSizeFor(initialCapacity); 和1.7的区别是这句,
        }
    
    put操作
        public V put(K key, V value) {
            return putVal(hash(key), key, value, false, true);
        }
       /**
         * 分析2:putVal(hash(key), key, value, false, true)
         */
         final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
    
                Node<K,V>[] tab; Node<K,V> p; int n, i;
    
            // 1. 若哈希表的数组tab为空,则 通过resize() 创建
            // 所以,初始化哈希表的时机 = 第1次调用put函数时,即调用resize() 初始化创建
            // 关于resize()的源码分析将在下面讲解扩容时详细分析,此处先跳过
            if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
    
            // 2. 计算插入存储的数组索引i:根据键值key计算的hash值 得到
            // 此处的数组下标计算方式 = i = (n - 1) & hash,同JDK 1.7中的indexFor(),上面已详细描述
    
            // 3. 插入时,需判断是否存在Hash冲突:
            // 若不存在(即当前table[i] == null),则直接在该数组位置新建节点,插入完毕
            // 否则,代表存在Hash冲突,即当前存储位置已存在节点,则依次往下判断:a. 当前位置的key是否与需插入的key相同、b. 判断需插入的数据结构是否为红黑树 or 链表
            if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);  // newNode(hash, key, value, null)的源码 = new Node<>(hash, key, value, next)
    
        else {
            Node<K,V> e; K k;
    
            // a. 判断 table[i]的元素的key是否与 需插入的key一样,若相同则 直接用新value 覆盖 旧value
            // 判断原则:equals()
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
    
            // b. 继续判断:需插入的数据结构是否为红黑树 or 链表
            // 若是红黑树,则直接在树中插入 or 更新键值对
            else if (p instanceof TreeNode)
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); ->>分析3
    
            // 若是链表,则在链表中插入 or 更新键值对
            // i.  遍历table[i],判断Key是否已存在:采用equals() 对比当前遍历节点的key 与 需插入数据的key:若已存在,则直接用新value 覆盖 旧value
            // ii. 遍历完毕后仍无发现上述情况,则直接在链表尾部插入数据
            // 注:新增节点后,需判断链表长度是否>8(8 = 桶的树化阈值):还需要判断table是否已经包含64个Node若是,则把链表转换为红黑树
            
            else {
                for (int binCount = 0; ; ++binCount) {
                    // 对于ii:若数组的下1个位置,表示已到表尾也没有找到key值相同节点,则新建节点 = 插入节点
                    // 注:此处是从链表尾插入,与JDK 1.7不同(从链表头插入,即永远都是添加到数组的位置,原来数组位置的数据则往后移)
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
    
                        // 插入节点后,若链表节点>数阈值,则将链表转换为红黑树
                        if (binCount >= TREEIFY_THRESHOLD - 1) 
                            treeifyBin(tab, hash); // 树化操作
                        break;
                    }
    
                    // 对于i
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
    
                    // 更新p指向下一个节点,继续遍历
                    p = e;
                }
            }
    
            // 对i情况的后续操作:发现key已存在,直接用新value 覆盖 旧value & 返回旧value
            if (e != null) { 
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e); // 替换旧值时会调用的方法(默认实现为空)
                return oldValue;
            }
        }
    
        ++modCount;
    
        // 插入成功后,判断实际存在的键值对数量size > 最大容量threshold
        // 若 > ,则进行扩容 ->>分析4(但单独讲解,请直接跳出该代码块)
        if (++size > threshold)
            resize();
    
        afterNodeInsertion(evict);// 插入成功时会调用的方法(默认实现为空)
        return null;
    
    }
    
        /**
         * 分析3:putTreeVal(this, tab, hash, key, value)
         * 作用:向红黑树插入 or 更新数据(键值对)
         * 过程:遍历红黑树判断该节点的key是否与需插入的key 相同:
         *      a. 若相同,则新value覆盖旧value
         *      b. 若不相同,则插入
         */
    
         final TreeNode<K,V> putTreeVal(HashMap<K,V> map, Node<K,V>[] tab,
                                           int h, K k, V v) {
                Class<?> kc = null;
                boolean searched = false;
                TreeNode<K,V> root = (parent != null) ? root() : this;
                for (TreeNode<K,V> p = root;;) {
                    int dir, ph; K pk;
                    if ((ph = p.hash) > h)
                        dir = -1;
                    else if (ph < h)
                        dir = 1;
                    else if ((pk = p.key) == k || (k != null && k.equals(pk)))
                        return p;
                    else if ((kc == null &&
                              (kc = comparableClassFor(k)) == null) ||
                             (dir = compareComparables(kc, k, pk)) == 0) {
                        if (!searched) {
                            TreeNode<K,V> q, ch;
                            searched = true;
                            if (((ch = p.left) != null &&
                                 (q = ch.find(h, k, kc)) != null) ||
                                ((ch = p.right) != null &&
                                 (q = ch.find(h, k, kc)) != null))
                                return q;
                        }
                        dir = tieBreakOrder(k, pk);
                    }
    
                    TreeNode<K,V> xp = p;
                    if ((p = (dir <= 0) ? p.left : p.right) == null) {
                        Node<K,V> xpn = xp.next;
                        TreeNode<K,V> x = map.newTreeNode(h, k, v, xpn);
                        if (dir <= 0)
                            xp.left = x;
                        else
                            xp.right = x;
                        xp.next = x;
                        x.parent = x.prev = xp;
                        if (xpn != null)
                            ((TreeNode<K,V>)xpn).prev = x;
                        moveRootToFront(tab, balanceInsertion(root, x));
                        return null;
                    }
                }
            }
    

    首次插入数据,如果是空的table,就会resize,这里先不展开,就是初始化数组的意思。
    传入的key经过hash,找到下标index:
    ① 如果该index上没有数据,就新建一个Node放置上去。
    ② 如果该下标index有值,如果传入key等于现存headNode的key,结束if..else..判断,然后headNode替换成NewValue并返回OldValue,结束。
    ③ 如果不是相同的key,接着else判断,else if (p instanceof TreeNode)

    • 如果是treeNode,就是说这个headNode已经形成红黑树了,那就入树,无非就是更新或者新增。
    • 如果不是treeNode,那就是单链表,headNode的next如果是null,那就new一个Node进行尾插法 的方式来插入,如果存在相同key就进行替换。

    这里有个重要的点,TREEIFY_THRESHOLD=8,这里是TREEIFY_THRESHOLD-1=7,>=7就扩容,这里直接是由headNode的nextNode开始判断,headNode就是-1,正如注释写得 -1 for 1st,nextNode=0,开始循环判断currentNode的nextNode是不是null,所以如果达到了7,而同时是0作为开始的,还有加上headNode,那么一共就是9,那么就是说,要单链表大于8,就达到了进行树化的第一个条件,为什么说是第一个条件,因为treeifyBin(tab,hash)方法里头进行树化还有一个条件是table需要满足具有64个node
    如果任一不满足,只会进行resize扩容,而不会进行树化。

    if (binCount >= TREEIFY_THRESHOLD - 1) 
       treeifyBin(tab, hash); // 树化操作
     break;
    
        final void treeifyBin(Node<K,V>[] tab, int hash) {
            int n, index; Node<K,V> e;
            if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
                resize();
            else if ((e = tab[index = (n - 1) & hash]) != null) {
                TreeNode<K,V> hd = null, tl = null;
                do {
                    TreeNode<K,V> p = replacementTreeNode(e, null);
                    if (tl == null)
                        hd = p;
                    else {
                        p.prev = tl;
                        tl.next = p;
                    }
                    tl = p;
                } while ((e = e.next) != null);
                if ((tab[index] = hd) != null)
                    hd.treeify(tab);
            }
        }
    

    resize()扩容

    首次put,和之后table达到指定条件进行扩容处理。

       /**
         * 分析4:resize()
         * 该函数有2种使用情况:1.初始化哈希表 2.当前数组容量过小,需扩容
         */
       final Node<K,V>[] resize() {
        Node<K,V>[] oldTab = table; // 扩容前的数组(当前数组)
        int oldCap = (oldTab == null) ? 0 : oldTab.length; // 扩容前的数组的容量 = 长度
        int oldThr = threshold;// 扩容前的数组的阈值
        int newCap, newThr = 0;
    
        // 针对情况2:若扩容前的数组容量超过最大值,则不再扩充
        if (oldCap > 0) {
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
    
            // 针对情况2:若无超过最大值,就扩充为原来的2倍
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // 通过右移扩充2倍
        }
    
        // 针对情况1:初始化哈希表(采用指定 or 默认值)
        else if (oldThr > 0) // initial capacity was placed in threshold
            newCap = oldThr;
    
        else {               // zero initial threshold signifies using defaults
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
    
        // 计算新的resize上限
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
    
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        table = newTab;
    
        if (oldTab != null) {
            // 把每个bucket都移动到新的buckets中
            for (int j = 0; j < oldCap; ++j) {
                Node<K,V> e;
                if ((e = oldTab[j]) != null) {
                    oldTab[j] = null;
    
                    if (e.next == null)
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
    
                    else { // 链表优化重hash的代码块
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        do {
                            next = e.next;
                            // 原索引
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            // 原索引 + oldCap
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        // 原索引放到bucket里
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        // 原索引+oldCap放到bucket里
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }
    

    ① 初次put进行resize的操作,这时候是初始化table, 如果new HashMap()什么参数都不带,那么 oldCap=0,oldThr=threshold自然也是0。这时候,newCap 自然就是默认值16,newThr自然是16*默认因子0.75=12。如果有传入capacity,那么threshold就是最接近的最小2次幂,newCap就是它,即newTab是这个大小,之后oldCap是空的,直接返回newTab。

    ②非初次put,并达到条件,于是进行resize。newCap 为 oldCap * 2,newThr也是oldThr * 2,这时oldCap不是null,那么就开始进行数据转移。

    遍历oldTab的每个下标index,为空直接略过不需要处理,
    不为空先判断是不是只有一个Node:

    • 是:与newTab进行hash,得到在newTab里的新下标idnex,直接挂上去,结束。
    • 否:判断是不是treeNode:是的话,构造回红黑树;否, 是单链表的话,链表有兄弟节点,遍历单链表,Node与oldCap进行异或运算,结果==0,放置在newTab的低位,否则放置在高位。

    我们看到有4个变量,Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null;
    低位头、尾 ; 高位头、尾,将单链表的各个Node,进行异或运算之后,结果=0的,直接使用尾插法关联起来,形成一个新链表,用于放置在oldTab的低位,头就是loHead、尾就是loTail;不等于0就放置在高位,头就是hiHead、尾就是hiTail,一样的原理的。

    它们各自形成高、低单链表后,可见代码,低单链表原来在oldTab的什么位置,转移后就在newTab的什么位置,高单链表就放在newTab的oldTab[index]+oldTab.length的位置。简单来说,比如oldTab原本的length是16,元素本来就oldTab[2],那么低单链表就放在newTab[2]处,而高单链表就是放在newTab[2+16]的位置。

    全部转移之后,返回newTab,扩容成功。

    关于高低单链表计算

    下标index计算是 (n - 1) & hashcode,比如一开始n=16,就是oldTab的长度为16,index=hashcode&15,然而15的二进制是0000 1111,比如某个Node在oldTab的位置是index=7,那么这个Node的key的hashcode低4位必然是 0111。

    随着扩容,在进行高低单链表的分配时,执行的计算是e.hash & oldCap,如果=0,就去低单链表,那么什么时候=0呢,oldCap=0001 0000 ,Node的key的hashCode的低5位是 x 0111 ,因为是&运算,低4位无论如何都是0的,x要么是0,要么是1,

    Node的key的hashCode第五位:

    • 0,与oldCap第五位1元素 & 运算,就是0,这个Node就去到 newTab中与旧index相同的位。用上面的例子说,Node在newTab的位置还是index=7。
    • 1,与oldCap第五位1元素 & 运算,就是1,这个Node就去到 newTab中旧index+oldCap的位置。用上面的例子说,Node在newTab的位置是index=7+16=23。

    线程安全问题

    1.8的hashMap不会出现死链情况,但还是会出现数据覆盖和读取数据丢失问题。

    数据覆盖

    正常情况下,当发生哈希冲突时,HashMap 是这样的:

    但多线程同时执行 put 操作时,如果计算出来的索引位置是相同的,那会造成前一个 key 被后一个 key 覆盖,从而导致元素的丢失。

    • put 的源码:
    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
    
        // 步骤①:tab为空则创建
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
    
        // 步骤②:计算index,并对null做处理 
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        else {
            Node<K,V> e; K k;
    
            // 步骤③:节点key存在,直接覆盖value
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
    
            // 步骤④:判断该链为红黑树
            else if (p instanceof TreeNode)
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
    
            // 步骤⑤:该链为链表
            else {
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
    
                        //链表长度大于8转换为红黑树进行处理
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
    
                    // key已经存在直接覆盖value
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
    
            // 步骤⑥、直接覆盖
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        ++modCount;
    
        // 步骤⑦:超过最大容量 就扩容
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        return null;
    }
    
    

    问题发生在步骤 ② 这里:

    if ((p = tab[i = (n - 1) & hash]) == null)
        tab[i] = newNode(hash, key, value, null);
    
    

    两个线程都执行了 if 语句,假设线程 A 先执行了 tab[i] = newNode(hash, key, value, null),那 table 是这样的:

    接着,线程 B 执行了 tab[i] = newNode(hash, key, value, null),那 table 是这样的:

    3 被干掉了。

    数据读取丢失

    put 和 get 并发时会导致 get 到 null**

    线程 A 执行put时,因为元素个数超出阈值而出现扩容,线程B 此时执行get,有可能导致这个问题。

    注意来看 resize 源码:

    final Node<K,V>[] resize() {
        Node<K,V>[] oldTab = table;
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        int oldThr = threshold;
        int newCap, newThr = 0;
        if (oldCap > 0) {
            // 超过最大值就不再扩充了,就只好随你碰撞去吧
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            // 没超过最大值,就扩充为原来的2倍
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // double threshold
        }
        else if (oldThr > 0) // initial capacity was placed in threshold
            newCap = oldThr;
        else {               // zero initial threshold signifies using defaults
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        // 计算新的resize上限
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        table = newTab;
    }
    
    

    线程 A 执行完 table = newTab 之后,线程 B 中的 table 此时也发生了变化,此时去 get 的时候当然会 get 到 null 了,因为元素还没有转移。

    参考:
    为什么 HashMap 是线程不安全的?
    深入源码解析HashMap 1.8

    相关文章

      网友评论

        本文标题:HashMap 1.8

        本文链接:https://www.haomeiwen.com/subject/wglnhrtx.html