美文网首页
Java集合之HashMap

Java集合之HashMap

作者: 带娃儿先走 | 来源:发表于2018-03-13 16:32 被阅读0次

    前言

    HashMap是Map集合的一种实现,提供了一种简单实用的数据存储和读取方式。
    Map接口不同于List接口,属于集合框架中的另一个支线。

    HashMap采用K-V键值对数据存储模型,底层的存储结构是基于数组和链表实现。在JDK 8中,当数组中某一项的链表存储键值对的个数超过8时,会使用红黑树来存储。

    HashMap是一个非线程安全的集合类。如果在多线程环境下,可以使用Collections.synchronizedMap获得线程安全的HashMap:
    Map map = Collections.synchronizedMap(new HashMap());

    在HashMap中,我们把数组看作buckets array,数组的每个元素Node实现了Map.Entry接口,也叫做槽(bucket)。容量是指数的槽的数量。


    image.png

    HashMap实现了Map接口,有put、get、remove等一些操作集合的方法。
    HashMap继承了AbstractMap类,AbstractMap类对于Map接口做了基础的实现,实现了containsKey、containsValue等方法。


    源码分析

    成员变量
    ...
    static final int DEFAULT_INITIAL_CAPACITY = 16;
    static final int MAXIMUM_CAPACITY = 1073741824;
    static final float DEFAULT_LOAD_FACTOR = 0.75F;
    static final int TREEIFY_THRESHOLD = 8;
    static final int UNTREEIFY_THRESHOLD = 6;
    static final int MIN_TREEIFY_CAPACITY = 64;
    transient Node<K,V>[] table;
    transient Set<Map.Entry<K,V>> entrySet;
    transient int size;
    transient int modCount;
    int threshold;
    final float loadFactor;
    

    成员变量相对于List接口下的集合类来说比较多,我们可以从名字上看出对应的含义。

    • DEFAULT_INITIAL_CAPACITY:表示默认容量,容量必须为2的幂。
    • MAXIMUM_CAPACITY:表示最大容量,如果传入的容量大于该值,实际容量也会被该值替换。
    • DEFAULT_LOAD_FACTOR:默认的加载因子。加载因子可以理解为饱和率。用来计算扩容的threshold。当HashMap的实际元素容量达到threshold时,HashMap进行扩容操作。
    • TREEIFY_THRESHOLD:当槽的链表容量大于该值时,该槽内的存储结构由链表改为红黑树。该值必须大于2,最好大于8。
    • UNTREEIFY_THRESHOLD:当槽存储的元素容量小于该值时,由树型转回链式结构。该值应该小于TREEIFY_THRESHOLD。该值最大为6。
    • MIN_TREEIFY_CAPACITY:当哈希表的容量大于该值时,表中的槽才能树形化。否则槽内元素太多时会扩容。为了避免扩容与树形化选择的冲突,该值不能小于4 * TREEIFY_THRESHOLD。
    • table:存储Entry的数组,每个Entry是一条单链表的头结点。
    • entrySet:HashMap中所有键值对的集合。
    • size:HashMap键值对的数量。
    • threshold:如果size大于该值时,会进行扩容操作。threshold = capacity loadFactor。
    • loadFactor:实际的加载因子,通过构造方法传入。默认等于DEFAULT_LOAD_FACTOR。
    构造方法
       public HashMap(int initialCapacity, float loadFactor) {
            if (initialCapacity < 0)
                throw new IllegalArgumentException("Illegal initial capacity: " +
                                                   initialCapacity);
            if (initialCapacity > MAXIMUM_CAPACITY)
                initialCapacity = MAXIMUM_CAPACITY;
            if (loadFactor <= 0 || Float.isNaN(loadFactor))
                throw new IllegalArgumentException("Illegal load factor: " +
                                                   loadFactor);
            this.loadFactor = loadFactor;
            this.threshold = tableSizeFor(initialCapacity);
        }
        public HashMap(int initialCapacity) {
            this(initialCapacity, DEFAULT_LOAD_FACTOR);
        }
        public HashMap() {
            this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
        }
        public HashMap(Map<? extends K, ? extends V> m) {
            this.loadFactor = DEFAULT_LOAD_FACTOR;
            putMapEntries(m, false);
        }
    

    HashMap有四个构造方法。我们主要关注的是initialCapacity(初始大小)、loadFactor(加载因子)两个参数。
    第一个方法支持同时自定义两个参数。
    第二个方法支持自定义initialCapacity,loadFactor使用DEFAULT_LOAD_FACTOR。
    第三个方法不传参,initialCapacity使用DEFAULT_INITIAL_CAPACITY,loadFactor使用DEFAULT_LOAD_FACTOR。
    第四个是将其它的Map集合元素重新散列,构造一个HashMap。

    关注第一个方法中的tableSizeFor()方法。

    static final int tableSizeFor(int cap) {
            int n = cap - 1;
            n |= n >>> 1;// >>>表示无符号右移
            n |= n >>> 2;
            n |= n >>> 4;
            n |= n >>> 8;
            n |= n >>> 16;
            return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
        }
    

    这个方法主要是位运算操作。返回值是2的幂中第一个大于等于传入的cap的数值。
    注意int n = cap - 1。这句话是为了避免cap本来就是2的幂次方,这样一来,经过后续的位操作的,返回值将会变成2 * cap,是不符合我们预期的。

    Node类
    static class Node<K,V> implements Map.Entry<K,V> {
            final int hash;
            final K key;
            V value;
            Node<K,V> next;
            Node(int hash, K key, V value, Node<K,V> next) {
                this.hash = hash;
                this.key = key;
                this.value = value;
                this.next = next;
            }
            public final K getKey()        { return key; }
            public final V getValue()      { return value; }
            public final String toString() { return key + "=" + value; }
            public final int hashCode() {
                return Objects.hashCode(key) ^ Objects.hashCode(value);//异或运算
            }
            public final V setValue(V newValue) {
                V oldValue = value;
                value = newValue;
                return oldValue;
            }
            public final boolean equals(Object o) {
                if (o == this)
                    return true;
                if (o instanceof Map.Entry) {
                    Map.Entry<?,?> e = (Map.Entry<?,?>)o;
                    if (Objects.equals(key, e.getKey()) &&
                        Objects.equals(value, e.getValue()))
                        return true;
                }
                return false;
            }
        }
    

    Node<K,V>类是HashMap中的静态内部类,实现Map.Entry<K,V>接口。 定义了key键、value值、next节点,也就是说元素之间构成了单向链表。

    重要普通方法
    • hash(Object key)
    static final int hash(Object key) {
        int h;
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }
    public final int hashCode() {
            return Objects.hashCode(key) ^ Objects.hashCode(value);
    }
    

    这个方法首先获得了key的 Hash值。然后通过 Hash值进行高位运算。过程如下图:


    image.png

    在JDK1.8的实现中,优化了高位运算的算法,通过hashCode()的高16位异或低16位实现的:(h = k.hashCode()) ^ (h >>> 16),主要是从速度、功效、质量来考虑的,这么做可以在数组table的length比较小的时候,也能保证考虑到高低Bit都参与到Hash的计算中,同时不会有太大的开销。

    • put(key,value)
    public V put(K key, V value) {
          return putVal(hash(key), key, value, false,  true);
      }
      final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                       boolean evict) {
            Node<K,V>[] tab; Node<K,V> p; int n, i;
            if ((tab = table) == null || (n = tab.length) == 0)
                // tab 为空,调用resize()初始化tab。
                n = (tab = resize()).length;
            if ((p = tab[i = (n - 1) & hash]) == null)
                // key没有被占用的情况下,将value封装为Node并赋值
                tab[i] = newNode(hash, key, value, null);
            else {
                Node<K,V> e; K k;
                if (p.hash == hash &&
                    ((k = p.key) == key || (key != null && key.equals(k))))
                    // 如果key相同,p赋值给e
                    e = p;
                else if (p instanceof TreeNode)
                    // 如果p是红黑树类型,调用putTreeVal方式赋值
                    e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
                else {
                    // index 相同的情况下
                    for (int binCount = 0; ; ++binCount) {
                        if ((e = p.next) == null) {
                            // 如果p的next为空,将新的value值添加至链表后面
                            p.next = newNode(hash, key, value, null);
                            if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                                // 如果链表长度大于8,链表转化为红黑树,执行插入
                                treeifyBin(tab, hash);
                            break;
                        }
                        // key相同则跳出循环
                        if (e.hash == hash &&
                            ((k = e.key) == key || (key != null && key.equals(k))))
                            break;
                        p = e;
                    }
                }
                if (e != null) { // existing mapping for key
                    V oldValue = e.value;
                    //根据规则选择是否覆盖value
                    if (!onlyIfAbsent || oldValue == null)
                        e.value = value;
                    afterNodeAccess(e);
                    return oldValue;
                }
            }
            ++modCount;
            if (++size > threshold)
                // size大于加载因子,扩容
                resize();
            afterNodeInsertion(evict);
            return null;
        }
    

    HashMap 的插入操作需要分多种情况来判断。具体流程如下图:


    image.png
    • resize( ) 方法
    final Node<K,V>[] resize() {
            Node<K,V>[] oldTab = table;
            int oldCap = (oldTab == null) ? 0 : oldTab.length;
            int oldThr = threshold;
            int newCap, newThr = 0;
            if (oldCap > 0) {
                // table已存在
                if (oldCap >= MAXIMUM_CAPACITY) {
                    // 超过最大值就不再扩充
                    threshold = Integer.MAX_VALUE;
                    return oldTab;
                }
                //没超过最大值,扩充为原来的两倍
                else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                         oldCap >= DEFAULT_INITIAL_CAPACITY)
                    newThr = oldThr << 1; // double threshold
            }
            else if (oldThr > 0) // initial capacity was placed in threshold
                // 初始化时,tableSizeFor方法保证了threshold是2的幂次方
                newCap = oldThr;
            else {               // zero initial threshold signifies using defaults
                // 默认初始化,cap为16,threshold为12。
                newCap = DEFAULT_INITIAL_CAPACITY;
                newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
            }
            if (newThr == 0) {
                float ft = (float)newCap * loadFactor;
                newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                          (int)ft : Integer.MAX_VALUE);
            }
            threshold = newThr;
            @SuppressWarnings({"rawtypes","unchecked"})
                Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
            table = newTab;
            if (oldTab != null) {
                // 把每个bucket都移动到新的buckets中
                for (int j = 0; j < oldCap; ++j) {
                    Node<K,V> e;
                    if ((e = oldTab[j]) != null) {
                        oldTab[j] = null;
                        if (e.next == null)
                           // 链表只有一个节点,直接赋值
                            newTab[e.hash & (newCap - 1)] = e;
                        else if (e instanceof TreeNode)
                            // e为红黑树的情况
                            ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                        else { // preserve order
                            Node<K,V> loHead = null, loTail = null;
                            Node<K,V> hiHead = null, hiTail = null;
                            Node<K,V> next;
                            do {
                                next = e.next;
                                // e.hash & oldCap是新增的bit位的值
                                if ((e.hash & oldCap) == 0) {
                                    if (loTail == null)
                                        loHead = e;
                                    else
                                        loTail.next = e;
                                    loTail = e;
                                }
                                else {
                                    if (hiTail == null)
                                        hiHead = e;
                                    else
                                        hiTail.next = e;
                                    hiTail = e;
                                }
                            } while ((e = next) != null);
                            if (loTail != null) {
                                loTail.next = null;
                                newTab[j] = loHead;
                            }
                            if (hiTail != null) {
                                hiTail.next = null;
                                newTab[j + oldCap] = hiHead;
                            }
                        }
                    }
                }
            }
            return newTab;
        }
    

    前面一部分是对于扩容的操作。oldCap > 0表示table已经被初始化过了。说明 HashMap 已经有元素了。而其它情况都是构造 HashMap 后还没有初始化table的情况。

    resize方法我们主要关注的是元素转移到新数组的操作。

    假设 HashMap 的capacity为 2k2k。一个元素element在这个数组中的索引为:index = element.hash & (2^k - 1)。
    2^k - 1用二进制表示,它的最后 k 位都为1。
    所以index的值就是element.hash二进制表示的最后 k 位转化为十进制。
    

    示例如下:


    image.png

    接下来我们对 HashMap 进行扩容。capacity 为2k+12k+1。元素element在原来数组中的位置为index。
    计算element在新数组中的位置:newIndex = element.hash & (2 ^ (k + 1)- 1)。
    element.hash为固定值。考虑(2 ^ (k + 1)- 1)的取值,由上面的分析可以知道,它用二进制表示最后 k+1 位都为 1 。所以newIndex的值就是element.hash二进制表示的最后 k+1 位转化为十进制。

    我们来探讨index与newIndex之间的关系。下面的hash都表示element.hash。
    index的取值为hash的最后 k 位,newIndex的取值为hash的最后 k+1 位。
    第 k+1 位转化为十进制时的取值为 2k2k。
    假设hash的第 k+1 位为 x,它的值为hash & 2^k,newIndex = index + x∗2kx∗2k
    当 x 为 0 时,最后的 k+1 位的值与最后 k 位的值一样。即newIndex = index。
    当 x 为 1 时,newIndex = index + 2k2k。即element的位置右移了 2k2k位。
    所以在计算新的索引值时,只需要计算hash的第 k+1 位,即hash & 2^k。
    这个设计非常的巧妙,新增的1bit是0还是1可以认为是随机的,因此resize的过程均匀的把之前的冲突的节点分散到新的bucket中了。

    假设capacity从 16 扩展到 32 。


    image.png

    理解了这个过程之后,resize方法理解起来就很简单了。
    另外一个注意的点是:在 JDK 1.8 中,旧链表迁移新链表的时候,如果在新表的数组索引位置相同,链表元素不会倒置。这与 JDK 1.7 中不同。

    • get(key)
    public V get(Object key) {
         Node<K,V> e;
         return (e = getNode(hash(key), key)) == null ? null : e.value;
     }
     
    final Node<K,V> getNode(int hash, Object key) {
         Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
         if ((tab = table) != null && (n = tab.length) > 0 &&
             (first = tab[(n - 1) & hash]) != null) {
             if (first.hash == hash && // always check first node
                 ((k = first.key) == key || (key != null && key.equals(k))))
                 return first;
             if ((e = first.next) != null) {
                 if (first instanceof TreeNode)
                     return ((TreeNode<K,V>)first).getTreeNode(hash, key);
                 do {
                     if (e.hash == hash &&
                         ((k = e.key) == key || (key != null && key.equals(k))))
                         return e;
                 } while ((e = e.next) != null);
             }
         }
         return null;
     }
    

    判断元素相等的设计比较经典,利用了 bool表达式的短路特性:先比较 hash值;如果 hash值相等,就通过==比较;如果==不等,再通过equals方法比较。hash是提前计算好的;==直接比较引用值;equals方法最有可能耗费性能,如String的equals方法需要O(n)的时间,n是字符串长度。

    • remove(key) & remove(key, value)

    remove(key) 方法和remove(key, value)方法都是通过调用removeNode方法来实现删除元素的。

    public V remove(Object key) {
        Node<K,V> e;
        return (e = removeNode(hash(key), key, null, false, true)) == null ?
            null : e.value;
    }
    public boolean remove(Object key, Object value) {
        return removeNode(hash(key), key, value, true, true) != null;
    }
    final Node<K,V> removeNode(int hash, Object key, Object value,
                                   boolean matchValue, boolean movable) {
        Node<K,V>[] tab; Node<K,V> p; int n, index;
        if ((tab = table) != null && (n = tab.length) > 0 &&
            (p = tab[index = (n - 1) & hash]) != null) {
            Node<K,V> node = null, e; K k; V v;
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                // index 元素只有一个元素
                node = p;
            else if ((e = p.next) != null) {
                if (p instanceof TreeNode)
                    // index处是一个红黑树
                    node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
                else {
                    // index处是一个链表,遍历链表返回node
                    do {
                        if (e.hash == hash &&
                            ((k = e.key) == key ||
                             (key != null && key.equals(k)))) {
                            node = e;
                            break;
                        }
                        p = e;
                    } while ((e = e.next) != null);
                }
            }
            // 分不同情形删除节点
            if (node != null && (!matchValue || (v = node.value) == value ||
                                 (value != null && value.equals(v)))) {
                if (node instanceof TreeNode)
                    ((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
                else if (node == p)
                    tab[index] = node.next;
                else
                    p.next = .next;
                ++modCount;
                --size;
                afterNodeRemoval(node);
                return node;
            }
        }
        return null;
    }
    

    线程安全

    在多线程使用场景中,应该尽量避免使用线程不安全的 HashMap,而使用线程安全的 ConcurrentHashMap。

    迭代器的fail-fast策略导致了并发不安全。如果在使用迭代器的过程中有其他线程修改了。HashMap就会抛出异常。

    而在 JDK 1.7 中,并发 put操作触发扩容导致潜在可能的死循环现象。
    示例如下:

    public class HashMapInfiniteLoop {  
     
        private static HashMap<Integer,String> map = new HashMap<Integer,String>(2);  
        public static void main(String[] args) {  
            map.put(5, "C");  
     
            new Thread("Thread1") {  
                public void run() {  
                    map.put(7, "B");  
                    System.out.println(map);  
                };  
            }.start();  
            new Thread("Thread2") {  
                public void run() {  
                    map.put(3, "A");  
                    System.out.println(map);  
                };  
            }.start();        
        }  
    }
    

    transfer方法中的迁移元素代码如下:

    do {
        Entry<K,V> next = e.next; // <--假设线程一执行到这里就被调度挂起了
        int i = indexFor(e.hash, newCapacity);
        e.next = newTable[i];
        newTable[i] = e;
        e = next;
    } while (e != null);
    

    假设线程一执行完Entry<K,V> next = e.next;。而线程二执行完成了resize操作。那么会出现下图的情况:


    image.png

    Thread1的 e 指向了key(3),而next指向了key(7)。

    接下来线程一执行。先是执行 newTalbe[i] = e, 然后是e = next,导致了e指向了key(7),而下一次循环的next = e.next导致了next指向了key(3)。


    image.png

    e.next = newTable[i] 导致 key(3).next 指向了 key(7)。注意:此时的key(7).next已经指向了key(3), 环形链表就这样出现了。


    image.png
    当我们用线程一调用map.get(11)时,悲剧就出现了——Infinite Loop。

    总结

    扩容是一个特别耗性能的操作,所以当程序员在使用HashMap的时候,估算map的大小,初始化的时候给一个大致的数值,避免map进行频繁的扩容。

    负载因子是可以修改的,也可以大于1,但是建议不要轻易修改,除非情况非常特殊。

    HashMap是线程不安全的,不要在并发的环境中同时操作HashMap,建议使用ConcurrentHashMap。

    JDK1.8引入红黑树大程度优化了HashMap的性能。

    相关文章

      网友评论

          本文标题:Java集合之HashMap

          本文链接:https://www.haomeiwen.com/subject/jwvnfftx.html