HashMap

作者: Alsan_L3 | 来源:发表于2022-02-28 20:43 被阅读0次

    数据结构-HashMap

    Map作为Java中最常用的数据结构,不管是日常使用,还是求职面试,基本都会涉及到,所以我们今天一起来分析一波HashMap的实现原理。

    Java中Map实现有哪几类及说明

    • HashMap:它根据键的hashCode值存储数据,大多数情况下可以直接定位到它的值,因而具有很快的访问速度,但遍历顺序却是不确定的。 HashMap最多只允许一条记录的键为null,允许多条记录的值为null。HashMap非线程安全,即任一时刻可以有多个线程同时写HashMap,可能会导致数据的不一致。

    • Hashtable:Hashtable是遗留类,很多映射的常用功能与HashMap类似,不同的是它承自Dictionary类,键值都不可为null,并且是线程安全的,任一时间只有一个线程能写Hashtable,并发性不如ConcurrentHashMap,因为ConcurrentHashMap引入了分段锁。Hashtable不建议在新代码中使用,不需要线程安全的场合可以用HashMap替换,需要线程安全的场合可以用ConcurrentHashMap替换

    • LinkedHashMap:LinkedHashMap是HashMap的一个子类,保存了记录的插入顺序,在用Iterator遍历LinkedHashMap时,先得到的记录肯定是先插入的,也可以在构造时带参数,按照访问次序排序。

    • TreeMap:TreeMap实现SortedMap接口,能够把它保存的记录根据键排序,默认是按键值的升序排序,也可以指定排序的比较器,当用Iterator遍历TreeMap时,得到的记录是排过序的。如果使用排序的映射,建议使用TreeMap。在使用TreeMap时,key必须实现Comparable接口或者在构造TreeMap传入自定义的Comparator,否则会在运行时抛出java.lang.ClassCastException类型的异常。

    • ConcurrentHashMap:oncurrentHashMap是由Segment数组结构和HashEntry数组结构组成。Segment是一种可重入锁ReentrantLock,在ConcurrentHashMap里扮演锁的角色,HashEntry则用于存储键值对数据。一个ConcurrentHashMap里包含一个Segment数组,Segment的结构和HashMap类似,是一种数组和链表结构, 一个Segment里包含一个HashEntry数组,每个HashEntry是一个链表结构的元素, 每个Segment守护一个HashEntry数组里的元素,当对HashEntry数组的数据进行修改时,必须首先获得它对应的Segment锁。
      分段锁可理解为,把整个Map分成了N个Segment,put和get的时候,根据key.hashCode()找到该使用哪个Segment,这个Segment做到了类似于Hashtable的线程安全,分段锁就是说用到哪部分就锁哪部分。ConcurrentHashMap键值不能为null

    HashMap简介

    • 特点:
      1. 存储key-value结构,不限制数据类型(key不能动态变化)
      2. 根据key的hashCode值进行存取数据
      3. 最多只允许一条记录的key为null
      4. 无序
      5. 查询效率高
      6. 线程不安全
    • 实现原理:HashMap的底层是一个hash桶数组,存储的是它实现的一个内部类Node,我们可以先看下Node的实现源码:
        static class Node<K,V> implements Map.Entry<K,V> {
            final int hash;
            final K key;
            V value;
            Node<K,V> next;
    
            Node(int hash, K key, V value, Node<K,V> next) {
                this.hash = hash;
                this.key = key;
                this.value = value;
                this.next = next;
            }
    
            public final K getKey()        { return key; }
            public final V getValue()      { return value; }
            public final String toString() { return key + "=" + value; }
    
            public final int hashCode() {
                return Objects.hashCode(key) ^ Objects.hashCode(value);
            }
    
            public final V setValue(V newValue) {
                V oldValue = value;
                value = newValue;
                return oldValue;
            }
    
            public final boolean equals(Object o) {
                if (o == this)
                    return true;
                if (o instanceof Map.Entry) {
                    Map.Entry<?,?> e = (Map.Entry<?,?>)o;
                    if (Objects.equals(key, e.getKey()) &&
                        Objects.equals(value, e.getValue()))
                        return true;
                }
                return false;
            }
        }
    

    从源码中可以看出,Node存储量Map的key,hash,value及next Node,所以我们可以知道HashMap的底层是数组+Node链表实现,下面是他的结构图:


    temp

    不是说数组+链表吗,图中怎么会有红黑书?这是jdk1.8中对HashMap进行了优化,解决由于链表过长,查询效率降低的问题

    • jdk1.7与1.8区别:
      1. 扩容后 Node 索引的计算方式不同。上文提到,由于 table 大小的这种神奇的设计,所以扩容时计算索引的时候,1.8 中只需要简单使用 & 运算来判断是否为 0 即可,并不需要像 1.7 一样每次都是用 & 运算来计算出索引值。
      2. 1.8 中引入了红黑树结构。上文也提到了,当链表长度大于 8 的时候会转换为红黑树,但是 1.7 中是数组+链表的组合。
      3. 1.8 中采用的是尾插法,而 1.7 中采用的是头插法。比如扩容的时候,头插法会使链表上 Node 的顺序调转,而尾插法则不会,另外,头插法也会造成环形链死循环等问题。

    源码分析

    上面我们知道了HashMap底层的实现原理,现在我们来看下他的源码实现。

    • 关键字段及说明

      • 常量及说明
      // 默认的初始容量为 16
      static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
      // 最大容量(容量不够时需要扩容)
      static final int MAXIMUM_CAPACITY = 1 << 30;
      // 默认的负载因子
      static final float DEFAULT_LOAD_FACTOR = 0.75f;
      // 链表长度为 8 的时候会转为红黑树
      static final int TREEIFY_THRESHOLD = 8;
      // 长度为 6 的时候会从红黑树转为链表
      static final int UNTREEIFY_THRESHOLD = 6;
      // 只有桶内数据量大于 64 的时候才会允许转红黑树
      static final int MIN_TREEIFY_CAPACITY = 64;
      
      • 全局变量
      // Map 中存储的数据量,即 key-value 键值对的数量
      transient int size;
      // HashMap 内部结构发生变化的次数,即新增、删除数据的时候都会记录,
      // 注意:修改某个 key 的值,并不会改变这个 modCount
      transient int modCount;
      // 重点,代表最多能容纳的数据量
      // 即最多能容纳的 key-value 键值对的数量,计算方式:threshold = loadFactor * 数组大小length
      int threshold;
      // 负载因子,默认为 0.75
      // 注意,这个值是可以大于 1 的
      final float loadFactor;
      
    • 构造方法

      HashMap有4个构造方法,分别是:

      1. HashMap():使用默认的初始容量和负载因子
      // 构造一个空的 HashMap,初始容量为 16,负载因子为默认值 0.75
      public HashMap() {   
          this.loadFactor = DEFAULT_LOAD_FACTOR;  // all other fields defaulted
      }
      
      
      1. HashMap(int intialCapacity):指定初始容量,负载因子使用默认的
      // 构造一个空的 HashMap,并指定初始化容量,负载因子采用默认的 0.75
      public HashMap(int initialCapacity) {   
          // 调用另一个构造函数
          this(initialCapacity, DEFAULT_LOAD_FACTOR);
      }
      
      
      1. HashMap(int intialCapacity, float loadFactor):指定初始容量和负载因子
      // 构造一个空的 HashMap,并指定初始化容量,指定负载因子
      public HashMap(int initialCapacity, float loadFactor) {
          // 初始容量不为负数
          if (initialCapacity < 0)
              throw new IllegalArgumentException("Illegal initial capacity: " +  initialCapacity);
          // 初始容量大于最大值时,则取最大值
          if (initialCapacity > MAXIMUM_CAPACITY)
              initialCapacity = MAXIMUM_CAPACITY;
          // 负载因子不能小于 0,并且必须是数字,否则抛异常
          if (loadFactor <= 0 || Float.isNaN(loadFactor))
              throw new IllegalArgumentException("Illegal load factor: " + loadFactor);
          this.loadFactor = loadFactor;
          this.threshold = tableSizeFor(initialCapacity);
      
          // 最大容量 MAXIMUM_CAPACITY 为 1 << 30
      }
      
      
      1. HashMap(Map<? extends K, ? extends V> m):初始化一个非空的HashMap
      // 构造一个非空的 HashMap,指定了默认的负载因子 0.75
      public HashMap(Map<? extends K, ? extends V> m) {
          this.loadFactor = DEFAULT_LOAD_FACTOR;
          // 将 Map 中的 key-value 赋值到新的 Map 中去
          putMapEntries(m, false);
      }
      
      
    • 核心方法说明

      在上面的构造方法中,我们看到有调用两个方法:tableSizeFor(int cap)和putMapEntries(Map<? extends K, ? extends V> m)。

      1. tableSizeFor(int cap):这个方法的作用就是返回初始化数组的大小,该返回值必须满足两点:a、必须是2的幂次方,b、返回的值接近传入的参数,我们看他的源码实现:
      static final int tableSizeFor(int cap) {
            int n = cap - 1;
            n |= n >>> 1;
            n |= n >>> 2;
            n |= n >>> 4;
            n |= n >>> 8;
            n |= n >>> 16;
            return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
      }
      
      1. putMapEntries<Map<? extends K, ? extends V>):将参数中的数据存储到新的Map中去,这里会涉及到Map存值,数组初始化,扩容等操作,源码如下:
      // 将参数 m 中的所有元素存入到当前的 HashMap 中去final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
        // 获取 m 中的参数个数(key-value 的数量)
        int s = m.size();
        if (s > 0) {
            // 判断 table 是否被初始化过,否则初始化一遍。(PS:table 是在 put 操作的时候进行初始化的,所以如果当前的 HashMap 没有进行过 put 操作,则当前的 table 并不会被初始化)
            if (table == null) { // pre-size
                // 根据传进来的 map 的元素数量来计算当前 HashMap 需要的容量
                float ft = ((float)s / loadFactor) + 1.0F;
                // 计算而得的容量是不能大于最大容量的
                int t = ((ft < (float)MAXIMUM_CAPACITY) ? (int)ft : MAXIMUM_CAPACITY);
                // 将计算而得的容量赋值给 threshold,前提是大于当前容量(即不会减小当前的 HashMap 的容量)
                if (t > threshold)
                    // 将容量转换为最近的 2 的 幂次方
                    threshold = tableSizeFor(t);
            }
            // table 不为空,即已经初始化过了,
            // 如果 m 中的元素数量超过了当前 HashMap 的容量,则要进行扩容
            else if (s > threshold)
                resize();
            // 遍历 m 的每个元素,将它的 key-value 插入到当前的 HashMap 中去
            for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
                K key = e.getKey();
                V value = e.getValue();
                // 插入数据(注意,为什么不是 put() 呢,因为 put() 其实也是调用的 putVal() 方法)
                putVal(hash(key), key, value, false, evict);
            }
        }
        }
      
      1. hash(Object key):核心算法,通过key的hashCode的高16位与低16位异或,得到数组的下标。
      static final int hash(Object key) {
           int h;
           return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
      }
      

      从下图我们能看出hash计算过程


      hash
      1. put(K key, V value):
        HashMap是如何将值存进去的呢,主要分3个过程,首先通过key的hashCode得到数组下标,如果该位置为空,直接插入,否则看key是否存在,如果存在,覆盖key对应的value,然后看该位置是不是treeNode红黑树,是的话,插入键值对,否则遍历链表,查看是否大于8,是的话就转成红黑树插入,否则链表插入,整个过程可以看下图:


        put过程

        源码分析如下:

      public V put(K key, V value) {
            return putVal(hash(key), key, value, false, true);
        }
        // 参数 onlyIfAbsent,true:不修改已存在的 value,false:已存在则进行修改
        final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
            Node<K,V>[] tab; Node<K,V> p; int n, i;
            // ① 如果当前 table 为空则进行初始化
            if ((tab = table) == null || (n = tab.length) == 0)
                n = (tab = resize()).length;
            // (n - 1) & hash 计算得到索引 i,算法在上文有提到,然后查看索引处是否有数据
            // ② 如果没有数据,则新建一个新的 Node
            if ((p = tab[i = (n - 1) & hash]) == null)
                tab[i] = newNode(hash, key, value, null);
            // 索引处有数据
            else {
                Node<K,V> e; K k;
                // ③ 索引处的第一个 Node 的  key 和参数 key 是一致的,所以直接修改 value 值即可(修改的动作放在下面)
                if (p.hash == hash &&
                    ((k = p.key) == key || (key != null && key.equals(k))))
                    e = p;
                // ④ 索引处的 bucket 是红黑树,按照红黑树的逻辑进行插入或修改
                else if (p instanceof TreeNode)
                    e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
                // ⑤ 索引处的 bucket 是链表
                else {
                    // 遍历链表上面的所有 Node
                    for (int binCount = 0; ; ++binCount) {
                        // 索引处的 Node 为尾链
                        if ((e = p.next) == null) {
                            // 直接新建一个 Node 插在尾链处
                            p.next = newNode(hash, key, value, null);
                            // 判断是否需要转换为红黑树
                            if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                                // 链表转换为红黑树,此方法在上文中也有介绍
                                treeifyBin(tab, hash);
                            break;
                        }
                        // 当前 Node 的 key 值和参数 key 是一致的,即直接修改 value 值即可(修改的动作放在下面)
                        if (e.hash == hash &&
                            ((k = e.key) == key || (key != null && key.equals(k))))
                            break;
                        p = e;
                    }
                }
                // 找到了相同 key 的 Node,所以进行修改 vlaue 值即可
                if (e != null) { // existing mapping for key
                    V oldValue = e.value;
                    // 修改 value 值
                    if (!onlyIfAbsent || oldValue == null)
                        e.value = value;
                    afterNodeAccess(e);
                    // 修改操作,直接 return 结束掉代码逻辑
                    return oldValue;
                }
            }
            // 记录结构发生变化的次数
            ++modCount;
            // ⑥ 判断是否需要扩容
            if (++size > threshold)
                resize();
            afterNodeInsertion(evict);
            // 新增的 Node,返回 null
            return null;
        }
      
      1. get(Object key):分析完put,再看get其实就简单多了,也是先通过key获取hashCode
        计算出数组下标,在对应的位置查看是否为null,是就直接返回null,否则看这个位置的可以是否
        匹配上,是就返回对应的Node,否则查看下一个节点,为空返回,不为空,看是否是红黑树,是就通过
        红黑树特性进行查找,不是就通过链表的方式查找,整个过程如下图:


        get过程图
          public V get(Object key) {
              Node<K,V> e;
              return (e = getNode(hash(key), key)) == null ? null : e.value;
          }
          final Node<K,V> getNode(int hash, Object key) {
              Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
              if ((tab = table) != null && (n = tab.length) > 0 &&
                  (first = tab[(n - 1) & hash]) != null) {
                  if (first.hash == hash && // always check first node
                      ((k = first.key) == key || (key != null && key.equals(k))))
                      return first;
                  if ((e = first.next) != null) {
                      if (first instanceof TreeNode)
                          return ((TreeNode<K,V>)first).getTreeNode(hash, key);
                      do {
                          if (e.hash == hash &&
                              ((k = e.key) == key || (key != null && key.equals(k))))
                              return e;
                      } while ((e = e.next) != null);
                  }
              }
              return null;
          }
    
    1. resize():该方法主要就是扩容,让HashMap可以存更多的数据,当Map的size达到threshold的值时就会
      触发该方法,换一个更大的数组重新映射里面存储的数据,我们大概分析下该方法:
    final Node<K,V>[] resize() {
        // 当前 table
        Node<K,V>[] oldTab = table;
        // 当前的 table 的大小
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        // 当前 table 的 threshold,即允许存储的数据量阀值
        int oldThr = threshold;
        // 新的 table 的大小和阀值暂时初始化为 0
        int newCap, newThr = 0;
        // ① 开始计算新的 table 的大小和阀值
        // a、当前 table 的大小大于 0,则意味着当前的 table 肯定是有数据的
        if (oldCap > 0) {
            // 当前 table 的大小已经到了上线了,还咋扩容,自个儿继续哈希碰撞去吧
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            // 新的 table 的大小直接翻倍,阀值也直接翻倍
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // double threshold
        }
        // b、当前的 table 中无数据,但是阀值不为零,说明初始化的时候指定过容量或者阀值,但是没有被 put 过数据,因为在上文中有提到过,此时的阀值就是数组的大小,所以直接把当前的阀值当做新 table 的数组大小即可
        // 回忆一下:threshold = tableSizeFor(t);
        else if (oldThr > 0) // initial capacity was placed in threshold
            newCap = oldThr;
        // c、这种情况就代表当前的 table 是调用的空参构造来初始化的,所有的数据都是默认值,所以新的 table 也只要使用默认值即可
        else {               // zero initial threshold signifies using defaults
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        // 如果新的阀值是 0,那么就简单计算一遍就行了
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        threshold = newThr;
        // ② 初始化新的 table
        // 这个 newTab 就是新的 table,数组大小就是上面这一堆逻辑所计算出来的
        @SuppressWarnings({"rawtypes","unchecked"})
        Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        table = newTab;
        if (oldTab != null) {
            // 遍历当前 table,处理每个下标处的 bucket,将其处理到新的 table 中去
            for (int j = 0; j < oldCap; ++j) {
                Node<K,V> e;
                if ((e = oldTab[j]) != null) {
                    // 释放当前 table 数组的对象引用(for循环后,当前 table 数组不再引用任何对象)
                    oldTab[j] = null;
                    // a、只有一个 Node,则直接 rehash 赋值即可
                    if (e.next == null)
                        newTab[e.hash & (newCap - 1)] = e;
                    // b、当前的 bucket 是红黑树,直接进行红黑树的 rehash 即可
                    else if (e instanceof TreeNode)
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    // c、当前的 bucket 是链表
                    else { // preserve order
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        // 遍历链表中的每个 Node,分别判断是否需要进行 rehash 操作
                        // (e.hash & oldCap) == 0 算法是精髓,充分运用了上文提到的 table 大小为 2 的幂次方这一优势,下文会细讲
                        do {
                            next = e.next;
                            // 根据 e.hash & oldCap 算法来判断节点位置是否需要变更
                            // 索引不变
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            // 原索引 + oldCap
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        // 原 bucket 位置的尾指针不为空(即还有 node )
                        if (loTail != null) {
                            // 链表末尾必须置为 null
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        if (hiTail != null) {
                            // 链表末尾必须置为 null
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }
    
    • 注意事项
    1. 虽然 HashMap 设计的非常优秀, 但是应该尽可能少的避免 resize(), 该过程会很耗费时间。同时, 由于 hashmap 不能自动的缩小容量。因此, 如果你的 hashmap 容量很大, 但执行了很多 remove 操作时, 容量并不会减少。如果你觉得需要减少容量, 请重新创建一个 hashmap。

    2. HashMap 是线程不安全的,因为它是允许多线程同时操作同一个数组的,比如 put(),比如 resize(),这些都会造成数据异常甚至死循环。如果需要线程安全,推荐使用ConcurrentHashMap

    相关文章

      网友评论

        本文标题:HashMap

        本文链接:https://www.haomeiwen.com/subject/ewcrrrtx.html