美文网首页Java集合常见知识
数据结构解析-HashMap

数据结构解析-HashMap

作者: AntCoding | 来源:发表于2019-03-25 10:23 被阅读0次

    概要

    HashMap在JDK1.8之前的实现方式 数组+链表,但是在JDK1.8后对HashMap进行了底层优化,改为了由 数组+链表+红黑树实现,主要的目的是提高查找效率。

    如图所示:

    JDK版本 实现方式 节点数>=8 节点数<=6
    1.8以前 数组+单向链表 数组+单向链表 数组+单向链表
    1.8以后 数组+单向链表+红黑树 数组+红黑树 数组+单向链表

    HashMap

    1.继承关系

    public class HashMap<K,V> extends AbstractMap<K,V>
        implements Map<K,V>, Cloneable, Serializable 
    

    2.常量&构造方法

        //这两个是限定值 当节点数大于8时会转为红黑树存储
        static final int TREEIFY_THRESHOLD = 8;
        //当节点数小于6时会转为单向链表存储
        static final int UNTREEIFY_THRESHOLD = 6;
        //红黑树最小长度为 64
        static final int MIN_TREEIFY_CAPACITY = 64;
        //HashMap容量初始大小
        static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
        //HashMap容量极限
        static final int MAXIMUM_CAPACITY = 1 << 30;
        //负载因子默认大小
        static final float DEFAULT_LOAD_FACTOR = 0.75f;
        //Node是Map.Entry接口的实现类
        //在此存储数据的Node数组容量是2次幂
        //每一个Node本质都是一个单向链表
        transient Node<K,V>[] table;
        //HashMap大小,它代表HashMap保存的键值对的多少
        transient int size;
        //HashMap被改变的次数
        transient int modCount;
        //下一次HashMap扩容的大小
        int threshold;
        //存储负载因子的常量
        final float loadFactor;
    
       //默认的构造函数
       public HashMap() {
            this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
        }
        //指定容量大小
        public HashMap(int initialCapacity) {
            this(initialCapacity, DEFAULT_LOAD_FACTOR);
        }
         //指定容量大小和负载因子大小
        public HashMap(int initialCapacity, float loadFactor) {
            //指定的容量大小不可以小于0,否则将抛出IllegalArgumentException异常
            if (initialCapacity < 0)
                throw new IllegalArgumentException("Illegal initial capacity: " +
                                                   initialCapacity);
             //判定指定的容量大小是否大于HashMap的容量极限
            if (initialCapacity > MAXIMUM_CAPACITY)
                initialCapacity = MAXIMUM_CAPACITY;
             //指定的负载因子不可以小于0或为Null,若判定成立则抛出IllegalArgumentException异常
            if (loadFactor <= 0 || Float.isNaN(loadFactor))
                throw new IllegalArgumentException("Illegal load factor: " +
                                                   loadFactor);
             
            this.loadFactor = loadFactor;
            // 设置“HashMap阈值”,当HashMap中存储数据的数量达到threshold时,就需要将HashMap的容量加倍。
            this.threshold = tableSizeFor(initialCapacity);
        }
        //传入一个Map集合,将Map集合中元素Map.Entry全部添加进HashMap实例中
        public HashMap(Map<? extends K, ? extends V> m) {
            this.loadFactor = DEFAULT_LOAD_FACTOR;
            //此构造方法主要实现了Map.putAll()
            putMapEntries(m, false);
        }
    

    3.Node单向链表的实现

    //实现了Map.Entry接口
     static class Node<K,V> implements Map.Entry<K,V> {
            final int hash;
            final K key;
            V value;
            Node<K,V> next;
            //构造函数
            Node(int hash, K key, V value, Node<K,V> next) {
                this.hash = hash;
                this.key = key;
                this.value = value;
                this.next = next;
            }
    
            public final K getKey()        { return key; }
            public final V getValue()      { return value; }
            public final String toString() { return key + "=" + value; }
    
            public final int hashCode() {
                return Objects.hashCode(key) ^ Objects.hashCode(value);
            }
    
            public final V setValue(V newValue) {
                V oldValue = value;
                value = newValue;
                return oldValue;
            }
            //equals属性对比
            public final boolean equals(Object o) {
                if (o == this)
                    return true;
                if (o instanceof Map.Entry) {
                    Map.Entry<?,?> e = (Map.Entry<?,?>)o;
                    if (Objects.equals(key, e.getKey()) &&
                        Objects.equals(value, e.getValue()))
                        return true;
                }
                return false;
            }
        }
    

    4.TreeNode红黑树实现

      static final class TreeNode<K,V> extends LinkedHashMap.LinkedHashMapEntry<K,V> {
            TreeNode<K,V> parent;  // 红黑树的根节点
            TreeNode<K,V> left; //左树
            TreeNode<K,V> right; //右树
            TreeNode<K,V> prev;    // 上一个几点
            boolean red; //是否是红树
            TreeNode(int hash, K key, V val, Node<K,V> next) {
                super(hash, key, val, next);
            }
    
            /**
             * 根节点的实现
             */
            final TreeNode<K,V> root() {
                for (TreeNode<K,V> r = this, p;;) {
                    if ((p = r.parent) == null)
                        return r;
                    r = p;
                }
            }
        ...
    

    5.Hash的计算实现

    //主要是将传入的参数key本身的hashCode与h无符号右移16位进行二进制异或运算得出一个新的hash值
     static final int hash(Object key) {
            int h;
            return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
        }
    
    延伸讲解
    5.1.下面的做了一个例子讲解,经过hash函数计算后得到的key的hash值
    hash计算.png
    5.2那为什么要这么做呢?直接通过key.hashCode()获取hash不得了吗?为什么在右移16位后进行异或运算?
    答案 : 与HashMap的table数组下计算标有关系
    我们在下面讲解的put/get函数代码块中都出现了这样一段代码
    //put函数代码块中
    tab[i = (n - 1) & hash]) 
    //get函数代码块中
    tab[(n - 1) & hash])
    
    我们知道这段代码是根据索引得到tab中节点数据,它是如何与hash进行与运算后得到索引位置呢! 假设tab.length()=1<<4 tab下标计算h计算.png
    这样做的根本原因是当发生较大碰撞时也用树形存储降低了冲突。既减少了系统的开销

    6.HashMap.put的源码实现

     public V put(K key, V value) {
            return putVal(hash(key), key, value, false, true);
        }
     //HashMap.put的具体实现
     final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                       boolean evict) {
            Node<K,V>[] tab; Node<K,V> p; int n, i;
            //判定table不为空并且table长度不可为0,否则将从resize函数中获取
            if ((tab = table) == null || (n = tab.length) == 0)
                n = (tab = resize()).length;
             //这样写法有点绕,其实这里就是通过索引获取table数组中的一个元素看是否为Nul
            if ((p = tab[i = (n - 1) & hash]) == null)
                //若判断成立,则New一个Node出来赋给table中指定索引下的这个元素
                tab[i] = newNode(hash, key, value, null);
            else {  //若判断不成立
                Node<K,V> e; K k;
                 //对这个元素进行Hash和key值匹配
                if (p.hash == hash &&
                    ((k = p.key) == key || (key != null && key.equals(k))))
                    e = p;
                else if (p instanceof TreeNode) //如果数组中德这个元素P是TreeNode类型
                    //判定成功则在红黑树中查找符合的条件的节点并返回此节点
                    e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
                else { //若以上条件均判断失败,则执行以下代码
                    //向Node单向链表中添加数据
                    for (int binCount = 0; ; ++binCount) {
                        if ((e = p.next) == null) {
                            p.next = newNode(hash, key, value, null);
                             //若节点数大于等于8
                            if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                                //转换为红黑树
                                treeifyBin(tab, hash);
                            break;
                        }
                        if (e.hash == hash &&
                            ((k = e.key) == key || (key != null && key.equals(k))))
                            break;
                        p = e; //p记录下一个节点
                    }
                }
                if (e != null) { // existing mapping for key
                    V oldValue = e.value;
                    if (!onlyIfAbsent || oldValue == null)
                        e.value = value;
                    afterNodeAccess(e);
                    return oldValue;
                }
            }
            ++modCount;
            if (++size > threshold) //判断是否需要扩容
                resize();
            afterNodeInsertion(evict);
            return null;
        }
    
    梳理以下HashMap.put函数的执行过程
    • 1.首先获取Node数组table对象和长度,若table为null或长度为0,则调用resize()扩容方法获取table最新对象,并通过此对象获取长度大小
    • 2.判定数组中指定索引下的节点是否为Null,若为Null 则new出一个单向链表赋给table中索引下的这个节点
    • 3.若判定不为Null,我们的判断再做分支
      -3.1 首先对hash和key进行匹配,若判定成功直接赋予e
    • 3.2 若匹配判定失败,则进行类型匹配是否为TreeNode 若判定成功则在红黑树中查找符合条件的节点并将其回传赋给e
    • 3.3 若以上判定全部失败则进行最后操作,向单向链表中添加数据若单向链表的长度大于等于8,则将其转为红黑树保存,记录下一个节点,对e进行判定若成功则返回旧值
    • 4.最后判定数组大小需不需要扩容

    7.HashMap.get的源码实现

      //这里直接调用getNode函数实现方法
      public V get(Object key) {
            Node<K,V> e;
            //经过hash函数运算 获取key的hash值
            return (e = getNode(hash(key), key)) == null ? null : e.value;
        }
       
       final Node<K,V> getNode(int hash, Object key) {
            Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
            //判定三个条件 table不为Null & table的长度大于0 & table指定的索引值不为Null
            if ((tab = table) != null && (n = tab.length) > 0 &&
                (first = tab[(n - 1) & hash]) != null) {
                //判定 匹配hash值 & 匹配key值 成功则返回 该值
                if (first.hash == hash && 
                    ((k = first.key) == key || (key != null && key.equals(k))))
                    return first;
                 //若 first节点的下一个节点不为Null
                if ((e = first.next) != null) {
                    if (first instanceof TreeNode) //若first的类型为TreeNode 红黑树
                        //通过红黑树查找匹配值 并返回
                        return ((TreeNode<K,V>)first).getTreeNode(hash, key); 
                    //若上面判定不成功 则认为下一个节点为单向链表,通过循环匹配值
                    do {
                        if (e.hash == hash &&
                            ((k = e.key) == key || (key != null && key.equals(k))))
                           //匹配成功后返回该值
                            return e;
                    } while ((e = e.next) != null);
                }
            }
            return null;
        }
    
    梳理以下HashMap.get函数的执行过程
    • 1.判定三个条件 table不为Null & table的长度大于0 & table指定的索引值不为Null
    • 2.判定 匹配hash值 & 匹配key值 成功则返回 该值
    • 3.若 first节点的下一个节点不为Null
    • 3.1 若first的类型为TreeNode 红黑树 通过红黑树查找匹配值 并返回查询值
    • 3.2若上面判定不成功 则认为下一个节点为单向链表,通过循环匹配值

    8.HashMap扩容原理分析

    //重新设置table大小/扩容 并返回扩容的Node数组即HashMap的最新数据
    final Node<K,V>[] resize() {
            Node<K,V>[] oldTab = table; //table赋予oldTab作为扩充前的table数据
            int oldCap = (oldTab == null) ? 0 : oldTab.length; 
            int oldThr = threshold;
            int newCap, newThr = 0;
            if (oldCap > 0) {
                 //判定数组是否已达到极限大小,若判定成功将不再扩容,直接将老表返回
                if (oldCap >= MAXIMUM_CAPACITY) {
                    threshold = Integer.MAX_VALUE;
                    return oldTab;
                }
                 //若新表大小(oldCap*2)小于数组极限大小 并且 老表大于等于数组初始化大小
                else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                         oldCap >= DEFAULT_INITIAL_CAPACITY)
                    //旧数组大小oldThr 经二进制运算向左位移1个位置 即 oldThr*2当作新数组的大小
                    newThr = oldThr << 1; // double threshold
            }
             //若老表中下次扩容大小oldThr大于0
            else if (oldThr > 0)
                newCap = oldThr;  //将oldThr赋予控制新表大小的newCap
            else { //若其他情况则将获取初始默认大小
                newCap = DEFAULT_INITIAL_CAPACITY;
                newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
            }
            //若新表的下表下一次扩容大小为0
            if (newThr == 0) {  
                float ft = (float)newCap * loadFactor;  //通过新表大小*负载因子获取
                newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                          (int)ft : Integer.MAX_VALUE);
            }
            threshold = newThr; //下次扩容的大小
            @SuppressWarnings({"rawtypes","unchecked"})
                Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
            table = newTab; //将当前表赋予table
            if (oldTab != null) { //若oldTab中有值需要通过循环将oldTab中的值保存到新表中
                for (int j = 0; j < oldCap; ++j) {
                    Node<K,V> e;
                    if ((e = oldTab[j]) != null) {//获取老表中第j个元素 赋予e
                        oldTab[j] = null; //并将老表中的元素数据置Null
                        if (e.next == null) //若此判定成立 则代表e的下面没有节点了
                            newTab[e.hash & (newCap - 1)] = e; //将e直接存于新表的指定位置
                        else if (e instanceof TreeNode)  //若e是TreeNode类型
                            //分割树,将新表和旧表分割成两个树,并判断索引处节点的长度是否需要转换成红黑树放入新表存储
                            ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                        else { // preserve order
                            Node<K,V> loHead = null, loTail = null; //存储与旧索引的相同的节点
                            Node<K,V> hiHead = null, hiTail = null; //存储与新索引相同的节点
                            Node<K,V> next;
                            //通过Do循环 获取新旧索引的节点
                            do {
                                next = e.next;
                                if ((e.hash & oldCap) == 0) {
                                    if (loTail == null)
                                        loHead = e;
                                    else
                                        loTail.next = e;
                                    loTail = e;
                                }
                                else {
                                    if (hiTail == null)
                                        hiHead = e;
                                    else
                                        hiTail.next = e;
                                    hiTail = e;
                                }
                            } while ((e = next) != null);
                            //通过判定将旧数据和新数据存储到新表指定的位置
                            if (loTail != null) {
                                loTail.next = null;
                                newTab[j] = loHead;
                            }
                            if (hiTail != null) {
                                hiTail.next = null;
                                newTab[j + oldCap] = hiHead;
                            }
                        }
                    }
                }
            }
            //返回新表
            return newTab;
        }
    
    梳理以下HashMap.resize函数的执行过程
    • 1.判定数组是否已达到极限大小,若判定成功将不再扩容,直接将老表返回
    • 2.若新表大小(oldCap2)小于数组极限大小&老表大于等于数组初始化大小 判定成功则 旧数组大小oldThr 经二进制运算向左位移1个位置 即 oldThr2当作新数组的大小
    • 2.1. 若[2]的判定不成功,则继续判定 oldThr (代表 老表的下一次扩容量)大于0,若判定成功 则将oldThr赋给newCap作为新表的容量
    • 2.2 若 [2] 和[2.1]判定都失败,则走默认赋值 代表 表为初次创建
    • 3.确定下一次表的扩容量, 将新表赋予当前表
    • 4.通过for循环将老表中德值存入扩容后的新表中
    • 4.1 获取旧表中指定索引下的Node对象 赋予e 并将旧表中的索引位置数据置空
    • 4.2 若e的下面没有其他节点则将e直接赋到新表中的索引位置
    • 4.3 若e的类型为TreeNode红黑树类型
    • 4.3.1 分割树,将新表和旧表分割成两个树,并判断索引处节点的长度是否需要转换成红黑树放入新表存储
    • 4.3.2 通过Do循环 不断获取新旧索引的节点
    • 4.3.3 通过判定将旧数据和新数据存储到新表指定的位置
      1. 最后返回值为 扩容后的新表。

    9.HashMap 的treeifyBin讲解

    final void treeifyBin(Node<K,V>[] tab, int hash) {
            int n, index; Node<K,V> e;
           //做判定 tab 为Null 或 tab的长度小于 红黑树最小容量
            if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
                //则通过扩容,扩容table数组大小
                resize();
             //做判定 若tab索引位置下数据不为空
            else if ((e = tab[index = (n - 1) & hash]) != null) {
                //定义两个红黑树;分别表示头部节点、尾部节点
                TreeNode<K,V> hd = null, tl = null; 
                //通过循环将单向链表转换为红黑树存储
                do {
                    //将单向链表转换为红黑树
                    TreeNode<K,V> p = replacementTreeNode(e, null);
                    if (tl == null) //若头部节点为Null,则说明该树没有根节点
                        hd = p;
                    else {
                        p.prev = tl; //指向父节点
                        tl.next = p; //指向下一个节点
                    }
                    tl = p; //将当前节点设尾节点
                } while ((e = e.next) != null); //若下一个不为Null,则继续遍历
                //红黑树转换后,替代原位置上的单项链表
                if ((tab[index] = hd) != null)
                    hd.treeify(tab); //  构建红黑树,以头部节点定为根节点
            }
        }
      
       TreeNode<K,V> replacementTreeNode(Node<K,V> p, Node<K,V> next) {
            return new TreeNode<>(p.hash, p.key, p.value, next);
        }
    
    
    梳理以下HashMap.treeifyBin函数的执行过程
    • 1.做判定 tab 为Null 或 tab的长度小于红黑树最小容量, 判定成功则通过扩容,扩容table数组大小
    • 2.做判定 若tab索引位置下数据不为空,判定成功则通过循环将单向链表转换为红黑树存储
    • 2.1 通过Do循环将当前节点下的单向链表转换为红黑树,若下一个不为Null,则继续遍历
    • 2.2 构建红黑树,以头部节点定为根节点

    This ALL! Thanks EveryBody!

    相关文章

      网友评论

        本文标题:数据结构解析-HashMap

        本文链接:https://www.haomeiwen.com/subject/vlpjvqtx.html