美文网首页
哈希表(hash table)及HashMap jdk1.8源码

哈希表(hash table)及HashMap jdk1.8源码

作者: 月影路西法 | 来源:发表于2020-01-01 18:52 被阅读0次

    哈希表(hash table)也叫散列表,是一种非常重要的数据结构,应用场景及其丰富,许多缓存技术(比如memcached)的核心其实就是在内存中维护一张大的哈希表,而HashMap的实现原理也常常出现在各类的面试题中,重要性可见一斑。本文会对java集合框架中的对应实现HashMap的实现原理进行讲解,然后会对JDK7以及JDK8的HashMap源码进行分析

    1什么是哈希表(hash table)

    在讨论哈希表之前,我们先大概了解下其他数据结构在新增,查找等基础操作执行性能
    hash : 翻译为散列,就是把任意长度的输入,通过散列算法,变成固定长度的输出,该输出就是散列值。
    这种转换是一种压缩映射,散列值的空间通常远小于输入的空间,不同的输入可能会散列成相同的输出,所以不可能从散列值来唯一的确定输入值。
    简单的说就是一种将任意长度的消息压缩到莫伊固定长度的消息摘要的函数。

    1.1 数组:

    采用一段连续的存储单元来存储数据。对于指定下标的查找,时间复杂度为O(1);通过给定值进行查找,需要遍历数组,逐一比对给定关键字和数组元素,时间复杂度为O(n),当然,对于有序数组,则可采用二分查找,插值查找,斐波那契查找等方式,可将查找复杂度提高为O(logn);对于一般的插入删除操作,涉及到数组元素的移动,其平均复杂度也为O(n)

    1.2线性链表

    对于链表的新增,删除等操作(在找到指定操作位置后),仅需处理结点间的引用即可,时间复杂度为O(1),而查找操作需要遍历链表逐一进行比对,复杂度为O(n)

    1.3二叉树:

    对一棵相对平衡的有序二叉树,对其进行插入,查找,删除等操作,平均复杂度均为O(logn)。

    1.4红黑树

    Red-Black Tree 称为“红黑树”,是一种自平衡二叉查找树,红黑树和 AVL 树类似,在进行插入和删除时需要通过旋转和重新着色来维持其红黑树的特性。
    红黑树的应用相当广泛,主要是用它来存储有序的数据,它的时间复杂度为 O(logn),查询效率非常高。

    1.5 哈希表

    相比上述几种数据结构,在哈希表中进行添加,删除,查找等操作,性能十分之高,不考虑哈希冲突的情况下,仅需一次定位即可完成,时间复杂度为O(1),接下来我们就来看看哈希表是如何实现达到惊艳的常数阶O(1)的。

    我们知道,数据结构的物理存储结构只有两种:顺序存储结构和链式存储结构(像栈,队列,树,图等是从逻辑结构去抽象的,映射到内存中,也这两种物理组织形式),而在上面我们提到过,在数组中根据下标查找某个元素,一次定位就可以达到,哈希表利用了这种特性,哈希表的主干就是数组。

    比如我们要新增或查找某个元素,我们通过把当前元素的关键字 通过某个函数映射到数组中的某个位置,通过数组下标一次定位就可完成操作。

    存储位置 = f(关键字)

    其中,这个函数f一般称为哈希函数,这个函数的设计好坏会直接影响到哈希表的优劣。举个例子,比如我们要在哈希表中执行插入操作:

       哈希表基本原理.png
      查找操作同理,先通过哈希函数计算出实际存储地址,然后从数组中对应地址取出即可。

    1.6 哈希冲突

    然而万事无完美,如果两个不同的元素,通过哈希函数得出的实际存储地址相同怎么办?也就是说,当我们对某个元素进行哈希运算,得到一个存储地址,然后要进行插入的时候,发现已经被其他元素占用了,其实这就是所谓的哈希冲突,也叫哈希碰撞。前面我们提到过,哈希函数的设计至关重要,好的哈希函数会尽可能地保证 计算简单和散列地址分布均匀,但是,我们需要清楚的是,数组是一块连续的固定长度的内存空间,再好的哈希函数也不能保证得到的存储地址绝对不发生冲突。那么哈希冲突如何解决呢?哈希冲突的解决方案有多种:开放定址法(发生冲突,继续寻找下一块未被占用的存储地址),再散列函数法,链地址法,而HashMap即是采用了链地址法,也就是数组+链表的方式
    我从CSDN上找到一个hash冲突的文章

    HashMap源码解析

    摘出了一些HashMap中的重要参数

     /** 
       * 主要参数 同  JDK 1.7 
       * 即:容量、加载因子、扩容阈值(要求、范围均相同)
       */
    
      //  容量(capacity)必须是2的幂 & <最大容量(2的30次方)
      static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // 默认容量 = 16 = 1<<4 = 00001中的1向左移4位 = 10000 = 十进制的2^4=16
      static final int MAXIMUM_CAPACITY = 1 << 30; // 最大容量 =  2的30次方(若传入的容量过大,将被最大值替换)
    
      //  加载因子(Load factor):HashMap在其容量自动增加前可达到多满的一种尺度 
      final float loadFactor; // 实际加载因子
      static final float DEFAULT_LOAD_FACTOR = 0.75f; // 默认加载因子 = 0.75
    
      // 扩容阈值(threshold):当哈希表的大小 ≥ 扩容阈值时,就会扩容哈希表(即扩充HashMap的容量) 
      // a. 扩容 = 对哈希表进行resize操作(即重建内部数据结构),从而哈希表将具有大约两倍的桶数
      // b. 扩容阈值 = 容量 x 加载因子
      int threshold;
    
      // 4. 其他
      transient Node<K,V>[] table;  // 存储数据的Node类型 数组,长度 = 2的幂;数组的每个元素 = 1个单链表
      transient int size;// HashMap的大小,即 HashMap中存储的键值对的数量
     
    
      /** 
       * 与红黑树相关的参数
       */
       // 1. 桶的树化阈值:即 链表转成红黑树的阈值,在存储数据时,当链表长度 > 该值时,则将链表转换成红黑树
       static final int TREEIFY_THRESHOLD = 8; 
       // 2. 桶的链表还原阈值:即 红黑树转为链表的阈值,当在扩容(resize())时(此时HashMap的数据存储位置会重新计算),在重新计算存储位置后,
       //当原有的红黑树内数量 < 6时,则将 红黑树转换成链表
       static final int UNTREEIFY_THRESHOLD = 6;
       // 3. 最小树形化容量阈值:即 当哈希表中的容量 > 该值时,才允许树形化链表 (即 将链表 转换成红黑树)
       // 否则,若桶内元素太多时,则直接扩容,而不是树形化
       // 为了避免进行扩容、树形化选择的冲突,这个值不能小于 4 * TREEIFY_THRESHOLD
       static final int MIN_TREEIFY_CAPACITY = 64;
    

    HashMap的构造函数

    我们来看看HashMap的构造函数

    /**
      * 函数使用原型
      */
      Map<String,Integer> map = new HashMap<String,Integer>();
    
     /**
       * 源码分析:主要是HashMap的构造函数 = 4个
       * 仅贴出关于HashMap构造函数的源码
       */
    
    public class HashMap<K,V>
        extends AbstractMap<K,V>
        implements Map<K,V>, Cloneable, Serializable{
    
        // 省略上节阐述的参数
        
      /**
         * 构造函数1:默认构造函数(无参)
         * 加载因子 & 容量 = 默认 = 0.75、16
         */
        public HashMap() {
            this.loadFactor = DEFAULT_LOAD_FACTOR;
        }
    
        /**
         * 构造函数2:指定“容量大小”的构造函数
         * 加载因子 = 默认 = 0.75 、容量 = 指定大小
         */
        public HashMap(int initialCapacity) {
            // 实际上是调用指定“容量大小”和“加载因子”的构造函数
            // 只是在传入的加载因子参数 = 默认加载因子
            this(initialCapacity, DEFAULT_LOAD_FACTOR);
            
        }
    
        /**
         * 构造函数3:指定“容量大小”和“加载因子”的构造函数
         * 加载因子 & 容量 = 自己指定
         */
        public HashMap(int initialCapacity, float loadFactor) {
    
            // 指定初始容量必须非负,否则报错  
             if (initialCapacity < 0)  
               throw new IllegalArgumentException("Illegal initial capacity: " +  
                                               initialCapacity); 
    
            // HashMap的最大容量只能是MAXIMUM_CAPACITY,哪怕传入的 > 最大容量
            if (initialCapacity > MAXIMUM_CAPACITY)
                initialCapacity = MAXIMUM_CAPACITY;
    
            // 填充比必须为正  
            if (loadFactor <= 0 || Float.isNaN(loadFactor))  
                throw new IllegalArgumentException("Illegal load factor: " +  
                                               loadFactor);  
            // 设置 加载因子
            this.loadFactor = loadFactor;
    
            // 设置 扩容阈值
            // 注:此处不是真正的阈值,仅仅只是将传入的容量大小转化为:>传入容量大小的最小的2的幂,该阈值后面会重新计算
            // 下面会详细讲解 ->> 分析1
            this.threshold = tableSizeFor(initialCapacity); 
    
        }
    
        /**
         * 构造函数4:包含“子Map”的构造函数
         * 即 构造出来的HashMap包含传入Map的映射关系
         * 加载因子 & 容量 = 默认
         */
    
        public HashMap(Map<? extends K, ? extends V> m) {
    
            // 设置容量大小 & 加载因子 = 默认
            this.loadFactor = DEFAULT_LOAD_FACTOR; 
    
            // 将传入的子Map中的全部元素逐个添加到HashMap中
            putMapEntries(m, false); 
        }
    }
    
       /**
         * 分析1:tableSizeFor(initialCapacity)
         * 作用:将传入的容量大小转化为:>传入容量大小的最小的2的幂
         * 与JDK 1.7对比:类似于JDK 1.7 中 inflateTable()里的 roundUpToPowerOf2(toSize)
         */
        static final int tableSizeFor(int cap) {
         int n = cap - 1;
         n |= n >>> 1;
         n |= n >>> 2;
         n |= n >>> 4;
         n |= n >>> 8;
         n |= n >>> 16;
         return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
    }
    

    此处仅用于接收初始容量大小(capacity)、加载因子(Load factor),但仍无真正初始化哈希表,即初始化存储数组table

    HashMap的链表类

    /** 
      * Node  = HashMap的内部类,实现了Map.Entry接口,本质是 = 一个映射(键值对)
      * 实现了getKey()、getValue()、equals(Object o)和hashCode()等方法
      **/  
     
      static class Node<K,V> implements Map.Entry<K,V> {
     
            final int hash; // 哈希值,HashMap根据该值确定记录的位置
            final K key; // key
            V value; // value
            Node<K,V> next;// 链表下一个节点
     
            // 构造方法
            Node(int hash, K key, V value, Node<K,V> next) {
                this.hash = hash;
                this.key = key;
                this.value = value;
                this.next = next;
            }
            
            public final K getKey()        { return key; }   // 返回 与 此项 对应的键
            public final V getValue()      { return value; } // 返回 与 此项 对应的值
            public final String toString() { return key + "=" + value; }
     
            public final V setValue(V newValue) {
                V oldValue = value;
                value = newValue;
                return oldValue;
            }
     
          /** 
            * hashCode() 
            */
            public final int hashCode() {
                return Objects.hashCode(key) ^ Objects.hashCode(value);
            }
     
          /** 
            * equals()
            * 作用:判断2个Entry是否相等,必须key和value都相等,才返回true  
            */
            public final boolean equals(Object o) {
                if (o == this)
                    return true;
                if (o instanceof Map.Entry) {
                    Map.Entry<?,?> e = (Map.Entry<?,?>)o;
                    if (Objects.equals(key, e.getKey()) &&
                        Objects.equals(value, e.getValue()))
                        return true;
                }
                return false;
            }
    

    HashMap中红黑树节点的实现类

    
     /**
      * 红黑树节点 实现类:继承自LinkedHashMap.Entry<K,V>类
      */
      static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {  
     
        // 属性 = 父节点、左子树、右子树、删除辅助节点 + 颜色
        TreeNode<K,V> parent;  
        TreeNode<K,V> left;   
        TreeNode<K,V> right;
        TreeNode<K,V> prev;   
        boolean red;   
     
        // 构造函数
        TreeNode(int hash, K key, V val, Node<K,V> next) {  
            super(hash, key, val, next);  
        }  
      
        // 返回当前节点的根节点  
        final TreeNode<K,V> root() {  
            for (TreeNode<K,V> r = this, p;;) {  
                if ((p = r.parent) == null)  
                    return r;  
                r = p;  
            }  
    
    

    HashMap集合的添加

    我们都知道HashMap的添加是通过put方法

       /**
         * 源码分析:主要分析HashMap的put函数
         */
        public V put(K key, V value) {
            // 1. 对传入数组的键Key计算Hash值
            // 2. 再调用putVal()添加数据进去
            return putVal(hash(key), key, value, false, true);
        }
    

    我们可以看到这里有个hash()方法

          // JDK 1.8实现:将 键key 转换成 哈希码(hash值)操作 = 使用hashCode() + 1次位运算 + 1次异或运算(2次扰动)
          // 1. 取hashCode值: h = key.hashCode() 
          // 2. 高位参与低位的运算:h ^ (h >>> 16)  
          static final int hash(Object key) {
               int h;
                return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
                // a. 当key = null时,hash值 = 0,所以HashMap的key 可为null      
                // 注:对比HashTable,HashTable对key直接hashCode(),若key为null时,会抛出异常,所以HashTable的key不可为null
                // b. 当key ≠ null时,则通过先计算出 key的 hashCode()(记为h),然后 对哈希码进行 扰动处理: 按位 异或(^) 哈希码自身右移16位后的二进制
         }
        
    //计算hashCode
        public int hashCode() {
            return identityHashCode(this);
        }
    /HashCode的一些计算
    static int identityHashCode(Object obj) {
            int lockWord = obj.shadow$_monitor_;
            final int lockWordStateMask = 0xC0000000;  // Top 2 bits.
            final int lockWordStateHash = 0x80000000;  // Top 2 bits are value 2 (kStateHash).
            final int lockWordHashMask = 0x0FFFFFFF;  // Low 28 bits.
            if ((lockWord & lockWordStateMask) == lockWordStateHash) {
                return lockWord & lockWordHashMask;
            }
            return identityHashCodeNative(obj);
        }
    
        /**
         * Return the identity hash code when the information in the monitor field
         * is not sufficient.
         */
        @FastNative
        private static native int identityHashCodeNative(Object obj);
    

    接下来是放置HashCode

      /**
         * 分析2:putVal(hash(key), key, value, false, true)
         */
         final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
    
                Node<K,V>[] tab; Node<K,V> p; int n, i;
    
            // 1. 若哈希表的数组tab为空,则 通过resize() 创建
            // 所以,初始化哈希表的时机 = 第1次调用put函数时,即调用resize() 初始化创建
            // 关于resize()的源码分析将在下面讲解扩容时详细分析,此处先跳过
            if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
    
            // 2. 计算插入存储的数组索引i:根据键值key计算的hash值 得到
            // 此处的数组下标计算方式 = i = (n - 1) & hash,同JDK 1.7中的indexFor(),上面已详细描述
    
            // 3. 插入时,需判断是否存在Hash冲突:
            // 若不存在(即当前table[i] == null),则直接在该数组位置新建节点,插入完毕
            // 否则,代表存在Hash冲突,即当前存储位置已存在节点,则依次往下判断:a. 当前位置的key是否与需插入的key相同、b. 判断需插入的数据结构是否为红黑树 or 链表
            if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);  // newNode(hash, key, value, null)的源码 = new Node<>(hash, key, value, next)
    
        else {
            Node<K,V> e; K k;
    
            // a. 判断 table[i]的元素的key是否与 需插入的key一样,若相同则 直接用新value 覆盖 旧value
            // 判断原则:equals()
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
    
            // b. 继续判断:需插入的数据结构是否为红黑树 or 链表
            // 若是红黑树,则直接在树中插入 or 更新键值对
            else if (p instanceof TreeNode)
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); ->>分析3
    
            // 若是链表,则在链表中插入 or 更新键值对
            // i.  遍历table[i],判断Key是否已存在:采用equals() 对比当前遍历节点的key 与 需插入数据的key:若已存在,则直接用新value 覆盖 旧value
            // ii. 遍历完毕后仍无发现上述情况,则直接在链表尾部插入数据
            // 注:新增节点后,需判断链表长度是否>8(8 = 桶的树化阈值):若是,则把链表转换为红黑树
            
            else {
                for (int binCount = 0; ; ++binCount) {
                    // 对于ii:若数组的下1个位置,表示已到表尾也没有找到key值相同节点,则新建节点 = 插入节点
                    // 注:此处是从链表尾插入,与JDK 1.7不同(从链表头插入,即永远都是添加到数组的位置,原来数组位置的数据则往后移)
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
    
                        // 插入节点后,若链表节点>数阈值,则将链表转换为红黑树
                        if (binCount >= TREEIFY_THRESHOLD - 1) 
                            treeifyBin(tab, hash); // 树化操作
                        break;
                    }
    
                    // 对于i
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
    
                    // 更新p指向下一个节点,继续遍历
                    p = e;
                }
            }
    
            // 对i情况的后续操作:发现key已存在,直接用新value 覆盖 旧value & 返回旧value
            if (e != null) { 
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e); // 替换旧值时会调用的方法(默认实现为空)
                return oldValue;
            }
        }
    
        ++modCount;
    
        // 插入成功后,判断实际存在的键值对数量size > 最大容量threshold
        // 若 > ,则进行扩容 ->>分析4(但单独讲解,请直接跳出该代码块)
        if (++size > threshold)
            resize();
    
        afterNodeInsertion(evict);// 插入成功时会调用的方法(默认实现为空)
        return null;
    
    }
    
        /**
         * 分析3:putTreeVal(this, tab, hash, key, value)
         * 作用:向红黑树插入 or 更新数据(键值对)
         * 过程:遍历红黑树判断该节点的key是否与需插入的key 相同:
         *      a. 若相同,则新value覆盖旧value
         *      b. 若不相同,则插入
         */
    
         final TreeNode<K,V> putTreeVal(HashMap<K,V> map, Node<K,V>[] tab,
                                           int h, K k, V v) {
                Class<?> kc = null;
                boolean searched = false;
                TreeNode<K,V> root = (parent != null) ? root() : this;
                for (TreeNode<K,V> p = root;;) {
                    int dir, ph; K pk;
                    if ((ph = p.hash) > h)
                        dir = -1;
                    else if (ph < h)
                        dir = 1;
                    else if ((pk = p.key) == k || (k != null && k.equals(pk)))
                        return p;
                    else if ((kc == null &&
                              (kc = comparableClassFor(k)) == null) ||
                             (dir = compareComparables(kc, k, pk)) == 0) {
                        if (!searched) {
                            TreeNode<K,V> q, ch;
                            searched = true;
                            if (((ch = p.left) != null &&
                                 (q = ch.find(h, k, kc)) != null) ||
                                ((ch = p.right) != null &&
                                 (q = ch.find(h, k, kc)) != null))
                                return q;
                        }
                        dir = tieBreakOrder(k, pk);
                    }
    
                    TreeNode<K,V> xp = p;
                    if ((p = (dir <= 0) ? p.left : p.right) == null) {
                        Node<K,V> xpn = xp.next;
                        TreeNode<K,V> x = map.newTreeNode(h, k, v, xpn);
                        if (dir <= 0)
                            xp.left = x;
                        else
                            xp.right = x;
                        xp.next = x;
                        x.parent = x.prev = xp;
                        if (xpn != null)
                            ((TreeNode<K,V>)xpn).prev = x;
                        moveRootToFront(tab, balanceInsertion(root, x));
                        return null;
                    }
                }
            }
    
      /**
         * 分析4:resize()
         * 该函数有2种使用情况:1.初始化哈希表 2.当前数组容量过小,需扩容
         */
       final Node<K,V>[] resize() {
        Node<K,V>[] oldTab = table; // 扩容前的数组(当前数组)
        int oldCap = (oldTab == null) ? 0 : oldTab.length; // 扩容前的数组的容量 = 长度
        int oldThr = threshold;// 扩容前的数组的阈值
        int newCap, newThr = 0;
    
        // 针对情况2:若扩容前的数组容量超过最大值,则不再扩充
        if (oldCap > 0) {
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
    
            // 针对情况2:若无超过最大值,就扩充为原来的2倍
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // 通过右移扩充2倍
        }
    
        // 针对情况1:初始化哈希表(采用指定 or 默认值)
        else if (oldThr > 0) // initial capacity was placed in threshold
            newCap = oldThr;
    
        else {               // zero initial threshold signifies using defaults
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
    
        // 计算新的resize上限
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
    
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        table = newTab;
    
        if (oldTab != null) {
            // 把每个bucket都移动到新的buckets中
            for (int j = 0; j < oldCap; ++j) {
                Node<K,V> e;
                if ((e = oldTab[j]) != null) {
                    oldTab[j] = null;
    
                    if (e.next == null)
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
    
                    else { // 链表优化重hash的代码块
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        do {
                            next = e.next;
                            // 原索引
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            // 原索引 + oldCap
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        // 原索引放到bucket里
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        // 原索引+oldCap放到bucket里
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }
    

    从HahsMap中获取数据

    我们都知道从HashMap中获取数据,是通过get()方法,接下来我们来看看get方法

    /**
       * 函数原型
       * 作用:根据键key,向HashMap获取对应的值
       */ 
       map.get(key);
    
    
     /**
       * 源码分析
       */ 
       public V get(Object key) {
        Node<K,V> e;
        // 1. 计算需获取数据的hash值
        // 2. 通过getNode()获取所查询的数据 ->>分析1
        // 3. 获取后,判断数据是否为空
        return (e = getNode(hash(key), key)) == null ? null : e.value;
    }
    
    /**
       * 分析1:getNode(hash(key), key))
       */ 
    final Node<K,V> getNode(int hash, Object key) {
        Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
    
        // 1. 计算存放在数组table中的位置
        if ((tab = table) != null && (n = tab.length) > 0 &&
            (first = tab[(n - 1) & hash]) != null) {
    
            // 4. 通过该函数,依次在数组、红黑树、链表中查找(通过equals()判断)
            // a. 先在数组中找,若存在,则直接返回
            if (first.hash == hash && // always check first node
                ((k = first.key) == key || (key != null && key.equals(k))))
                return first;
    
            // b. 若数组中没有,则到红黑树中寻找
            if ((e = first.next) != null) {
                // 在树中get
                if (first instanceof TreeNode)
                    return ((TreeNode<K,V>)first).getTreeNode(hash, key);
    
                // c. 若红黑树中也没有,则通过遍历,到链表中寻找
                do {
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        return e;
                } while ((e = e.next) != null);
            }
        }
        return null;
    }
    

    同样也是根据Key获取hash值,然后依次在数组、红黑树、链表中查找

    HashMap中的一些其他操作

    void clear(); // 清除哈希表中的所有键值对
    int size();  // 返回哈希表中所有 键值对的数量 = 数组中的键值对 + 链表中的键值对
    boolean isEmpty(); // 判断HashMap是否为空;size == 0时 表示为 空 
    
    void putAll(Map<? extends K, ? extends V> m);  // 将指定Map中的键值对 复制到 此Map中
    V remove(Object key);  // 删除该键值对
    
    boolean containsKey(Object key); // 判断是否存在该键的键值对;是 则返回true
    boolean containsValue(Object value);  // 判断是否存在该值的键值对;是 则返回true
    

    hashMap jdk1.7与1.8的对比

    相关文章

      网友评论

          本文标题:哈希表(hash table)及HashMap jdk1.8源码

          本文链接:https://www.haomeiwen.com/subject/wtfuvctx.html