美文网首页
HashMap源码分析

HashMap源码分析

作者: 追梦1819 | 来源:发表于2019-03-12 13:11 被阅读0次

目录

一、数据模型

二、重要属性

三、构造方法

四、普通方法

put()

resize()

get()

五、总结

一、数据模型

​ 在网上看过一些所谓的HashMap源码分析,大部分依旧是比较抽象的。究其原因,主要还是对HashMap的数据结构不理解。以下以图示展示。

HashMap中存在一个内部类:

    static class Node<K,V> implements Map.Entry<K,V> {

        final int hash;

        final K key;

        V value;

        Node<K,V> next;

        // do soemthig

    }

该内部类中,有四个属性,我们存储的是key和value。其中hash通过key计算的hashcode值,next是指向下一个节点。由此可以理解存储原理了。

二、重要属性

    /**

    * The default initial capacity - MUST be a power of two.

    */

    // 思考:为什么必须是2的倍数?

    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16

    // 最大长度

    static final int MAXIMUM_CAPACITY = 1 << 30;

int threshold;

threshold = capacity * loadFactor,当Size>=threshold的时候,那么就要考虑对数组的扩增了,也就是说,这个的意思就是衡量数组是否需要扩增的一个标准。同时需要对应数组上有元素。

static final float DEFAULT_LOAD_FACTOR = 0.75f;

负载因子:该属性是表示在扩容之前容量占有率的一个标尺。它控制数组存放Node是的疏密程度。loadFactor越趋近于1,那么数组中存放的数据(entry)也就越多,也就越密,也就是会让链表的长度增加,loadFactor越小,也就是趋近于0,那么数组中存放的数据也就越稀。默认的0.75f是一个权衡后的值。

    static final int TREEIFY_THRESHOLD = 8;

如果链表超过了这个值,则将单链表转变为红黑树。(1.8版本)

    static final int UNTREEIFY_THRESHOLD = 6;

如果红黑树的节点被删,且小于该阈值,则变为链表。

    transient int size;

记录数组已使用的容量,用来个阈值进行比较。

final float loadFactor;

填充因子

static final int MIN_TREEIFY_CAPACITY = 64;

桶中结构转化为红黑树对应的table的最小大小

三、构造方法

    // 构造函数一

    public HashMap() {

        this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted

    }

    // 构造函数二

    public HashMap(int initialCapacity) {

        this(initialCapacity, DEFAULT_LOAD_FACTOR);

    }

    // 构造函数三

    public HashMap(int initialCapacity, float loadFactor) {

        if (initialCapacity < 0)

            throw new IllegalArgumentException("Illegal initial capacity: " +

                                              initialCapacity);

        if (initialCapacity > MAXIMUM_CAPACITY)

            initialCapacity = MAXIMUM_CAPACITY;

        if (loadFactor <= 0 || Float.isNaN(loadFactor))

            throw new IllegalArgumentException("Illegal load factor: " +

                                              loadFactor);

        this.loadFactor = loadFactor;

        this.threshold = tableSizeFor(initialCapacity);

    }

    // 构造函数四

    public HashMap(Map<? extends K, ? extends V> m) {

        this.loadFactor = DEFAULT_LOAD_FACTOR;

        putMapEntries(m, false);

    }

我们用的最多的就是第一个构造方法,负载因子默认是0.75f。构造函数三是手动设置初始容量和负载因子,构造函数二调用的构造函数三,手动设置初始容量大小。构造函数是将别的map映射到自己的map中。

四、普通方法

put()

上面我们了解了HashMap的存储结构。在给HashMap中添加元素的时候,我们应该考虑这样一个问题:如何确定元素的添加的位置?

我们来分析代码:

    public V put(K key, V value) {

        return putVal(hash(key), key, value, false, true);

    }

    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,boolean evict) {

        Node<K,V>[] tab; Node<K,V> p; int n, i;

        // 如果数组未进行初始化或者为空,则通过resize()初始化,并返回数组的长度

        if ((tab = table) == null || (n = tab.length) == 0)

            n = (tab = resize()).length;

        // (n - 1) & hash 确定节点放在数组的哪个位置(这个表达式中可以看出为什么数组的扩容的长度为什么要是2的n次幂的原因了)

        // 确定后的在数组中的该位置为空,则新的节点放在这个位置

        if ((p = tab[i = (n - 1) & hash]) == null)

            tab[i] = newNode(hash, key, value, null);

        // 以下的else中的逻辑表示确定的该位置不是空

        else {

            Node<K,V> e; K k;

            // 如果与数组中的节点的hash值相等,则直接取代

            if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))

                e = p;

            // 如果是红黑树节点

            else if (p instanceof TreeNode)

                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);

            // 如果是链表节点

            else {

                for (int binCount = 0; ; ++binCount) {

                    if ((e = p.next) == null) {

                        p.next = newNode(hash, key, value, null);

                        // 节点到达阈值,转为红黑树

                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st

                            treeifyBin(tab, hash);

                        break;

                    }

                    if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k))))

                        break;

                    p = e;

                }

            }

            if (e != null) { // existing mapping for key

                V oldValue = e.value;

                if (!onlyIfAbsent || oldValue == null)

                    e.value = value;

                afterNodeAccess(e);

                return oldValue;

            }

        }

        ++modCount;

        // 如果数组中的元素个数超过阈值,则进行扩容

        if (++size > threshold)

            resize();

        afterNodeInsertion(evict);

        return null;

    }

通过以上的源码,我们可以看出。在添加新节点时,通过hash确定其位置。分以下种情况:

数组的该位置为空,直接添加到该位置

数组的该位置不为空,但是与新节点的hash相同,则直接取代

数组的该位置不为空,且节点下面是单链表

数组的该位置不为空,且元素下面是红黑树

确定位置时,hash值起着重要的作用,我们看看该方法:

    static final int hash(Object key) {

        int h;

        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);

    }

这里通过位运算重新计算了hash值的值。为什么要重新计算?

主要是因为n值比较小,hash只参与了低位运算,高位运算没有用上。这就增大了hash值的碰撞概率。而通过这种位运算的计算方式,使得高位运算参与其中,减小了hash的碰撞概率,使hash值尽可能散开。

注意:我们在分析重要属性DEFAULT_INITIAL_CAPACITY的时候,数组的初始化或者扩容为什么给必须是2的n次幂?

在以上源码的(n - 1) & hash中给出了答案:(n - 1) & hash等价于对 length 取余。但取余的计算效率没有位运算高,所以(n - 1) & hash也是一个小的优化。例如,假设 hash = 185,n = 16。

resize()

这个方法我们在put()方法中已经调用过,作用是用来进行数组的初始化和扩容。下面看看源码:

final Node<K,V>[] resize() {

    // 当前table保存

    Node<K,V>[] oldTab = table;

    // 保存table大小

    int oldCap = (oldTab == null) ? 0 : oldTab.length;

    // 保存当前阈值

    int oldThr = threshold;

    int newCap, newThr = 0;

    // 之前table大小大于0

    if (oldCap > 0) {

        // 之前table大于最大容量

        if (oldCap >= MAXIMUM_CAPACITY) {

            // 阈值为最大整形

            threshold = Integer.MAX_VALUE;

            return oldTab;

        }

        // 容量翻倍,使用左移,效率更高

        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&

            oldCap >= DEFAULT_INITIAL_CAPACITY)

            // 阈值翻倍

            newThr = oldThr << 1; // double threshold

    }

    // 之前阈值大于0

    else if (oldThr > 0)

        newCap = oldThr;

    // oldCap = 0并且oldThr = 0,使用缺省值(如使用HashMap()构造函数,之后再插入一个元素会调用resize函数,会进入这一步)

    else {         

        newCap = DEFAULT_INITIAL_CAPACITY;

        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);

    }

    // 新阈值为0

    if (newThr == 0) {

        float ft = (float)newCap * loadFactor;

        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?

                  (int)ft : Integer.MAX_VALUE);

    }

    threshold = newThr;

    @SuppressWarnings({"rawtypes","unchecked"})

    // 初始化table

    Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];

    table = newTab;

    // 之前的table已经初始化过

    if (oldTab != null) {

        // 复制元素,重新进行hash

        for (int j = 0; j < oldCap; ++j) {

            Node<K,V> e;

            if ((e = oldTab[j]) != null) {

                oldTab[j] = null;

                if (e.next == null)

                    newTab[e.hash & (newCap - 1)] = e;

                else if (e instanceof TreeNode)

                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);

                else { // preserve order

                    Node<K,V> loHead = null, loTail = null;

                    Node<K,V> hiHead = null, hiTail = null;

                    Node<K,V> next;

                    // 将同一桶中的元素根据(e.hash & oldCap)是否为0进行分割,分成两个不同的链表,完成rehash

                    do {

                        next = e.next;

                        if ((e.hash & oldCap) == 0) {

                            if (loTail == null)

                                loHead = e;

                            else

                                loTail.next = e;

                            loTail = e;

                        }

                        else {

                            if (hiTail == null)

                                hiHead = e;

                            else

                                hiTail.next = e;

                            hiTail = e;

                        }

                    } while ((e = next) != null);

                    if (loTail != null) {

                        loTail.next = null;

                        newTab[j] = loHead;

                    }

                    if (hiTail != null) {

                        hiTail.next = null;

                        newTab[j + oldCap] = hiHead;

                    }

                }

            }

        }

    }

    return newTab;

}

其实仔细分析源代码,基本上只要理解了HashMap的结构,其余的逻辑也就和 清楚了。

get()

    public V get(Object key) {

        Node<K,V> e;

        return (e = getNode(hash(key), key)) == null ? null : e.value;

    }

    final Node<K,V> getNode(int hash, Object key) {

        Node<K,V>[] tab; Node<K,V> first, e; int n; K k;

        // 桶数组不为空且长度大于0且通过hash定位的位置节点不为空,则走以下流程,不然返回null

        if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) {

            // 如果与桶数组该位置的节点hash相同,则返回该节点

            if (first.hash == hash && // always check first node

                ((k = first.key) == key || (key != null && key.equals(k))))

                return first;

            // 如果该位置节点还有节点,则继续查找

            if ((e = first.next) != null) {

                // 桶数组该节点下面是红黑树

                if (first instanceof TreeNode)

                    return ((TreeNode<K,V>)first).getTreeNode(hash, key);

                // 桶数组该节点下面是链表,遍历

                do {

                    if (e.hash == hash &&

                        ((k = e.key) == key || (key != null && key.equals(k))))

                        return e;

                } while ((e = e.next) != null);

            }

        }

        return null;

    }

五、总结

​ 一直都觉得HashMap的源码很简单,仔细看看,其实不然。其中涉及了很多很多的知识点,比如数据结构就涉及了数组、链表和红黑树。其余的细节都是数不胜数。细细研读该源码一整天,都没有将其中的细节详尽解析。

不过,在这篇文章结束之时,也有一些思考和想法:

1.数据结构是基础,也是灵魂(通常伴随算法)。只有对数据结构了然于心,才能详细了解底层原理;

2.伴随jdk升级的过程中,我们能很明显感受到一些优化。比如将十进制的值优化为二进制的值;十进制的计算优化为位运算;构造函数中,不给出长度,而是在添加第一个元素的时候给出长度(默认长度或者设置的长度);

3.put()方法是HashMap的核心,弄清楚了这个方法,其余的源代码都不难;

4.读源码一定要静下心来,心不静,就只能浮在表面;

5.个人水平和精力有限,难免有漏洞,希望大家多多指教。

相关文章

网友评论

      本文标题:HashMap源码分析

      本文链接:https://www.haomeiwen.com/subject/udeijqtx.html