HashMap源码

作者: zxcvbnmzsedr | 来源:发表于2017-07-09 10:43 被阅读0次

一、创建HashMap对象

HashMap有两个重要的参数,容量(Capacity)和负载因子(Load factor)
HashMap有四个构造函数,负载因子默认为0.75无法改变。如果初始化时指定容量,会调用tableSizeFor方法计算出临界值,put数据的时候如果超出该值就会扩容,该值肯定也是2的倍数,算法为
(容量总是2的倍数,为什么呢?为了寻址的快速。寻址是通过 index & (table.length-1)实现的,其实就是一个取模,如果table.length 是2的倍数的话,table.length-1 总是 111111... 的结构,与运算可以方便的得到mod值。)

// 返回大于输入参数且最近的2的整数次幂的数
static final int tableSizeFor(int cap) {
        int n = cap - 1;
        n |= n >>> 1;
        n |= n >>> 2;
        n |= n >>> 4;
        n |= n >>> 8;
        n |= n >>> 16;
        return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
    }

二、PUT

1、对key的hashCode()做hash,然后再计算index;
扰动函数。。不是很懂

static final int hash(Object key) {
        int h;
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }
image.png

2、如果没碰撞调用newNode方法直接放到Hash桶里;
创建Node<K,V>放到Hash桶中,Node<K,V>实现了Map.Entry<K,V>,是map中的Key-value对

3、如果碰撞了,以链表的形式存在Hash桶后;

4、如果碰撞导致链表过长(大于等于TREEIFY_THRESHOLD),就把链表转换成红黑树,以提高查询速度;

5、如果节点已经存在就替换old value(保证key的唯一性)

6、如果bucket满了(超过load factor*current capacity),就要resize。

public V put(K key, V value) {
    // 对key的hashCode()做hash
    return putVal(hash(key), key, value, false, true);
}
/**
     * Implements Map.put and related methods
     *
     * @param key的hash值
     * @param 待存储的key值
     * @param 待存储的value值
     * @param 是否需要替换相同的value值,如果为true,表示不替换已经存在的value
     * @param 如果为false,表示数组是新增模式
     * @return 插入的值,如果没有则返回空
     */
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
               boolean evict) {
    Node<K,V>[] tab; Node<K,V> p; int n, i;
    // tab为空则创建,存入前先把table的引用拿来(不明白为什么要拿table的引用不直接对table进行操作),table用transient关键词修饰,阻止序列化
    if ((tab = table) == null || (n = tab.length) == 0)
        n = (tab = resize()).length;
    // 计算index,并对null做处理
    if ((p = tab[i = (n - 1) & hash]) == null)
        tab[i] = newNode(hash, key, value, null);
    else {
        Node<K,V> e; K k;
        // 节点存在
        if (p.hash == hash &&
            ((k = p.key) == key || (key != null && key.equals(k))))
            e = p;
        // 该链为树
        else if (p instanceof TreeNode)
            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
        // 该链为链表
        else {
            for (int binCount = 0; ; ++binCount) {
                if ((e = p.next) == null) {
                  // 把数据添加到桶的尾部
                    p.next = newNode(hash, key, value, null);
                 // 如果超过了负载,则把链表转换为红黑树
                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                        treeifyBin(tab, hash);
                    break;
                }
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    break;
                p = e;
            }
        }
        // 写入
        if (e != null) { // existing mapping for key
            V oldValue = e.value;
            if (!onlyIfAbsent || oldValue == null)
                e.value = value;
            afterNodeAccess(e);
            return oldValue;
        }
    }
    ++modCount;
    // 超过load factor*current capacity,resize
    if (++size > threshold)
        resize();
    afterNodeInsertion(evict);
    return null;
}

三、GET
1、判断Hash桶里面是否里面有Node
2、判断第一个Node的hash和key的hash是否相同,相同调用equals方法判断,两个条件都成立直接返回Node
3、如果第一个Node下面还有节点,如果有且是红黑树的话使用红黑树的getTreeNode方法获取,
如果是链表直接遍历链表

public V get(Object key) {
        Node<K,V> e;
        return (e = getNode(hash(key), key)) == null ? null : e.value;
 }
/**
     * Implements Map.get and related methods
     *
     * @param key的hash
     * @param key
     * @return the node, or null if none
     */
final Node<K,V> getNode(int hash, Object key) {
        Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
        // 判断Hash桶里面是否里面有Node
        if ((tab = table) != null && (n = tab.length) > 0 &&
            (first = tab[(n - 1) & hash]) != null) {
            // 如果first的hash和key的hash是否相同,相同调用equals方法判断,两个条件都成立直接返回first
            if (first.hash == hash && // always check first node
                ((k = first.key) == key || (key != null && key.equals(k))))
                return first;
            // first下面还有节点是红黑树的话使用红黑树的getTreeNode方法获取,否则直接遍历链表
            if ((e = first.next) != null) {
                if (first instanceof TreeNode)
                    return ((TreeNode<K,V>)first).getTreeNode(hash, key);
                do {
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        return e;
                } while ((e = e.next) != null);
            }
        }
        return null;
    }

四:resize
当put时,如果发现目前的bucket占用程度已经超过了Load Factor所希望的比例,那么就会发生resize。在resize的过程,简单的说就是把bucket扩充为2倍,之后重新计算index,把节点再放到新的bucket中。
例如我们从16扩展为32时,具体的变化如下所示:


image.png

其中n即表示容量capacity。resize之后,因为n变为2倍,那么n-1的mask范围在高位多1bit(红色),因此新的index就会发生这样的变化:

image.png

因此,我们在扩充HashMap的时候,不需要重新计算hash,只需要看看原来的hash值新增的那个bit是1还是0就好了,是0的话索引没变,是1的话索引变成“原索引+oldCap”。可以看看下图为16扩充为32的resize示意图:


image.png
/**
     * 当超过限制的时候会resize,
     * 然而又因为我们使用的是2次幂的扩展(指长度扩为原来2倍),
     * 所以,元素的位置要么是在原位置,要么是在原位置再移动2次幂的位置
     */
    final Node<K,V>[] resize() {
        Node<K,V>[] oldTab = table;
        // 原大小
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        // 下一个要扩展的大小,负载*容量
        int oldThr = threshold;
        int newCap, newThr = 0;
        if (oldCap > 0) {
          // 如果原大小超过了2的30次方。。。那就不扩了,扩不动
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
          // 新的容量大小是原容量的两倍,而且要小于1<<30 ,oldCap要大于最小1 << 4
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                // 把新的大小放大两倍
                newThr = oldThr << 1; // double threshold
        }
        //表示在实例化HashMap时,调用了HashMap的带参构造方法,初始化了threshold,这时将阈值赋值给newCap,因为在构造方法 中是将capacity赋值给了threshold。 
        else if (oldThr > 0) // initial capacity was placed in threshold
            newCap = oldThr;
        // 表示实例化HashMap是,调用的是HashMap的默认构造方法,则newCap和newThr都使用默认值。 
        else {               // zero initial threshold signifies using defaults
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        // 这个时候如果newThr为0,则表示可能是扩容后大于了MAXIMUM_CAPACITY,也有可能oldCap小于DEFAULT_INITIAL_CAPACITY
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE); 
        }
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        table = newTab;
        if (oldTab != null) {
             // 把每个bucket都移动到新的buckets中
            for (int j = 0; j < oldCap; ++j) {
                Node<K,V> e;
                if ((e = oldTab[j]) != null) {
                    oldTab[j] = null;
                    if (e.next == null)
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    else { // preserve order
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        do {
                            next = e.next;
                            // 原索引
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                          // 原索引+oldCap
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                      // 原索引放到bucket里
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        // 原索引+oldCap放到bucket里
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }

参考资料

Java HashMap工作原理及实现

相关文章

  • HashMap剖析

    Java集合:HashMap源码剖析 一、HashMap概述 二、HashMap的数据结构 三、HashMap源码...

  • HashMap源码

    HashMap的源码,基于jdk1.7Map的源码 AbstractMap的源码 HashMap的源码

  • HashMap源码笔记(二)

    紧接这上一篇:HashMap源码笔记(一)我们继续来分析HashMap源码,接下来我们来看看HashMap的源码说...

  • 面试准备

    1.HashMap && CurrentHashMap源码分析 HashMap源码解析 java 并发编程之 Co...

  • java源码分析之LinkedHashMap

    相关文章java源码分析之HashMap(一)java源码分析之HashMap(二)java源码分析之HashMa...

  • HashMap原理以及ConcurrentHashMap

    一、HashMap的关键参数及部分源码解析 1.1 HashMap的几个关键参数 HashMap的源码中存下以下几...

  • 【16】 hashmap

    hashmap 1.7 和1.8的区别 hashmap全家桶 hashmap 源码解析 hashmap hashm...

  • JAVA 8 HashMap 源码分析

    JAVA 8 HashMap 源码分析 一 什么是HashMap? HashMap 继承了AbstractMap,...

  • JDK1.8HashMap源码分析

    HashMap源码分析 分析源码之前,先了解一下HashMap的结构,JDK1.7之前HashMap是通过数组结构...

  • ConcurrentHashMap 源码分析(Java vers

    在我之前的文章《HashMap 源码分析》中分析了HashMap的源码,众所周知,ConcurrentHashMa...

网友评论

    本文标题:HashMap源码

    本文链接:https://www.haomeiwen.com/subject/zujshxtx.html