美文网首页
HashMap源码解析

HashMap源码解析

作者: 4d3bf4cac28c | 来源:发表于2020-05-29 22:58 被阅读0次

    HashMap源码解析

    前言

    之前写过一篇SparseArray的源码解析,今天我们就对HashMap下手,撸一撸HashMap的源码。这篇文章的源码是从Android29中扒过来,实现方式是和JDK1.8里面的实现方式相似。

    在jdk1.8的结构中,用的是数组+链表+红黑树的的结构来存放数据。使用红黑树能够加快增删改查的效率。

    源码

    重要属性

        public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable {
        //默认的数组的最小值
        static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
        //默认的数组的最大值
        static final int MAXIMUM_CAPACITY = 1 << 30;
        //默认的负载因子
        static final float DEFAULT_LOAD_FACTOR = 0.75f;
        //当数据量大于8的时候,调整为红黑树
        static final int TREEIFY_THRESHOLD = 8;
        //小于6调整为链表
        static final int UNTREEIFY_THRESHOLD = 6;
        //临界值,当HashMap的存储的信息超过这个值的话,就会进行扩容
        int threshold;
        //当整个HashMap中的数量超过64的时候,也会转化为红黑树
        static final int MIN_TREEIFY_CAPACITY = 64;
        //元素的数量
        transient int size;
        //统计当前HashMap修改的次数
        transient int modCount;
        //实际的负载因子值
        final float loadFactor; 
    

    重要内部类

    Node<K,V> :节点信息类。在HashMap中,进行存储的时候,每个存储位置都是一个节点,节点类型就是Node<K,V>

        //哈希节点信息,在HashMap中,每个节点都是Node对象
        static class Node<K, V> implements Map.Entry<K, V> {
            //key所对应的哈希值
            final int hash;
            final K key;
            V value;
            Node<K, V> next;
    
            Node(int hash, K key, V value, Node<K, V> next) {
                this.hash = hash;
                this.key = key;
                this.value = value;
                this.next = next;
            }   
            ....
        }
    

    可以看到,节点有个next,指向了下一个节点信息。

    TreeNode<K,V>:红黑树节点信息类。HashMap的某个槽点的保存的数据较多时,会将保存的结构从链表转化为红黑树,红黑树的节点信息就是TreeNode<K,V>

        //转化为红黑树的时候使用的节点信息
        static final class TreeNode<K, V> extends LinkedHashMap.LinkedHashMapEntry<K, V> {
            TreeNode<K, V> parent;  // red-black tree links
            TreeNode<K, V> left;
            TreeNode<K, V> right;
            TreeNode<K, V> prev;    // needed to unlink next upon deletion
            boolean red;
    
            TreeNode(int hash, K key, V val, Node<K, V> next) {
                super(hash, key, val, next);
            }
    

    红黑树的节点保存了父节点,左子节点,柚子节点以及前方节点信息

    构造函数

    HashMap的构造函数有多个,我们一一的研究

        public HashMap() {
            this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
        }
        //设置了初始容量
        public HashMap(int initialCapacity) {
            this(initialCapacity, DEFAULT_LOAD_FACTOR);
        }
        //设置了初始容量和负载因子
        public HashMap(int initialCapacity, float loadFactor) {
            if (initialCapacity < 0)
                throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity);
            if (initialCapacity > MAXIMUM_CAPACITY)
                initialCapacity = MAXIMUM_CAPACITY;
            if (loadFactor <= 0 || Float.isNaN(loadFactor))
                throw new IllegalArgumentException("Illegal load factor: " + loadFactor);
            this.loadFactor = loadFactor;
            //根据初始容量计算下一次扩容的临界值
            this.threshold = tableSizeFor(initialCapacity);
        }
    

    HashMap这3个构造函数是相似的,最后一个构造函数的唯一的需要注意的就是 tableSizeFor 这个函数了。

        //寻找大于输入参数且最近的2的整数次幂的数
        static final int tableSizeFor(int cap) {
            int n = cap - 1;
            n |= n >>> 1;
            n |= n >>> 2;
            n |= n >>> 4;
            n |= n >>> 8;
            n |= n >>> 16;
            return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
        }
    

    这个代码看起来贼神奇,我们看看他是如何做到能够找到最近的2的整数次幂的。

    在二进制里面,2的整数次幂怎么表示? 0100...000。这种只有中间一个是1,其他位置都是0的,就是一个2的整数次幂。这里的实现方案是通过00111111...1111,然后+1处理,然后获取2的整数次幂。这里的处理方案

    • 先来假设n的二进制为01xxx...xxx。接着

    • 对n右移1位:001xx...xxx,再位或:011xx...xxx

    • 对n右移2为:00011...xxx,再位或:01111...xxx

    • 同理,通过右移,然后再位或,让最高位的1后面的位全变为1。也就是001111111111

    • 最后再让结果n+1,即得到了2的整数次幂的值了。

    除了以上三个,还有一个特殊的构造函数

        //传入一个map,将map的数据保存到HashMap中
        public HashMap(Map<? extends K, ? extends V> m) {
            this.loadFactor = DEFAULT_LOAD_FACTOR;
            putMapEntries(m, false);
        }
    

    也是设置了默认的加载因子,然后调用了 putMapEntries 方法。

        //传入一个map,将其保存到hashmap中,
        final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
            int s = m.size();
            if (s > 0) {
                if (table == null) { // pre-size
                    //根据传入的长度计算容量,
                    float ft = ((float) s / loadFactor) + 1.0F;
                    //容量肯定不能超过HashMap的上下界限
                    int t = ((ft < (float) MAXIMUM_CAPACITY) ? (int) ft : MAXIMUM_CAPACITY);
                    //初始化临界值,当t大于临界值的时候,进行临界值的计算。这个tableSizeFor方法
                    if (t > threshold)
                        threshold = tableSizeFor(t);
                } else if (s > threshold)//table已经初始化了,并且s超过了临界值,则调用resize()进行扩容
                    resize();
                //遍历,逐个把map的书放入到hashmap中
                for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
                    K key = e.getKey();
                    V value = e.getValue();
                    putVal(hash(key), key, value, false, evict);
                }
            }
        }
    

    这个构造方法,传入的是Map,在进行处理的过程中,会先通过map的大小对HashMap进行容量或者临界值做一个处理。然后再遍历通过putval()方法,将数据保存到hashmap中。

    添加元素

        public V put(K key, V value) {
            //第三个参数表示不管value是否为空,都进行数据的保存
            return putVal(hash(key), key, value, false, true);
        }
    
        public V putIfAbsent(K key, V value) {
            return putVal(hash(key), key, value, true, true);
        }
    

    这个添加元素的方案应该是我们最最最常用的了吧?里面调用了一个函数的重载方法。hash(key) 方法是计算key对应的哈希值。

    我们先不看重载方法,而是先研究一下,在hashmap中的哈希值是如何计算的。

        static final int hash(Object key) {
            int h;
            //如果key为空,那么hash为0。否则的话取hashCode值h,然后将其和h右移16位的值进行异或操作
            return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
        }
    

    这个代码看起来很简单,但是因为涉及到异或的处理以及哈希槽的分配问题,所以我们这里重点讲解一下。

    为什么要无符号右移16位?

    假如说我们现在有一个32位的hashcode值。

    当h无符号右移16位以后,会将h的高16位移动到低16位位置。然后再和原来的h进行异或操作。这样就可以将高低位的二进制特征进行混合起来。高16位不会发生变化,只有低16位发生了变化。为什么要这么做呢?我们知道hashmap的数据存储是将其分配到具体的哈希槽中的。所以需要尽量的保证数据能够均匀的分配到不同的槽中。

    而分配到哈希槽点的计算方法是 (n - 1) & hash(这个我们后面会讲)。在重要属性中我们知道,HashMap数组的大小(也就是哈希槽点的数量)的默认值是16。我们按照16来进行计算处理。

    这时候,hashcode的高16位,因为槽点的数量限制,直接就屏蔽了高16位的信息。如果我们不做刚才移位异或运算,那么在计算槽位时将丢失高区特征。这样就会容易造成如果数据的hashcode的值差异在高位,不做移位异或计算,就会发生哈希碰撞。

    为什么使用异或?

    异或操作能够很好的保留特征信息。不管是 | 还是 & ,都会导致计算的数据偏向 0 或者 1。

    为什么槽位必须是2^n?

    当槽位数值是2^n的时候,计算槽位的公式-1,能够保证所有的位置都是1,进行 (n - 1) & hash操作,分配的槽值位置的均匀度就不会受槽值的影响,而之受hash的影响。而我们在计算hash的时候又通过移位异或的计算从而保证其均匀性,从而减少了哈希碰撞。

    对于HashMap的hash值的计算原理我们就说到这里有兴趣的小伙伴可以研究研究。我们这就继续源码了~

        /**
         * 保存key,value
         * @param hash  key对应的hash值
         * @param key   key值
         * @param value value值
         * @param onlyIfAbsent   如果是true:则只有对应的value为空的时候才保存。
         * @param evict
         * @return
         */
        final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
            //哈希数组
            Node<K, V>[] tab;
            //p 该哈希桶的首节点
            Node<K, V> p;
            //n 哈希的长度
            // i:计算出来数据在哈希数组中的的数组下标
            int n, i;
            //获取长度并进行扩容,使用的是懒加载,table一开始是没有加载的,等put后才开始加载
            if ((tab = table) == null || (n = tab.length) == 0)
                n = (tab = resize()).length;
            //查找hash对应的哈希桶首节点
            if ((p = tab[i = (n - 1) & hash]) == null) {
                //如果当前hash所对应的位置节点是空,则将其作为哈希桶的首节点
                tab[i] = newNode(hash, key, value, null);
            } else {
                //哈希冲突了
                //e表示key对应的数据在map中存在的节点信息
                // k代表节点的key值
                Node<K, V> e;
                K k;
                //哈希桶的首节点就是我们的key所在的位置.(需要哈希值相等,equal方法相同。所以这就是为什么在覆写equal方法的时候还要覆写hash)
                if (p.hash == hash &&
                        ((k = p.key) == key || (key != null && key.equals(k))))
                    e = p;
                    //不是哈希桶的首节点,如果哈希桶的首节点是红黑树节点。则将其放到红黑树
                else if (p instanceof TreeNode)
                    e = ((TreeNode<K, V>) p).putTreeVal(this, tab, hash, key, value);
                else {
                    //否则就放入到数据链中
                    for (int binCount = 0; ; ++binCount) {
                        if ((e = p.next) == null) {//到链表结尾了,那么将key和value放到链表结尾
                            p.next = newNode(hash, key, value, null);
                            if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                                //链表数量超过了8,则变为红黑树
                                treeifyBin(tab, hash);
                            break;
                        }
                        if (e.hash == hash &&
                                ((k = e.key) == key || (key != null && key.equals(k))))
                            break;
                        p = e;
                    }
                }
                //如果插入的key所对应的值存在则进行覆盖且则返回旧值
                if (e != null) { // existing mapping for key
                    V oldValue = e.value;
                    if (!onlyIfAbsent || oldValue == null)
                        e.value = value;
                    afterNodeAccess(e);
                    return oldValue;
                }
            }
            //增加实际数据长度,如果满足要求则扩容。
            ++modCount;
            if (++size > threshold)
                resize();
            afterNodeInsertion(evict);
            //添加成功,则返回空
            return null;
        }
    
    

    在进行key,value存储的过程中,会根据具体的情况来进行分析处理。

    • 如果存储数据的哈希槽没有创建则创建哈希槽数组。
    • 哈希值对应的哈希桶首节点不存在,则将数据放到首节点位置。
    • 如果首节点存在,则进行不同的情况处理
      • 如果首节点就是我们key所在的位置,则返回首节点
      • 如果首节点不是key所在位置。
        • 当前哈希桶是红黑树,则通过putTreeVal方法进行处理。
        • 如果是链表,则遍历链表,如果找到对应的key和要保存的key相等,则返回对应的节点信息,如果没有找到,则创建新的节点放置到链表后,保存后,可能会将链表转化为红黑树。
    • 在之前的所有处理中,如果key所在的节点找到了,其实并没有进行数据的保存工作,只是将指针指向了对应的节点位置。然后根据onlyIfAbsent入参来处理是否保存的逻辑处理。

    这里面有几个函数需要我们去关注一下。

    resize()

    这个函数有2个作用,一个是初始化,另一个是进行扩容工作。扩容是将数组的容量加倍,然后将每个位置的数据再重新计算放置到新的数组中。

        // 初始化或扩容。
        // 当table是null时,根据临界值threshold成员变量来初始化table的大小。
        // 如果table已经初始化,那么哈希桶里面的元素要么处于该table下标,要么处于该table下标再加某个2的幂
        final Node<K, V>[] resize() {
            //保存旧版本的表
            Node<K, V>[] oldTab = table;
            //旧表的表容量
            int oldCap = (oldTab == null) ? 0 : oldTab.length;
            //旧的临界值
            int oldThr = threshold;
            //新的容量和新的临界值
            int newCap, newThr = 0;
            if (oldCap > 0) {//如果table表已经进行了初始化,则进行扩容处理。
                if (oldCap >= MAXIMUM_CAPACITY) {//如果table已经超过了上限,不再扩容了
                    threshold = Integer.MAX_VALUE;
                    return oldTab;
                } else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&//进行扩容
                        oldCap >= DEFAULT_INITIAL_CAPACITY)
                    newThr = oldThr << 1; // 装载因子不变,所以容量翻倍,阈值也翻倍 double threshold
            }
            //如果调用public HashMap(int initialCapacity, float loadFactor)方法进行初始化,会根据传输的容量初始化设置了阈值,但是并没有存放数据,table也没有初始化
            //这时候直接将阈值赋值给新的变量
            else if (oldThr > 0)//初始容量设置为阈值 // initial capacity was placed in threshold
                newCap = oldThr;
            else { //初始阈值为零表示使用默认值           // zero initial threshold signifies using defaults
                newCap = DEFAULT_INITIAL_CAPACITY;
                newThr = (int) (DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
            }
            //如果临界值为0,则设置临界值为容量*负载因子
            if (newThr == 0) {
                float ft = (float) newCap * loadFactor;
                newThr = (newCap < MAXIMUM_CAPACITY && ft < (float) MAXIMUM_CAPACITY ?
                        (int) ft : Integer.MAX_VALUE);
            }
            //设置新的临界值
            threshold = newThr;
            //创建新表
            @SuppressWarnings({"rawtypes", "unchecked"})
            Node<K, V>[] newTab = (Node<K, V>[]) new Node[newCap];
            table = newTab;
            //进行新表的数据保存
            if (oldTab != null) {
                for (int j = 0; j < oldCap; ++j) {
                    Node<K, V> e;
                    if ((e = oldTab[j]) != null) {
                        oldTab[j] = null;
                        if (e.next == null)//如果只有一个节点,则直接将其保存到新的数据首节点位置
                            newTab[e.hash & (newCap - 1)] = e;
                        else if (e instanceof TreeNode)//如果是红黑树,则把红黑树进行拆分
                            ((TreeNode<K, V>) e).split(this, newTab, j, oldCap);
                        else { //链表 preserve order
                            //进行2倍扩容的话,其实相当于把原来的数组内部的数据分别放到了i+n的位置和当前的i内。并不会放到其他的位置。
                            //e.hash & (newCap - 1)->因为位数都是以,所以得出的信息
                            Node<K, V> loHead = null, loTail = null;
                            Node<K, V> hiHead = null, hiTail = null;
                            Node<K, V> next;
                            do {
                                next = e.next;
                                //比如原来cap是0100,则位置是hash&(0011)的到的坐标。扩容以后就是hash&(0111)。
                                // 所以是否需要移动,只需要看0100,这个1的位置即可
                                // 如果这个bit等于0,说明新table下标和旧table下标是一样的
                                if ((e.hash & oldCap) == 0) {
                                    //如果Low表的数据还没有初始化,则进行初始化,否则就将数据放到列表的下一位
                                    if (loTail == null)
                                        loHead = e;
                                    else
                                        loTail.next = e;
                                    loTail = e;
                                } else {//否则的话,放入到i+n位置的数组内
                                    if (hiTail == null)
                                        hiHead = e;
                                    else
                                        hiTail.next = e;
                                    hiTail = e;
                                }
                            } while ((e = next) != null);
                            //将两个链表的头节点放入到数组中
                            if (loTail != null) {
                                loTail.next = null;
                                newTab[j] = loHead;
                            }
                            if (hiTail != null) {
                                hiTail.next = null;
                                newTab[j + oldCap] = hiHead;
                            }
                        }
                    }
                }
            }
            return newTab;
        }
    

    在进行初始化或者存放数据后,都会进行这个方法的调用。

    treeifyBin
        //将hash所对应的那个哈希桶变为红黑树结构
        final void treeifyBin(Node<K, V>[] tab, int hash) {
            int n, index;
            Node<K, V> e;
            //如果数组为空,进行初始化。如果数组的长度小于64,会进行扩容操作,因为hashmap会认为是因为数组太小大,导致的哈希桶太挤导致的
            //所以会先进行扩容,只有当容量大于64,才会进行将链表结构变化为红黑树
            if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
                resize();
            else if ((e = tab[index = (n - 1) & hash]) != null) {
                //e是hash对应的数组位置的首节点
                TreeNode<K, V> hd = null, tl = null;
                do {
                    //创建一个树形节点
                    TreeNode<K, V> p = replacementTreeNode(e, null);
                    //将所有的树形节点,按照双向链表的方式保存
                    if (tl == null)
                        hd = p;
                    else {
                        p.prev = tl;
                        tl.next = p;
                    }
                    tl = p;
                } while ((e = e.next) != null);
                //将链表转化为红黑树结构
                if ((tab[index] = hd) != null)
                    hd.treeify(tab);
            }
        }
    
    

    这个方法会在某个哈希桶保存的数据量超过8个的时候进行调用。里面会根据情况进行扩容或者转化为红黑树。

    如果发现哈希桶的数量小于64,会进行扩容工作。因为hashmap会认为是因为数组太小大,导致的哈希桶太挤导致的。

    在转化为红黑树的过程中,会将现有的Node转化为TreeNode,然后会调用treeify 方法将双向链表转化为红黑树。

    TreeNode.putTreeVal

    这个方法是从红黑树中进行数据的遍历处理,如果获取到相同的key,则返回对应的位置信息,否则就通过红黑树的比较方式,将数据存入红黑树中。

    比较重要的几个函数讲完了,我们可以简单看看其他几个添加的方法

        //将一个map保存到hashmap中
        public void putAll(Map<? extends K, ? extends V> m) {
            putMapEntries(m, true);
        }
    

    这个调用的方法和我们的构造函数中使用的是一样的,我们之前做过解析,这里就不用再看了

    删除

        public V remove(Object key) {
            Node<K, V> e;
            return (e = removeNode(hash(key), key, null, false, true)) == null ?
                    null : e.value;
        }
        //key和value都相同的才进行移除
        public boolean remove(Object key, Object value) {
            return removeNode(hash(key), key, value, true, true) != null;
        }
    
    

    会调用一个函数重载方法

        /**
         *
         * @param hash   对应的hash值
         * @param key    对应的key
         * @param value     对应的value
         * @param matchValue    是否需要value匹配,如果为true的话,只有保存的value和传入的参数value相同,才移除
         * @param movable   如果为false,则在删除时不移动其他节点
         * @return
         */
        final Node<K, V> removeNode(int hash, Object key, Object value,
                                    boolean matchValue, boolean movable) {
            Node<K, V>[] tab;
            Node<K, V> p;
            int n, index;
            if ((tab = table) != null && (n = tab.length) > 0 &&
                    (p = tab[index = (n - 1) & hash]) != null) {//hash所对应的哈希桶存在而且不不为空
                //node用来保存找到的key相等的符合要求的节点
                Node<K, V> node = null, e;
                K k;
                V v;
                if (p.hash == hash &&   //如果key相等,则直接返回p节点信息
                        ((k = p.key) == key || (key != null && key.equals(k))))
                    node = p;
                else if ((e = p.next) != null) {
                    if (p instanceof TreeNode)  //如果当前哈希桶是红黑树,则通过红黑树来进行查找
                        node = ((TreeNode<K, V>) p).getTreeNode(hash, key);
                    else {//否则通过遍历链表搜索,搜索完的话
                        do {
                            if (e.hash == hash &&
                                    ((k = e.key) == key ||
                                            (key != null && key.equals(k)))) {
                                node = e;
                                break;
                            }
                            p = e;
                        } while ((e = e.next) != null);
                    }
                }
                //如果找到了对应的节点信息,则根据入参进行数据的删除。
                if (node != null && (!matchValue || (v = node.value) == value ||
                        (value != null && value.equals(v)))) {
                    if (node instanceof TreeNode)
                        ((TreeNode<K, V>) node).removeTreeNode(this, tab, movable);
                    else if (node == p)
                        tab[index] = node.next;
                    else
                        p.next = node.next;
                    ++modCount;
                    --size;
                    afterNodeRemoval(node);
                    return node;
                }
            }
            return null;
        }
    

    这里会根据hash来判断key可能在的 哈希桶的位置,然后从哈希桶的根节点开始遍历。当然了,哈希桶可能是红黑树也可能是链表,需要根据不同的情况来遍历查找节点。

    当查找到节点以后,会根据入参来判断是否进行移除工作。

    我们来看下一个移除的函数(清空)

    清空

        public void clear() {
            Node<K, V>[] tab;
            //修改次数+1
            modCount++;
            //如果哈希数组不为空,则遍历所有的哈希桶,将其所有的首节点设置为空
            if ((tab = table) != null && size > 0) {
                size = 0;
                for (int i = 0; i < tab.length; ++i)
                    tab[i] = null;
            }
        }
    

    清空操作相对来说比较简单,会把所有的哈希桶的首节点都置为null,然后将hashmap的size置为0。

    查找

        public V get(Object key) {
            Node<K, V> e;
            return (e = getNode(hash(key), key)) == null ? null : e.value;
        }
    
        final Node<K, V> getNode(int hash, Object key) {
            Node<K, V>[] tab;
            Node<K, V> first, e;
            int n;
            K k;
            //hash所对应的哈希桶是存在的
            if ((tab = table) != null && (n = tab.length) > 0 &&
                    (first = tab[(n - 1) & hash]) != null) {
                //首先检测首节点是否是我们需要查找的数据,如果是的话,直接返回
                if (first.hash == hash && // always check first node
                        ((k = first.key) == key || (key != null && key.equals(k))))
                    return first;
                //如果不是,遍历
                if ((e = first.next) != null) {
                    if (first instanceof TreeNode)
                        //如果是红黑树,则从红黑树获取
                        return ((TreeNode<K, V>) first).getTreeNode(hash, key);
                    do {//链表结构的话,遍历链表查询
                        if (e.hash == hash &&
                                ((k = e.key) == key || (key != null && key.equals(k))))
                            return e;
                    } while ((e = e.next) != null);
                }
            }
            return null;
        }
    

    对于数据的获取,通过重载函数进行了查询处理。

    线程安全

    在JDK8中的HashMap是非线程安全的,会发生数据覆盖问题。而非线程安全的问题主要出现在数据的插入操作。

        final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
            ...
            if ((p = tab[i = (n - 1) & hash]) == null) // 如果没有hash碰撞则直接插入元素
                tab[i] = newNode(hash, key, value, null);
            ...
            if (++size > threshold)
                resize();
            ...
        }
    
    

    首先,在第一个地方,假设线程A、B都在执行put的操作,当线程执行完条件判断完成以后由于时间片耗尽而被挂起,而线程B得到时间片后载该下标处进行了插入元素的操作,完成了正常的插入操作。然后这个时候A获取时间片以后,由于之前进行过条件判断,所以不再进行判断而是直接进行数据的插入,会导致线程B的数据被线程A覆盖了,从而线程不安全。

    其次,在第二个位置,++size的操作,在进行操作的时候,在底层会进行多个处理,首先取得size值,然后再进行++,最后将值进行保存。并非是一个原子操作。所以会存在线程安全的问题。

    扩展知识点

    1. 在进行HashMap存储的过程中,理解了为什么类在重写equal方法的同时,必须重写hashcode方法。因为在保存或者移除的时候,会根据hashcode来获取对应的哈希桶,然后根据equals方法来进行是否是同一个key的判断处理。如果重写了equal,但是hashcode不同,可能会导致其hashcode不一致,从而保存到了不同的哈希桶中。
    2. hashcode值是32位的。
    3. HashMap非线程安全,Hashtable是线程安全的。HashTable的方法是通过Synchronize来实现同步的。
    4. HashMap非线程安全,在多线程使用场景下可以使用ConcurrentHashMap来替代HashMap。
    5. Hashmap是允许key和value为null值的,用containsValue和containsKey方法判断是否包含对应键值对;HashTable键值对都不能为空,否则包空指针异常。

    相关文章

      网友评论

          本文标题:HashMap源码解析

          本文链接:https://www.haomeiwen.com/subject/gijqzhtx.html