美文网首页Interview 并发(个人收集)
HashMap、ConcurrentHashMap 面试

HashMap、ConcurrentHashMap 面试

作者: Djbfifjd | 来源:发表于2020-08-03 14:44 被阅读0次

    一、当两个对象的 hashCode 相同会发生什么?

    因为 hashCode 相同,不一定就是相等的(equals方法比较),所以两个对象所在数组的下标相同,"碰撞"就此发生。又因为 HashMap 使用链表存储对象,这个 Node 会存储到链表中。

    二、说说 hash 的实现。为什么要这样实现?

    JDK 1.8 中,是通过 hashCode() 的高 16 位异或低 16 位实现的:(h = k.hashCode()) ^ (h >>> 16)。主要是从速度、功效和质量来考虑的,减少系统的开销,也不会造成因为高位没有参与下标的计算,从而引起的碰撞。

    三、为什么要用异或运算符?

    保证了对象的 hashCode 的 32 位值只要有一位发生改变,整个 hash() 返回值就会改变。尽可能的减少碰撞。

    四、HashMap 的 table 的容量如何确定?loadFactor 是什么?该容量如何变化?这种变化会带来什么问题?

    ①table 数组大小是由 capacity 这个参数确定的,默认是16,也可以构造时传入,最大限制是1<<30;
    ②loadFactor 是装载因子,主要目的是用来确认table 数组是否需要动态扩展,默认值是0.75,比如table 数组大小为 16,装载因子为 0.75 时,threshold 就是12,当 table 的实际大小超过 12 时,table就需要动态扩容;
    ③扩容时,调用 resize(),将 table 长度变为原来的两倍(注意是 table 长度,而不是 threshold)
    ④如果数据很大的情况下,扩展时将会带来性能的损失,在性能要求很高的地方,这种损失很可能很致命。

    五、HashMap中put()的过程?

    ①调用哈希函数获取Key对应的hash值,再计算其数组下标;
    ②如果没有出现哈希冲突,则直接放入数组;如果出现哈希冲突,则以链表的方式放在链表后面;
    ③如果链表长度超过阀值( TREEIFY THRESHOLD==8),就把链表转成红黑树,链表长度低于6,就把红黑树转回链表;
    ④如果结点的key已经存在,则替换其value即可;
    ⑤如果集合中的键值对大于12,调用resize()进行数组扩容。”

    六、数组扩容的过程?

    创建一个新的数组,其容量为旧数组的两倍,并重新计算旧数组中结点的存储位置。结点在新数组中的位置只有两种,原下标位置或原下标+旧数组的大小。

    七、拉链法导致的链表过深问题为什么不用二叉查找树代替,而选择红黑树?为什么不一直使用红黑树?

    之所以选择红黑树是为了解决二叉查找树的缺陷,二叉查找树在特殊情况下会变成一条线性结构(这就跟原来使用链表结构一样了,造成很深的问题),遍历查找会非常慢。而红黑树在插入新数据后可能需要通过左旋,右旋、变色这些操作来保持平衡,引入红黑树就是为了查找数据快,解决链表查询深度的问题,我们知道红黑树属于平衡二叉树,但是为了保持“平衡”是需要付出代价的,但是该代价所损耗的资源要比遍历线性链表要少,所以当长度大于8的时候,会使用红黑树,如果链表长度很短的话,根本不需要引入红黑树,引入反而会慢。

    八、说说你对红黑树的见解?

    ①每个节点非红即黑
    ②根节点总是黑色的
    ③如果节点是红色的,则它的子节点必须是黑色的(反之不一定)
    ④每个叶子节点都是黑色的空节点(NIL节点)
    ⑤从根节点到叶节点或空子节点的每条路径,必须包含相同数目的黑色节点(即相同的黑色高度)

    九、jdk8中对HashMap做了哪些改变?

    • 在java 1.8中,如果链表的长度超过了8,那么链表将转换为红黑树。(桶的数量必须大于64,小于64的时候只会扩容)
    • 发生hash碰撞时,java 1.7 会在链表的头部插入,而java 1.8会在链表的尾部插入
    • 在java 1.8中,Entry被Node替代(换了一个马甲)。

    十、HashMap,LinkedHashMap,TreeMap 有什么区别?

    HashMap 参考其他问题;
    LinkedHashMap 保存了记录的插入顺序,在用 Iterator 遍历时,先取到的记录肯定是先插入的;遍历比 HashMap 慢;
    TreeMap 实现 SortMap 接口,能够把它保存的记录根据键排序(默认按键值升序排序,也可以指定排序的比较器)

    十一、HashMap & TreeMap & LinkedHashMap 使用场景?

    一般情况下,使用最多的是 HashMap。
    HashMap:在 Map 中插入、删除和定位元素时;
    TreeMap:在需要按自然顺序或自定义顺序遍历键的情况下;
    LinkedHashMap:在需要输出的顺序和输入的顺序相同的情况下。

    十二、HashMap 和 HashTable 有什么区别?

    ①HashMap 是线程不安全的,HashTable 是线程安全的;
    ②由于线程安全,所以 HashTable 的效率比不上 HashMap;
    ③HashMap最多只允许一条记录的键为null,允许多条记录的值为null,而 HashTable不允许;
    ④HashMap 默认初始化数组的大小为16,HashTable 为 11,前者扩容时,扩大两倍,后者扩大两倍+1;
    ⑤HashMap 需要重新计算 hash 值,而 HashTable 直接使用对象的 hashCode

    十三、Java 中的另一个线程安全的与 HashMap 极其类似的类是什么?同样是线程安全,它与 HashTable 在线程同步上有什么不同?

    ConcurrentHashMap 类(是 Java并发包 java.util.concurrent 中提供的一个线程安全且高效的 HashMap 实现)。
    HashTable 是使用 synchronize 关键字加锁的原理(就是对对象加锁);
    而针对 ConcurrentHashMap,在 JDK 1.7 中采用 分段锁的方式;JDK 1.8 中直接采用了CAS(无锁算法)+ synchronized。

    十四、HashMap & ConcurrentHashMap 的区别?

    在JDK1.7中ConcurrentHashMap底层采用分段数组+链表的方式实现。在JDK1.8中ConcurrentHashMap与JDK1.8中的HashMap底层数据结构一样,都是采用数组+链表或者数组+红黑树的方式实现。这二者底层数据结构都是以数组为主体的。线程安全:HashMap是线程不安全的,ConcurrentHashMap是线程安全的。另外,HashMap 的键值对允许有null,但是ConCurrentHashMap 都不允许。

    十五、为什么 ConcurrentHashMap 比 HashTable 效率要高?

    1️⃣HashTable 使用一把锁(锁住整个链表结构)处理并发问题,多个线程竞争一把锁,容易阻塞;

    2️⃣ConcurrentHashMap
    ①JDK 1.7 中使用分段锁(ReentrantLock + Segment + HashEntry),相当于把一个 HashMap 分成多个段,每段分配一把锁,这样支持多线程访问。锁粒度:基于 Segment,包含多个 HashEntry。
    ②JDK 1.8 中使用 CAS + synchronized + Node + 红黑树。锁粒度:Node(首结点)(实现 Map.Entry<K,V>)。锁粒度降低了。

    十六、针对 ConcurrentHashMap 锁机制具体分析(JDK 1.7 VS JDK 1.8)?

    JDK 1.7 中,采用分段锁的机制,实现并发的更新操作,底层采用数组+链表的存储结构,包括两个核心静态内部类 Segment 和 HashEntry。
    ①Segment 继承 ReentrantLock(重入锁)用来充当锁的角色,每个 Segment 对象守护每个散列映射表的若干个桶;
    ②HashEntry 用来封装映射表的键-值对;
    ③每个桶是由若干个 HashEntry 对象链接起来的链表

    JDK 1.8 中,采用Node + CAS + Synchronized来保证并发安全。取消类 Segment,直接用 table 数组存储键值对;当 HashEntry 对象组成的链表长度超过 TREEIFY_THRESHOLD 时,链表转换为红黑树,提升性能。底层变更为数组 + 链表 + 红黑树。

    十七、ConcurrentHashMap 在 JDK 1.8 中,为什么要使用内置锁 synchronized 来代替重入锁 ReentrantLock?

    ①粒度降低了;
    ②JVM 开发团队没有放弃 synchronized,而且基于 JVM 的 synchronized 优化空间更大,更加自然。
    ③在大量的数据操作下,对于 JVM 的内存压力,基于 API 的 ReentrantLock 会开销更多的内存。

    十八、ConcurrentHashMap 简单介绍?

    ①重要的常量:
    private transient volatile int sizeCtl;
    当为负数时,-1 表示正在初始化,-N 表示 N - 1 个线程正在进行扩容;
    当为 0 时,表示 table 还没有初始化;
    当为其他正数时,表示初始化或者下一次进行扩容的大小。

    ②数据结构:
    Node 是存储结构的基本单元,继承 HashMap 中的 Entry,用于存储数据;
    TreeNode 继承 Node,但是数据结构换成了二叉树结构,是红黑树的存储结构,用于红黑树中存储数据;
    TreeBin 是封装 TreeNode 的容器,提供转换红黑树的一些条件和锁的控制。

    ③存储对象时(put方法):
    1.如果没有初始化,就调用 initTable() 来进行初始化;
    2.如果没有 hash 冲突就直接 CAS 无锁插入;
    3.如果需要扩容,就先进行扩容;
    4.如果存在 hash 冲突,就加锁来保证线程安全,两种情况:一种是链表形式就直接遍历到尾端插入,一种是红黑树就按照红黑树结构插入;
    5.如果该链表的数量大于阀值 8,就要先转换成红黑树的结构,break 再一次进入循环
    6.如果添加成功就调用 addCount() 统计 size,并且检查是否需要扩容。

    ④扩容方法 transfer():默认容量为 16,扩容时,容量变为原来的两倍。
    helpTransfer():调用多个工作线程一起帮助进行扩容,这样的效率就会更高。

    ⑤获取对象时(get方法):
    1.计算 hash 值,定位到该 table 索引位置,如果是首结点符合就返回;
    2.如果遇到扩容时,会调用标记正在扩容结点 ForwardingNode.find(),查找该结点,匹配就返回;
    3.以上都不符合的话,就往下遍历结点,匹配就返回,否则最后就返回 null。

    十九、ConcurrentHashMap 的并发度是什么?

    程序运行时能够同时更新 ConccurentHashMap 且不产生锁竞争的最大线程数。默认为 16,且可以在构造函数中设置。当用户设置并发度时,ConcurrentHashMap 会使用大于等于该值的最小2幂指数作为实际并发度(假如用户设置并发度为17,实际并发度则为32)

    二十、说一下ConcurrentHashMap的工作原理,put()和get()的工作流程是怎样的?

    1️⃣存储对象时,将key和vaule传给put():

    • 如果没有初始化,就调用initTable()对数组进行初始化;
    • 如果没有hash冲突则直接通过CAS进行无锁插入;
    • 如果需要扩容,就先进行扩容,扩容为原来的两倍;
    • 如果存在hash冲突,就通过加锁的方式进行插入,从而保证线程安全。(如果是链表就按照尾插法插入,如果是红黑树就按照红黑树的数据结构进行插入);
    • 如果达到链表转红黑树条件,就将链表转为红黑树;
    • 如果插入成功就调用addCount()进行计数并且检查是否需要扩容;

    注意:在并发情况下ConcurrentHashMap会调用多个工作线程一起帮助扩容,这样效率会更高。

    2️⃣获取对象时,将key传给get():

    • 计算hash值,定位table索引位置,如果头节点符合条件则直接返回key对应的value;
    • 如果遇到正在扩容,则调用标记正在扩容的节点,查找该节点,匹配就返回;
    • 以上条件都不符合,就继续向下遍历;

    注意:其实get()的流程跟HashMap基本是一样的。put()的流程只是比HashMap多了一些保证线程安全的操作而已

    二十一、ConcurrentHashMap和HashTable的效率哪个更高?为什么?

    ConcurrentHashMap的效率要高于HashTable,因为HashTable是使用一把锁锁住整个链表结构从而实现线程安全。而ConcurrentHashMap的锁粒度更低,在JDK1.7中采用分段锁实现线程安全,在JDK1.8中采用CAS(无锁算法)+Synchronized实现线程安全。

    追问:具体说一下HashTable和ConcurrentHashMap的锁机制(重点)

    HashTable中的锁机制:

    HashTab是使用Synchronized来实现线程安全的,是使用一把锁锁住整个链表结构,效率非常低。当有一个线程访问同步方法的时候,其他线程是访问不了的,其他线程可能会被阻塞或者进入轮询状态。如果有一个线程正在执行put()操作的时候,其他线程是不可以进行put()操作的,也不可以进行get()操作,并发线程越多,竞争越激烈,效率越低下。

    ConcurrentHashMap在JDK1.7中的分段锁机制:

    对整个数组进行分段(每段都是由若干个hashEntry对象组成的链表),每个分段都有一个Segment分段锁(继承ReentrantLock分段锁),每个Segment分段锁只会锁住它锁守护的那一段数据,多线程访问不同数据段的数据,就不会存在竞争,从而提高了并发的访问率。

    ConcurrentHashMap在JDK1.8中的锁机制:

    ConcurrentHashMap在JDK1.8中采用Node+CAS+Synchronized实现线程安全,取消了segment分段锁,直接使用Table数组存储键值对(与1.8中的HashMap一样),主要是使用Synchronized+CAS的方法来进行并发控制。在put()的时候如果CAS失败就说明存在竞争,会进行自旋。

    二十二、ConcurrentHashMap在JDK1.8中为什么要使用内置锁Synchronized来替换ReentractLock重入锁?

    • 锁粒度降低了;
    • 官方对synchronized进行了优化和升级,使得synchronized不那么“重”了;
    • 在大数据量的操作下,对基于API的ReentractLock进行操作会有更大的内存开销;

    二十三、ConcurrentHashMap的get()需要加锁吗?

    不需要,get操作可以无锁是由于Node的元素val和指针next是用volatile修饰的,在多线程环境下线程A修改结点的val或者新增节点的时候是对线程B可见的。

    二十四、ConcurrentHashMap中的key和value可以为null吗?为什么?

    不可以,因为源码中进行put()操作的时候,如果key为null或者value为null,会抛出NullPointerException空指针异常。为什么这样设计呢?

    如果ConcurrentHashMap中存在一个key对应的value是null,那么当调用map.get(key)的时候,必然会返回null,那么这个null就有两个意思:
    ① 这个key从来没有在map中映射过,也就是不存在这个key
    ②这个key是真实存在的,只是在设置key的value值的时候,设置为null了

    这个二义性在非线程安全的HashMap中可以通过map.containsKey(key)来判断,如果返回true,说明key存在只是对应的value值为空。如果返回false,说明这个key没有在map中映射过。这样是为什么HashMap可以允许键值为null的原因,但是ConcurrentHashMap只用这个判断是判断不了二义性的。为什么ConcurrentHashMap判断不了呢?

    此时如果有A、B两个线程,A线程调用ConcurrentHashMap.get(key)返回null,但是不知道这个null是因为key没有在map中映射还是本身存的value值就是null。假设有一个key没有在map中映射过,也就是map中不存在这个key,此时调用ConcurrentHashMap.containsKey(key)去做一个判断,期望的返回结果是false。但是恰好在A线程get(key)之后,调用constainsKey(key)之前B线程执行了ConcurrentHashMap.put(key,null),那么当A线程执行完containsKey(key)之后得到的结果是true,与预期的结果就不相符了。

    至于ConcurrentHashMap中的key为什么也不能为null的问题,ConcurrentHashMap的作者Doug Lea认为map中允许键值为null是一种不合理的设计,HashMap虽然可以判断二义性,但是Doug Lea仍然觉得这样设计是不合理的。

    相关文章

      网友评论

        本文标题:HashMap、ConcurrentHashMap 面试

        本文链接:https://www.haomeiwen.com/subject/gqovrktx.html