注:源码系列文章主要是对某付费专栏的总结记录。如有侵权,请联系删除。
HashSet、TreeSet 两个类是在 Map 的基础上组装起来的类,我们学习的侧重点,主要在于 Set 是如何利用 Map 现有的功能,来达成自己的目的的,也就是说如何基于现有功能进行创新,然后再看看一些改变的小细节。
1 HashSet
1.1 类注释
- 底层实现基于 HashMap,所以迭代时不能保证按照插入顺序,或者其它顺序进行迭代;
- add、remove、contanins、size 等方法的耗时性能,是不会随着数据量的增加而增加的,这个主要跟 HashMap 底层的数组结构有关,不管数据量多大,不考虑 hash 冲突的情况下,时间复杂度都是 O(1);
- 线程不安全的,如果需要请自行加锁,或者使用
Collections.synchronizedSet
; - 迭代过程中,如果数据结构被改变,会快速失败的,抛出
ConcurrentModificationException
异常。
我们之前也看过 List、Map 的类注释,我们发现 2、3、4 点信息在类注释中都有提到,所以如果有人问 List、Map、Set 三者的共同点,那么就可以说说这三点。
1.2 HashSet 是如何组合 HashMap 的
刚才是从类注释 1 中看到,HashSet 的实现是基于 HashMap 的,在 Java 中,要基于基础类进行创新实现,有两种方法:
- 继承基础类,覆写基础类的方法,比如说继承 HashMap,覆写其 add 方法;
- 组合基础类,通过调用基础类的方法,来复用基础类的能力。
HashSet 使用的就是组合 HashMap,其优点如下:
- 继承表示父子类是同一事物,而 Set 和 Map 本来就是想表达两种事物,所以继承不妥,而且 Java 语法限制,子类只能继承一个父类,后续难以扩展。
- 组合更加灵活,可以任意的组合现有的基础类,并且可以在基础类方法的基础上进行扩展、编排,而且方法可以任意命名,无需和基础类的方法名称保持一致。
我们工作中,如果碰到类似问题,我们的原则也是尽量多用组合,少用继承。
组合就是把 HashMap 当做自己的一个局部变量,以下是 HashSet 的组合实现:
// 把 HashMap 组合进来,key 是 HashSet 的 key,value 是下面的 PRESENT
private transient HashMap<E,Object> map;
// HashMap 中的 value
private static final Object PRESENT = new Object();
从这两个属性可以看到:
- 我们在使用 HashSet 时,比如 add 方法,只有一个入参,但组合的 Map 的 add 方法却有 key、value 两个入参,相对应上 Map 的 key 就是我们 add 的入参,value 就是第二个属性 PRESENT,此处设计非常巧妙,用一个默认值 PRESENT 来代替 Map 的 value;
- 如果 HashSet 是被共享的,当多个线程访问的时候,就会有线程安全问题,因为在后续的所有操作中,并没有加锁。
HashSet 在以 HashMap 为基础进行实现的时候,首先选择组合的方式,接着使用默认值来替代 Map 的 value 值,设计的非常巧妙,给使用者的体验很好,使用起来简单方便,我们在工作中也可以借鉴这种思想,可以把底层复杂实现包装一下,一些默认实现可以自己吃掉,使吐出去的接口尽量简单好用。
1.2.1 初始化
HashSet 的初始化比较简单,直接 new HashMap 即可,比较有意思的是,当有原始集合数据进行初始化的情况下,会对 HashMap 的初始容量进行计算,源码如下:
public HashSet(Collection<? extends E> c) {
// 对 HashMap 的容量重新进行了计算
map = new HashMap<>(Math.max((int) (c.size()/.75f) + 1, 16));
addAll(c);
}
源码中 Math.max((int) (c.size()/.75f) + 1, 16)
,就是对 HashMap 的容量进行了计算,从计算中,我们可以看到 HashSet 的实现者对 HashMap 的底层实现是非常清楚的,主要体现在两个方面:
- 和 16 比较大小的意思是说,如果给定 HashMap 的初始容量小于 16,就按照 HashMap 的默认值 16 初始化,反之则按照给定值初始化。
- HashMap 扩容的阈值
threshold
的计算公式是:capacity * loadFactor
,一旦达到阈值就会扩容,此处用(int)(c.size()/.75f) + 1
来表示初始化的值,这样使我们期望的大小值正好比扩容的阈值还大 1,就不会扩容,符合 HashMap 扩容的公式。
从简单的构造器中,我们可以看出要很好的组合 api 接口,并没有那么简单,我们可能需要去了解一下被组合的 api 底层的实现,这样才能用好 api。
同时这种写法,也提供了一种思路给我们,如果有人问你,往 HashMap 拷贝大集合时,如何给 HashMap 初始化大小?完全可以借鉴这种写法:取最大值(期望的值 / 0.75 + 1, 默认值 16)。
至于 HashSet 的其它方法就比较简单了,就是对 Map 的 api 进行了一些包装,如下的 add 方法实现:
public boolean add(E e) {
return map.put(e, PRESENT)==null;
}
从 add 方法中,我们可以看到组合的好处,方法的入参、名称、返回值都可以自定义,如果是继承的话就不行了。
1.2.2 小结
HashSet 具体实现值得我们借鉴的地方主要有以下这些,我们平时写代码的时候,完全可以参考参考:
- 对组合还是继承的分析和把握;
- 对复杂逻辑进行一些包装,使暴露出去的接口尽量简单好用;
- 组合其它 api 时,尽量多对组合的 api 多些了解,这样才能更好的使用 api;
- HashMap 初始化大小值的模板公式:
取括号内两者的最大者(期望的大小 / 0.75 + 1, 默认的值 16)
。
2 TreeSet
TreeSet 大致的结构和 HashSet 相似,底层组合的是 TreeMap,所以继承了 TreeMap key 能够排序的功能,迭代的时候,也可以按照 key 的顺序进行迭代,我们主要来看看复用 TreeMap 时,复用的两种思路:
2.1 复用 TreeMap 的思路一
场景一:TreeSet 的 add 方法,源码:
public boolean add(E e) {
return m.put(e, PRESENT)==null;
}
可以看到,底层直接使用的是 TreeMap 的能力,直接拿来用就好了。
2.2 复用 TreeMap 的思路二
场景二:需要迭代 TreeSet 中的元素,那应该也是像 add 那样,直接使用 HashMap 已有的迭代能力,比如像下面这样:
// 模仿思路一的实现
public Iterator<E> iterator() {
// 直接使用 TreeMap.keySet 的能力
return m.keySet().iterator();
}
这种是思路一的实现方式,TreeSet 组合 TreeMap,直接选择 TreeMap 的底层能力进行包装,但 TreeSet 实际执行的思路却完全相反,源码:
// NavigableSet 接口,定义了迭代的一些规范,和一些取值的特殊方法
public interface NavigableSet<E> extends SortedSet<E> {
Iterator<E> iterator();
E lower(E e);
}
// m.navigableKeySet() 是 TreeMap 写的一个子类实现了 NavigableSet 接口,实现了 TreeSet 定义的迭代规范
public Iterator<E> iterator() {
return m.navigableKeySet().iterator();
}
TreeMap 中对于 NavigableSet 接口实现的源码如下:
public class TreeMap<K,V>
extends AbstractMap<K,V>
implements NavigableMap<K,V>, Cloneable, java.io.Serializable
{
.....
static final class KeySet<E> extends AbstractSet<E> implements NavigableSet<E> {
private final NavigableMap<E, ?> m;
KeySet(NavigableMap<E,?> map) { m = map; }
public Iterator<E> iterator() {
if (m instanceof TreeMap)
return ((TreeMap<E,?>)m).keyIterator();
else
return ((TreeMap.NavigableSubMap<E,?>)m).keyIterator();
}
public Iterator<E> descendingIterator() {
if (m instanceof TreeMap)
return ((TreeMap<E,?>)m).descendingKeyIterator();
else
return ((TreeMap.NavigableSubMap<E,?>)m).descendingKeyIterator();
}
.....
}
}
可以看出 TreeMap 实现了 TreeSet 定义的各种特殊方法。
我们可以看到,这种思路是 TreeSet 定义了接口的规范,TreeMap 负责去实现,实现思路和思路一是相反的。
总结 TreeSet 组合 TreeMap 实现的两种思路:
- TreeSet 直接使用 TreeMap 的某些功能,自己包装成新的 api。
- TreeSet 定义了自己想要的 api,自己定义接口规范,让 TreeMap 去实现。
方案 1 和方案 2 的调用关系,都是 TreeSet 调 TreeMap,但功能的实现关系完全相反,第一种是功能的定义和实现都在 TreeMap,TreeSet 只是简单的调用而已,第二种 TreeSet 把接口定义出来后,让 TreeMap 去实现内部逻辑,TreeSet 负责接口定义,TreeMap 负责具体实现,这样子的话因为接口是 TreeSet 定义的,所以实现一定是 TreeSet 最想要的,TreeSet 甚至都不用包装,可以直接把返回值直接返回都行。
我们思考下这两种复用思路的原因:
- 像 add 这些简单的方法,我们直接使用的是思路 1,主要是因为 add 这些方法实现比较简单,没有复杂逻辑,所以 TreeSet 自己实现起来比较简单;
- 思路 2 主要适用于复杂场景,比如说迭代场景,TreeSet 的场景复杂,比如要能从头开始迭代,比如要能取第一个值,比如要能取最后一个值,再加上 TreeMap 底层数据结构复杂,TreeSet 可能并不清楚 TreeMap 底层的复杂逻辑,这时候让 TreeSet 来实现如此复杂的场景逻辑,TreeSet 就搞不定了,不如接口让 TreeSet 来定义,让 TreeMap 去负责实现,TreeMap 对自己底层的数据结构非常清楚,实现起来既准确又简单。
2.3 小结
TreeSet 对 TreeMap 的两种不同复用思路,很重要,在工作中经常会遇到,特别是思路二。
3 面试题
HashSet 和 TreeSet 的面试概率比不上 List 和 Map,但只要有机会,并把本文的内容表达出来,绝对是加分项,因为现在 List 和 Map 面试题太多,面试官认为你能答出来是应该的,但只要你有机会对 HashSet 和 TreeSet 说出本文的见解,并且说自己是看源码时领悟的,绝对肯定是加分项,这些就是你超过面试官预期的惊喜。
3.1 TreeSet 有用过么,平时都是在什么场景下使用的?
答:有没有用过如实回答就好,我们一般都是在需要把元素进行排序的时候使用 TreeSet,使用时需要注意元素最好实现 Comparable 接口,这样方便底层 TreeMap 根据 key 进行排序。
3.2 追问,如果我想实现根据 key 的新增顺序进行遍历怎么办?
答:要按照 key 的新增顺序进行遍历,首先想到的就应该是 LinkedHashMap,而 LinkedHashSet 正好是基于 LinkedHashMap 实现的,所以我们可以选择使用 LinkedHashSet。
3.3 追问,如果我想对 key 进行去重,有什么好的办法?
答:首先想到的是 TreeSet,TreeSet 底层使用的是 TreeMap,TreeMap 在 put 的时候,如果发现 key 是相同的,会把 value 值进行覆盖,所以不会产生重复的 key,利用这一特性,使用 TreeSet 正好可以去重。
3.4 说说 TreeSet 和 HashSet 两个 Set 的内部结构和实现原理?
答:HashSet 底层对 HashMap 的能力进行了封装,比如 add 方法就是直接使用 HashMap 的 put 方法,比较简答。说一下 HashSet 的四个小结点。
TreeSet 主要是对 TreeMap 底层能力进行封装复用,发现两种非常有意思的复用思路,重复 TreeSet 两种复用思路。
总结
- HashSet 对组合的 HashMap 类扩容的阈值的深入了解和设计,值得我们借鉴;
- TreeSet 对 TreeMap 两种复用思路,值得我们学习,特别是第二种,TreeSet 定义接口规范,由 TreeMap 去实现。
HashSet 和 TreeSet 不会是面试的重点,但通过以上两点,可以让我们给面试官一种精益求精的感觉,成为加分项。
疑问:
- HashSet 底层使用 HashMap,如果 hash 算法准确也可以实现 key 去重吧;
- HashSet 带集合数据初始化时,初始化 HashMap 时对扩容阈值的计算
Math.max((int) (c.size()/.75) + 1, 16)
,这里为何不使用 HashMap 的tableSizeFor(c.size)
计算呢?例如我拷贝 1000 长度的集合,我知道我最终的目标长度就是 1000,那我使用 tableSizeFor(1000) 的到大于 1000 并且最接近 1000 的 2 的幂次方的值作为 HashMap 的容量大小不就行了么?
答案:
- ...
- 因为 HashMap 扩容的条件是
size > threshold(负载因子)
,这里我们拷贝的最大 size 为 1000,如果考虑每次都不必扩容,那么 threshold 最小值应该为 1000,而负载因子的计算公式为:threshold = capacity * loadFactor
,带入参数为:1000 = capacity * 0.75
,所以capacity = 1000 / 0.75
,也就是:我们期望的容量值 = c.size()/0.75
,源码中(int) (c.size()/.75) + 1
来表示初始化的值,这样使我们期望的大小值正好比扩容的阈值大 1,就不会扩容,符合 HashMap 扩容的公式。
------------------------------------- END -------------------------------------
网友评论