HashMap简述
允许插入null key和null value,但是最多只允许一条键为null,可以有多个值为null,无法保证插入元素的顺序
跟HashTable相比,除了HashMap不同步和允许null值以外,其他基本一样
影响HashMap性能的主要有两个参数:initial capacity and load factor,即初始容量大小和负载因子
操作符
以下是HashMap源码中出现的操作符,此处先提前说明
^ 异或操作,二进制比较,相同取0,不同取1
<< 左移运算,n << 1也就是相当于将n*2
& 与运算,二进制比较,当相同位上的值都是1时,取1;否则,取0
Node类
首先,看一下其内部静态类Node
该类定义了HashMap内部链表的节点,内部的字段有:
Node类
并且,其hashcode方法为:分别取key和value的hashcode,并做异或操作得到
其equals方法为:二者的key和value必须同时相等,才可以判定为相同
HashMap中的成员变量
先看一下HashMap中定义的常量值:
// 默认初始化大小,为 16
DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
MAXIMUM_CAPACITY = 1 << 30
DEFAULT_LOAD_FACTOR = 0.75f
// 这个值是值当链表转化为红黑树时,最长的链表长度
TREEIFY_THRESHOLD = 8
UNTREEIFY_THRESHOLD = 6
// 最小红黑树容量
MIN_TREEIFY_CAPACITY = 64
下面看一下成员变量
// 一个node的数组,当创建或扩容之后,数组大小一定是2的幂
transient Node<K,V>[] table;
// 当前在map中存储的键值对数目
transient int size;
// 当内部结构发生变化时,记录该值,主要是为了迭代过程中的快速失败
transient int modCount;
// 当达到该值时,HashMap就需要resize了
// threshhold = capacity * load factor
int threshold;
// 负载因子,默认为0.75;当数组长度定义好了之后,
// 该值越大,所能容纳的node数目越多
final float loadFactor;
比较重要的有loadFactor和threshold
构造方法
// 初始化一个空的hashmap,其loadFactor(0.75)和数组长度(16)都是默认的
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
// 确保threshhold的值为,大于给定capacity的2的幂的最小值
this.threshold = tableSizeFor(initialCapacity);
}
但是需要注意,经过了以上步骤,table仍未进行初始化,再往下看,就会发现table其实是在put方法中进行初始化的
put方法的实现
这里借助一张在网上找到的图,概括一下put的逻辑:
put方法逻辑
代码分析:
// 先求key的hash值,再调用下面的方法
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab;
Node<K,V> p;
int n, i;
if ((tab = table) == null || (n = tab.length) == 0){
// 判断table若为null,则执行resize方法,此方法会先将table进行初始化
n = (tab = resize()).length;
}
// i = (n - 1) & hash 该步是根据key的hash值,计算该key位于table中的索引
if ((p = tab[i = (n - 1) & hash]) == null) {
// 如果该key所对应的索引处,值为空,那就new一个node,并将其赋值给tab[i]处
tab[i] = newNode(hash, key, value, null);
} else {
Node<K,V> e; K k;
// p即为i处对应的node
// 如果该节点存在, hash值相等且key也已经存在,那就直接进行覆盖操作
// 注意这里对key的判断共有两层: ==和equals只要有一个满足即可
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
// 如果table[i]对应的node为treeNode,即红黑树,那么直接在树中插入键值对
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
// 该节点对应链为链表,遍历
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
// 如果目标不存在,那么新建一个node并赋值
p.next = newNode(hash, key, value, null);
// 如果链表长度>8,就将其转化为红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
// 如果命中,节点e就是key所在的位置的话,则直接跳出循环
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// 如果e不为空,那么就用传入的value覆盖旧的值,并返回旧值
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
// 插入完毕,modCount加1
++modCount;
// 判断是否需要扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
如上代码,put方法的逻辑可以概括为:
- 判读table是否为空,若为空,则将其初始化
- 如果table[i]处对应的node为null,则直接新建一个node,并将其插入;之后,判断当前链表大小是否大于threshhold,若大于,则扩容
- 如果table[i]处node不为空,分为以下几种情况
- table[i]处key就是目标key,则直接将其值覆盖即可
- 若不是目标key,就判断该节点是否为树节点,若是,则调用红黑树方法将键值对插入;
- 若不是树节点,就遍历链表,若命中,则将值进行覆盖;否则,就新建一个节点并赋值,并且,还需要判断链表长度是否>8,若是,就将链表转化为红黑树
至此,put方法就分析结束了
table的index的计算和hash方法
一般而言,对于一个给定的key值,只要其hashcode不变,那么得到的hash值总是相同的。如果我们以hash值对table的长度length取模,那么得到的数组index是比较均匀的。但是取模运算消耗较大,下面看一下1.8的源码中采用的方法
如下所示:
// i为table中的index,n为table的长度,hash值由以下方法计算
i = (n - 1) & hash(key);
// 实质是将hashcode的高16位和低16为做异或操作,并返回
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
首先看hash()方法,计算得到key的hashcode后(即h),将h与h右移16位后的值做异或操作。
- 可以知道,h右移16位,其高16位的值全是0
- 将hashcode与上面的结果异或,由于任何数与0的异或结果都是其本身,可以知道,二者的异或结果高16位不变
- 也就是说,hash方法的结果是:将hashcode的高16位和低16位异或得到的
至于这么做的原因,源码中解释说这是针对速度,实用性和质量来考虑的
再看i的计算,由于table的长度n总是2的幂,这里举一个例子
假设n为初始大小即16,其二进制:0001 0000
然后n-1,即15:0000 1111
假设hash的值为19,即 0001 0011
这样,二者相与之后,结果为:0000 0011,即3
可以看到,计算结果和直接把hash对n取模的结果是一样的
当n总是2的幂时, (n - 1) & hash就等同于取模操作,但是&与运算比%取模运算效率要高,这是HashMap对速度做出的优化。
当使用链表存储元素时,查找元素的复杂度为O(1) + O(n),当产生很多碰撞时,链表长度会很长,此时O(n)是会影响性能的;当采用红黑树时,复杂度变成了O(1) + O(log n),性能有所提升
resize过程
该方法初始化一个table,或者将一个现有的table容量扩大为二倍。实际上,会新建一个table,并将old table中的元素重新计算index,放置进新的table中
该方法的注释中写道:
because we are using power-of-two expansion, the elements from each bin must either stay at same index, or move with a power of two offset in the new table.
由于每次扩容都会将容量扩大为2的幂,这样在将节点放置在新的table中时,每一个节点要么会在原来的位置,要不就会在原有位置的基础上移动2的幂的距离
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
// 若已经达到最大容量,则返回原来的table
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 将threshhold*2
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
// 如果原来的table大小为0,,就将table初始化为threadhold的值
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
// 否则,就使用默认值
newCap = DEFAULT_INITIAL_CAPACITY; // 16
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); // 12
}
// 计算新的threshhold上限
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
// 创建new table
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
// 遍历old table, 并将以前的元素重新计算index后插入
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
// 释放旧的元素引用
oldTab[j] = null;
// 如果节点为尾节点,则计算其索引,并设置
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
// 新增的一位为0,则索引不变
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
// 新增一位为1,则变为原索引+oldCap
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
get方法的实现
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
// 首先找到key所对应的index位置上的node(first),即table上的链表头结点
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
// 检查first节点是否为目标节点
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
// 遍历红黑树
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
do { // 遍历链表,注意此处调用的是equals进行判断
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
代码比较简单
总结:
- HashMap的默认初始化大小为16,loadfacor大小为0.75
- 数组table的初始化是在put方法时,若判断table为null,则会调用resize()进行初始化
-
hash的计算方法:
当执行put方法时,首先使用key的hashCode()返回值,高16位与低16位异或得到hash值,采用这种方法的原因是针对速度,质量等因素综合考虑的;再利用该hash值得到table中的索引(i = (n - 1) & hash)
,最后再进行判断 -
判断两个node相同的条件:
p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))
也就是说,当两个node的hash值相同,并且二者的key相等(满足==或者equals其中一个)时,才可以判定为同一个node - 当HashMap中已存储的元素数目大于threshhold(length * loadfactor)时,会进行resize,之后要重新进行元素分布位置计算
- resize的结果为old length * 2
- 当冲突过多,链表的长度大于8时,会将链表转化为红黑树;当树的大小小于6时,再重新转化为链表
- 使用链表时,查找的时间复杂度:O(1) + O(n);替换为红黑树之后,变为:O(1) + O(log n)
- 在初始化时,如果能预估元素的数目,则可以指定容量大小,避免需要多次扩容,减少resize次数
参考文章:
https://tech.meituan.com/java-hashmap.html
https://github.com/LRH1993/android_interview/blob/master/java/basis/hashmap.md
网友评论