1.8 HashMap
HashMap主要是数组+单链表+红黑树组成。其实就是在一定条件下,数组index下的单链表转化成红黑树,这是提升查找效率的。
原来jdk1.7的优点是增删效率高,于是在jdk1.8的时候,不仅仅增删效率高,而且查找效率也提升了。
注意:不是说变成了红黑树效率就一定提高了,只有在链表的长度大于8,而且数组的长度不小于64的时候才会将链表转化为红黑树,
问题一:什么是红黑树呢?
红黑树是一个自平衡的二叉查找树,也就是说红黑树的查找效率是非常的高,查找效率会从链表的o(n)降低为o(logn)。如果之前没有了解过红黑树的话,也没关系,你就记住红黑树的查找效率很高就OK了。
问题二:为什么不一下子把整个链表变为红黑树呢?
这个问题的意思是这样的,就是说我们为什么非要等到链表的长度大于等于8的时候,才转变成红黑树?在这里可以从两方面来解释:
(1)构造红黑树要比构造链表复杂,在链表的节点不多的时候,从整体的性能看来, 数组+链表+红黑树的结构可能不一定比数组+链表的结构性能高。就好比杀鸡焉用牛刀的意思。
(2)HashMap频繁的扩容,会造成底部红黑树不断的进行拆分和重组,这是非常耗时的。因此,也就是链表长度比较长的时候转变成红黑树才会显著提高效率。
数据模型
重要属性
总体和1.7的差不多,但注意1.7的节点是Entry,1.8是Node,还是单链表的时候就是Node,转化为红黑树的时候就是TreeNode。
简要概括inti、put、get:
-
init
初始一个HashMap,可以传入容量大小和负载因子,不传容量大小的话默认是16,负载因子默认0.75,初始化的时候,仅仅是设置参数而已,还没赋予table数组的内存空间,即还没有new对象。真正赋予内存空间,是第一次执行put操作的时候,后续源码会详细讲解。 -
put
传入HashMap的是Key-Value对,进行put的时候,主要首先对Key进行hash扰动计算,计算出在数组的哪个下标index,然后采用尾插法的方式进行添加,如果该index上的单链表,key存在就替换,不同就用尾插法顶替,这里又分为替换的node是普通Node还是treeNode,treeNode就进行单独的入红黑树处理。这里不展开。 如果put的时候,是需要new Node的,普通Node的话,单链表已经超过到了8,而且总Node数达到了64,就会进行树化,如果没有到64,仅仅是超过8,还是只会进行扩容而已。最后判断如果总的size数超过了threshold,就会进行扩容。 -
get
get无非就是找commonNode或TreeNode找到相应的Node,将其的value返回去即可。
源码分析:
初始化init
也是仅仅给属性赋予值,但还没初始化,threshold这里和1.7有区别,它是传入的大小的最接近中最小的2次幂数,如传入13,threshold计算出是16。这里需要注意,capacity没传入甚至是不会初始化threshold的。
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity); 和1.7的区别是这句,
}
put操作
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
/**
* 分析2:putVal(hash(key), key, value, false, true)
*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 1. 若哈希表的数组tab为空,则 通过resize() 创建
// 所以,初始化哈希表的时机 = 第1次调用put函数时,即调用resize() 初始化创建
// 关于resize()的源码分析将在下面讲解扩容时详细分析,此处先跳过
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 2. 计算插入存储的数组索引i:根据键值key计算的hash值 得到
// 此处的数组下标计算方式 = i = (n - 1) & hash,同JDK 1.7中的indexFor(),上面已详细描述
// 3. 插入时,需判断是否存在Hash冲突:
// 若不存在(即当前table[i] == null),则直接在该数组位置新建节点,插入完毕
// 否则,代表存在Hash冲突,即当前存储位置已存在节点,则依次往下判断:a. 当前位置的key是否与需插入的key相同、b. 判断需插入的数据结构是否为红黑树 or 链表
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null); // newNode(hash, key, value, null)的源码 = new Node<>(hash, key, value, next)
else {
Node<K,V> e; K k;
// a. 判断 table[i]的元素的key是否与 需插入的key一样,若相同则 直接用新value 覆盖 旧value
// 判断原则:equals()
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// b. 继续判断:需插入的数据结构是否为红黑树 or 链表
// 若是红黑树,则直接在树中插入 or 更新键值对
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); ->>分析3
// 若是链表,则在链表中插入 or 更新键值对
// i. 遍历table[i],判断Key是否已存在:采用equals() 对比当前遍历节点的key 与 需插入数据的key:若已存在,则直接用新value 覆盖 旧value
// ii. 遍历完毕后仍无发现上述情况,则直接在链表尾部插入数据
// 注:新增节点后,需判断链表长度是否>8(8 = 桶的树化阈值):还需要判断table是否已经包含64个Node若是,则把链表转换为红黑树
else {
for (int binCount = 0; ; ++binCount) {
// 对于ii:若数组的下1个位置,表示已到表尾也没有找到key值相同节点,则新建节点 = 插入节点
// 注:此处是从链表尾插入,与JDK 1.7不同(从链表头插入,即永远都是添加到数组的位置,原来数组位置的数据则往后移)
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
// 插入节点后,若链表节点>数阈值,则将链表转换为红黑树
if (binCount >= TREEIFY_THRESHOLD - 1)
treeifyBin(tab, hash); // 树化操作
break;
}
// 对于i
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
// 更新p指向下一个节点,继续遍历
p = e;
}
}
// 对i情况的后续操作:发现key已存在,直接用新value 覆盖 旧value & 返回旧value
if (e != null) {
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e); // 替换旧值时会调用的方法(默认实现为空)
return oldValue;
}
}
++modCount;
// 插入成功后,判断实际存在的键值对数量size > 最大容量threshold
// 若 > ,则进行扩容 ->>分析4(但单独讲解,请直接跳出该代码块)
if (++size > threshold)
resize();
afterNodeInsertion(evict);// 插入成功时会调用的方法(默认实现为空)
return null;
}
/**
* 分析3:putTreeVal(this, tab, hash, key, value)
* 作用:向红黑树插入 or 更新数据(键值对)
* 过程:遍历红黑树判断该节点的key是否与需插入的key 相同:
* a. 若相同,则新value覆盖旧value
* b. 若不相同,则插入
*/
final TreeNode<K,V> putTreeVal(HashMap<K,V> map, Node<K,V>[] tab,
int h, K k, V v) {
Class<?> kc = null;
boolean searched = false;
TreeNode<K,V> root = (parent != null) ? root() : this;
for (TreeNode<K,V> p = root;;) {
int dir, ph; K pk;
if ((ph = p.hash) > h)
dir = -1;
else if (ph < h)
dir = 1;
else if ((pk = p.key) == k || (k != null && k.equals(pk)))
return p;
else if ((kc == null &&
(kc = comparableClassFor(k)) == null) ||
(dir = compareComparables(kc, k, pk)) == 0) {
if (!searched) {
TreeNode<K,V> q, ch;
searched = true;
if (((ch = p.left) != null &&
(q = ch.find(h, k, kc)) != null) ||
((ch = p.right) != null &&
(q = ch.find(h, k, kc)) != null))
return q;
}
dir = tieBreakOrder(k, pk);
}
TreeNode<K,V> xp = p;
if ((p = (dir <= 0) ? p.left : p.right) == null) {
Node<K,V> xpn = xp.next;
TreeNode<K,V> x = map.newTreeNode(h, k, v, xpn);
if (dir <= 0)
xp.left = x;
else
xp.right = x;
xp.next = x;
x.parent = x.prev = xp;
if (xpn != null)
((TreeNode<K,V>)xpn).prev = x;
moveRootToFront(tab, balanceInsertion(root, x));
return null;
}
}
}
首次插入数据,如果是空的table,就会resize,这里先不展开,就是初始化数组的意思。
传入的key经过hash,找到下标index:
① 如果该index上没有数据,就新建一个Node放置上去。
② 如果该下标index有值,如果传入key等于现存headNode的key,结束if..else..判断,然后headNode替换成NewValue并返回OldValue,结束。
③ 如果不是相同的key,接着else判断,else if (p instanceof TreeNode),
- 如果是treeNode,就是说这个headNode已经形成红黑树了,那就入树,无非就是更新或者新增。
- 如果不是treeNode,那就是单链表,headNode的next如果是null,那就new一个Node进行尾插法 的方式来插入,如果存在相同key就进行替换。
这里有个重要的点,TREEIFY_THRESHOLD=8,这里是TREEIFY_THRESHOLD-1=7,>=7就扩容,这里直接是由headNode的nextNode开始判断,headNode就是-1,正如注释写得 -1 for 1st,nextNode=0,开始循环判断currentNode的nextNode是不是null,所以如果达到了7,而同时是0作为开始的,还有加上headNode,那么一共就是9,那么就是说,要单链表大于8,就达到了进行树化的第一个条件,为什么说是第一个条件,因为treeifyBin(tab,hash)方法里头进行树化还有一个条件是table需要满足具有64个node。
如果任一不满足,只会进行resize扩容,而不会进行树化。
if (binCount >= TREEIFY_THRESHOLD - 1)
treeifyBin(tab, hash); // 树化操作
break;
final void treeifyBin(Node<K,V>[] tab, int hash) {
int n, index; Node<K,V> e;
if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
resize();
else if ((e = tab[index = (n - 1) & hash]) != null) {
TreeNode<K,V> hd = null, tl = null;
do {
TreeNode<K,V> p = replacementTreeNode(e, null);
if (tl == null)
hd = p;
else {
p.prev = tl;
tl.next = p;
}
tl = p;
} while ((e = e.next) != null);
if ((tab[index] = hd) != null)
hd.treeify(tab);
}
}
resize()扩容
首次put,和之后table达到指定条件进行扩容处理。
/**
* 分析4:resize()
* 该函数有2种使用情况:1.初始化哈希表 2.当前数组容量过小,需扩容
*/
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table; // 扩容前的数组(当前数组)
int oldCap = (oldTab == null) ? 0 : oldTab.length; // 扩容前的数组的容量 = 长度
int oldThr = threshold;// 扩容前的数组的阈值
int newCap, newThr = 0;
// 针对情况2:若扩容前的数组容量超过最大值,则不再扩充
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 针对情况2:若无超过最大值,就扩充为原来的2倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // 通过右移扩充2倍
}
// 针对情况1:初始化哈希表(采用指定 or 默认值)
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
// 计算新的resize上限
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
// 把每个bucket都移动到新的buckets中
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // 链表优化重hash的代码块
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
// 原索引
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
// 原索引 + oldCap
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
// 原索引放到bucket里
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
// 原索引+oldCap放到bucket里
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
① 初次put进行resize的操作,这时候是初始化table, 如果new HashMap()什么参数都不带,那么 oldCap=0,oldThr=threshold自然也是0。这时候,newCap 自然就是默认值16,newThr自然是16*默认因子0.75=12。如果有传入capacity,那么threshold就是最接近的最小2次幂,newCap就是它,即newTab是这个大小,之后oldCap是空的,直接返回newTab。
②非初次put,并达到条件,于是进行resize。newCap 为 oldCap * 2,newThr也是oldThr * 2,这时oldCap不是null,那么就开始进行数据转移。
遍历oldTab的每个下标index,为空直接略过不需要处理,
不为空先判断是不是只有一个Node:
- 是:与newTab进行hash,得到在newTab里的新下标idnex,直接挂上去,结束。
- 否:判断是不是treeNode:是的话,构造回红黑树;否, 是单链表的话,链表有兄弟节点,遍历单链表,Node与oldCap进行异或运算,结果==0,放置在newTab的低位,否则放置在高位。
我们看到有4个变量,Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null;,
低位头、尾 ; 高位头、尾,将单链表的各个Node,进行异或运算之后,结果=0的,直接使用尾插法关联起来,形成一个新链表,用于放置在oldTab的低位,头就是loHead、尾就是loTail;不等于0就放置在高位,头就是hiHead、尾就是hiTail,一样的原理的。
它们各自形成高、低单链表后,可见代码,低单链表原来在oldTab的什么位置,转移后就在newTab的什么位置,高单链表就放在newTab的oldTab[index]+oldTab.length的位置。简单来说,比如oldTab原本的length是16,元素本来就oldTab[2],那么低单链表就放在newTab[2]处,而高单链表就是放在newTab[2+16]的位置。
全部转移之后,返回newTab,扩容成功。
关于高低单链表计算
下标index计算是 (n - 1) & hashcode,比如一开始n=16,就是oldTab的长度为16,index=hashcode&15,然而15的二进制是0000 1111,比如某个Node在oldTab的位置是index=7,那么这个Node的key的hashcode低4位必然是 0111。
随着扩容,在进行高低单链表的分配时,执行的计算是e.hash & oldCap,如果=0,就去低单链表,那么什么时候=0呢,oldCap=0001 0000 ,Node的key的hashCode的低5位是 x 0111 ,因为是&运算,低4位无论如何都是0的,x要么是0,要么是1,
Node的key的hashCode第五位:
- 0,与oldCap第五位1元素 & 运算,就是0,这个Node就去到 newTab中与旧index相同的位。用上面的例子说,Node在newTab的位置还是index=7。
- 1,与oldCap第五位1元素 & 运算,就是1,这个Node就去到 newTab中旧index+oldCap的位置。用上面的例子说,Node在newTab的位置是index=7+16=23。
线程安全问题
1.8的hashMap不会出现死链情况,但还是会出现数据覆盖和读取数据丢失问题。
数据覆盖
正常情况下,当发生哈希冲突时,HashMap 是这样的:
但多线程同时执行 put 操作时,如果计算出来的索引位置是相同的,那会造成前一个 key 被后一个 key 覆盖,从而导致元素的丢失。
- put 的源码:
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 步骤①:tab为空则创建
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 步骤②:计算index,并对null做处理
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
// 步骤③:节点key存在,直接覆盖value
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// 步骤④:判断该链为红黑树
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
// 步骤⑤:该链为链表
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
//链表长度大于8转换为红黑树进行处理
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
// key已经存在直接覆盖value
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// 步骤⑥、直接覆盖
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
// 步骤⑦:超过最大容量 就扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
问题发生在步骤 ② 这里:
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
两个线程都执行了 if 语句,假设线程 A 先执行了 tab[i] = newNode(hash, key, value, null)
,那 table 是这样的:
接着,线程 B 执行了 tab[i] = newNode(hash, key, value, null)
,那 table 是这样的:
3 被干掉了。
数据读取丢失
put 和 get 并发时会导致 get 到 null**
线程 A 执行put时,因为元素个数超出阈值而出现扩容,线程B 此时执行get,有可能导致这个问题。
注意来看 resize 源码:
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
// 超过最大值就不再扩充了,就只好随你碰撞去吧
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 没超过最大值,就扩充为原来的2倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
// 计算新的resize上限
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
}
线程 A 执行完 table = newTab
之后,线程 B 中的 table 此时也发生了变化,此时去 get 的时候当然会 get 到 null 了,因为元素还没有转移。
网友评论