一、HashMap基础
1.1 HashMap的定义
我们先看一下HashMap的定义:
public class HashMap<K,V> extends AbstractMap<K,V>
implements Map<K,V>, Cloneable, Serializable
1.2 HashMap的属性
//默认容量
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
//最大容量
static final int MAXIMUM_CAPACITY = 1 << 30;
//默认加载因子
static final float DEFAULT_LOAD_FACTOR = 0.75f;
//链表转成红黑树的阈值
static final int TREEIFY_THRESHOLD = 8;
//红黑树转为链表的阈值
static final int UNTREEIFY_THRESHOLD = 6;
//存储方式由链表转成红黑树的容量的最小阈值
static final int MIN_TREEIFY_CAPACITY = 64;
//HashMap中存储的键值对的数量
transient int size;
//扩容阈值,当size>=threshold时,就会扩容
int threshold;
//HashMap的加载因子
final float loadFactor;
二、初始化
首先我们看无参构造函数
HashMap<String, String> hashMap = new HashMap<>();
public HashMap() {//这里只是赋值了一个默认的加载因子,并没有做初始化操作
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
我们看一下其他两个构造函数
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
这两个同样也只是赋值了加载因子和扩容阀值
注意:tableSizeFor是的到一个二次幂的数值,其计算过程是这样的
/**
* Returns a power of two size for the given target capacity.
*/
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
假设初始容量为19
cap=19
int n = cap-1;//得到n=18,换算为二进制为0000 0000 0000 0000 0000 0000 0001 0010
n |= n>>>1;//表示n无符号右移一位后,与n按位或计算,其中n>>>1= 1001,按位或结果为11011
n|=n>>>2;//其中n>>>2=00110,按位或的结果为11111,下面几步类似,最终得到的结果是n=11111(二进制,也就是2^5-1,31)
这个计算方式是想法把二进制中低位的补1,最后的值一定是2的n次幂减1
最终计算得到的结果是32
因为cap最大为2^31,我们可以知道,这个方法的最终目的就是返回比cap大的最小的2的幂次方。
真正的初始化其实是在第一次put的时候,调用的是resize()
方法,哪里调用resize()
方法将在下面说明
三、put()
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
这个hash(key)是一个比较经典的方法,这里我们看一下
static final int hash(Object key) {
int h;
/**
* 这里是hash值一个巧妙的打乱方式,目的是将hash值进一步打乱,将对象在数组中的位置划分的更为均匀
* int 类型是32为的数值类型,并且可以区分为高16位和低16位
* 这里的算法就是: 高16为不变,将低16位与高16为进行 异或(^/xor) 运算 两个值不相同则为1,反之则为0
*
*/
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
put
方法调用putVal
方法,这里我们看一下putVal
的源码
/**
* Implements Map.put and related methods
*
* @param hash hash for key
* @param key the key
* @param value the value to put
* @param onlyIfAbsent if true, don't change existing value,这个参数很少用,但如果为true,则不替换已经存在的value值。默认是替换
* @param evict if false, the table is in creation mode.
* @return previous value, or null if none
*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)//如果table为null则进行第一次扩容->既为第一次真正的初始化
/**
* 如果table为null则进行第一次扩容->既为第一次真正的初始化
*/
n = (tab = resize()).length;
/**
* i = (n - 1) & hash
* 这里是又一个巧妙的运算,通过hash值,计算该节点在数组中的下标
* n 为当前数组的长度
* i 为计算出的下标
* 假如当前的长度为16(默认为HashMap的初始数组长度)
* n 的二进制为: 0000 0000 0000 0000 0000 0000 0001 0000
* 则 (n-1) 为15, 在二进制看来则是 0000 0000 0000 0000 0000 0000 0000 1111
* 此时将hash值与15进行 与(&) 运算, &:同为1 ,则为1,否则为0
* 无论hash值如何变化则运算之后的值一定在 【0-15】之间,则为当前节点所处的数组的下标,
* 这里其实与 hash % 16 的概念差不多,但是这种方法更将精妙,更加高效
*/
if ((p = tab[i = (n - 1) & hash]) == null)
/** p 为当前数组下标下的第一个节点,如果p为null,则表示当前数组下标下还没有值,这时直接新建一个node节点放入数组下标中 **/
tab[i] = newNode(hash, key, value, null);
else {/** 如果当前数组下标下有值,则进行下面代码 **/
Node<K,V> e; K k;
/**
* 1. p.hash == hash
* 首先判断当前节点的hash值是否与将要放入节点的hash值是否一致,如果一致则继续进行判断
* 2. (k = p.key) == key || (key != null && key.equals(k))
* 这个咱们拆开看, 首先看 || 符号左边
* (k = p.key) == key :这句代码首先将p.key赋值给k, 并且比较两个key值是否在同一快内存中,如果是则返回true,如果为false则继续进行判断
* 接下载咱们在看 || 符号右边
* (key != null && key.equals(k)) : 如果key不等于null的话,调用key的equels方法判断是否一致
*/
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p; /** 如果进入这个if里面则将p赋给临时变量e **/
else if (p instanceof TreeNode) /** 如果p是一个红黑树,则将put对象放入红黑树中 **/
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {/** 如果进入最后的else表示key不一致,并且该数组下标下的节点也不是一个红黑树 **/
/**
* 这里将遍历该链表
*/
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {/** 这里判断是否走到链表的最后 **/
/** 将新节点放入该链表的最后 **/
p.next = newNode(hash, key, value, null);
/**
* 这里判断是否满足将链表变成红黑树的 条件
* TREEIFY_THRESHOLD 的值为8,
* binCount是链表的下标,如果binCount的值为7,则代表该链表的长度为8
*/
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);/** 满足条件,进行红黑树的转换 **/
break;
}
/**
* 如果没有进入链表末尾
* 判断当前节点的key是否与新节点的key一致,与上面if的逻辑一样,这里不在赘述。
*/
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;/** 如果都不满足条件,继续向下寻找 **/
}
}
/**
* 经过上面代码分析过后,上面情况下e不为null呢?
* 只要新节点的key与老节点的key相同,则e不为null, e则代表,与新节点key一直的老节点
*/
if (e != null) { // existing mapping for key
V oldValue = e.value;
/** onlyIfAbsent,putVal方法的一个参数,通过这里可以看出,该参数控制是否覆盖老值,不过前提是老节点的value不为null **/
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);/** 这里在HashMap中是一个空实现,其在LinkedHashMap中有作用,这里不讨论 **/
return oldValue;
}
}
++modCount; /** modCount:表示结构被修改的次数 **/
if (++size > threshold) /** 这里我以前一直有一个误区,size表示的是map中所有节点的个数,而不是map中数组被占用的个数,这里很明确的表示出来了,如果size+1 大于阀值,则进行扩容 **/
resize();
afterNodeInsertion(evict);
System.out.println(table);
return null;
}
这里我们在看看一下resize()
方法
final Node<K,V>[] resize() {
/** 将表格赋给临时变量 **/
Node<K,V>[] oldTab = table;
/**
* oldCap: 扩容前数组大小
* oldThr:扩容前的扩容阀值
* 顾名思义
* newCap:新的数组大小
* newThr:新的扩容阀值
*/
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
/**
* 如果数组大小大于等于最大数组限制,则将扩容阀值设为最大,即:不在进行扩容,并返回老数组
*/
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
/**
* 1. (newCap = oldCap << 1) < MAXIMUM_CAPACITY
* 新的数组大小为老数组大小右移以为,即:老数组大小乘以2
* 2. oldCap >= DEFAULT_INITIAL_CAPACITY
* 老数组大小要大于等于,默认的初始化大小即为16
*/
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
/** 新的扩容阀值也扩大一杯 **/
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;/** 老的扩容阀值大于0,并将其赋值为新的数组容量,只有通过有参构造函数猜可以走到这一步 **/
else { // zero initial threshold signifies using defaults
/** 当HashMap,第一次默认初始化的时候,就会走到这里 **/
newCap = DEFAULT_INITIAL_CAPACITY; //16
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);//12
}
if (newThr == 0) {/** 新的扩容阀值为0,只有通过有参构造函数猜可以走到这一步 **/
float ft = (float)newCap * loadFactor;
/** 判断新的大小是否小于最大数组限制,并且扩容阀值是否小于最大数组限制,否则将扩容阀值设为最大 **/
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;/** 设置扩容阀值 **/
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];/** 根据扩容后的容量,创建一个新的hashMap **/
table = newTab;/** 将新的数组赋值给table属性,这里不是线程安全的 **/
if (oldTab != null) {
/** 循环老数组 **/
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
/**
* 如果老数组该下标下为null,则不管
* 如果不为null,则放入新数组中,并将老数组释放,交给gc去回收
*/
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)/** 如果该链表只有一个值,则直接将其放入新数组 **/
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)/** 如果该节点是一个红黑树,则将其拆开放入新数组,和下面将链表拆成两个链表类似 **/
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { /** 如果不是红黑树,并且链表不止一个值,则进入该步骤 **/
/**
* 首先有一个基础概念,HashMap扩容都是2倍扩容,即16->32>64
* 那么同一个链表下的节点,在新的数组中的位置只会在两个可能的位置,
* 一个是原下边,一个是原下标+原来数组的长度,
* 至于为什么会这样?
* 可以类比一组数除以16和同一组数除以32.
*
* 所以:loHead,记录原下标下的接线 loTail:记录链表末尾节点
* hiHead,记录原下标+原数组长度的,下标下的节点 hiTail:记录链表末尾节点
*/
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;/** 记录链表的下一个节点 **/
do {
next = e.next;/** 遍历下一个节点 **/
/**
* e.hash & oldCao
* 假设oldCap为16,那么二进制则是 0000 0000 0000 0000 0000 0000 0001 0000
* 随便一个hash值 0000 1010 1010 1111 0100 0101 0101 1111
* 如果第5位上不为1,则全部为0,表明,当前节点一定在数组的低位。如果第五位有值则表示一定 (% 32) 的余数一定比16大
*/
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;/** 将新的链表赋给低位的数组下标 **/
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;/** 将新的链表赋给高位的数组下标 **/
}
}
}
}
}
return newTab;
}
这里我们在看一下treeifyBin()
方法
/**
* 替换给定散列的索引处的bin中的所有链接节点,除非表太小,在这种情况下调整大小。
*/
final void treeifyBin(Node<K,V>[] tab, int hash) {
int n, index; Node<K,V> e;
/**
* 这里判断是否满足转换为红黑树的最小数组大小,如果不满足,直接进行扩容操作
*/
if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
resize();
/** 去需要扩容的数组下标下的链表首个节点 **/
else if ((e = tab[index = (n - 1) & hash]) != null) {
TreeNode<K,V> hd = null, tl = null;
do {/** 将链表节点变为TreeNode对象,并保持链表结构 **/
TreeNode<K,V> p = replacementTreeNode(e, null);
if (tl == null)
hd = p;
else {
p.prev = tl;
tl.next = p;
}
tl = p;
} while ((e = e.next) != null);
if ((tab[index] = hd) != null)
hd.treeify(tab);/** 改变为红黑树结构 **/
}
}
四、 多线程不安全问题
我们都知道,HashMap不是线程安全的。这块主要体现在两块:
3.1 get和put
这两块都没有加锁,所以可能会导致多线程执行时,出现数据被覆盖的问题。
3.2 死循环的问题
这个问题主要出现在resize的过程中,多线程都探测到需要resize时,将链表元素rehash过程中,可能会导致死循环。这个问题参考JAVA HASHMAP的死循环。
至此,源码分析基本结束。
网友评论