HashMap源码解析
前言
之前写过一篇SparseArray的源码解析,今天我们就对HashMap下手,撸一撸HashMap的源码。这篇文章的源码是从Android29中扒过来,实现方式是和JDK1.8里面的实现方式相似。
在jdk1.8的结构中,用的是数组+链表+红黑树的的结构来存放数据。使用红黑树能够加快增删改查的效率。
源码
重要属性
public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable {
//默认的数组的最小值
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
//默认的数组的最大值
static final int MAXIMUM_CAPACITY = 1 << 30;
//默认的负载因子
static final float DEFAULT_LOAD_FACTOR = 0.75f;
//当数据量大于8的时候,调整为红黑树
static final int TREEIFY_THRESHOLD = 8;
//小于6调整为链表
static final int UNTREEIFY_THRESHOLD = 6;
//临界值,当HashMap的存储的信息超过这个值的话,就会进行扩容
int threshold;
//当整个HashMap中的数量超过64的时候,也会转化为红黑树
static final int MIN_TREEIFY_CAPACITY = 64;
//元素的数量
transient int size;
//统计当前HashMap修改的次数
transient int modCount;
//实际的负载因子值
final float loadFactor;
重要内部类
Node<K,V> :节点信息类。在HashMap中,进行存储的时候,每个存储位置都是一个节点,节点类型就是Node<K,V>
//哈希节点信息,在HashMap中,每个节点都是Node对象
static class Node<K, V> implements Map.Entry<K, V> {
//key所对应的哈希值
final int hash;
final K key;
V value;
Node<K, V> next;
Node(int hash, K key, V value, Node<K, V> next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
....
}
可以看到,节点有个next,指向了下一个节点信息。
TreeNode<K,V>:红黑树节点信息类。HashMap的某个槽点的保存的数据较多时,会将保存的结构从链表转化为红黑树,红黑树的节点信息就是TreeNode<K,V>
//转化为红黑树的时候使用的节点信息
static final class TreeNode<K, V> extends LinkedHashMap.LinkedHashMapEntry<K, V> {
TreeNode<K, V> parent; // red-black tree links
TreeNode<K, V> left;
TreeNode<K, V> right;
TreeNode<K, V> prev; // needed to unlink next upon deletion
boolean red;
TreeNode(int hash, K key, V val, Node<K, V> next) {
super(hash, key, val, next);
}
红黑树的节点保存了父节点,左子节点,柚子节点以及前方节点信息
构造函数
HashMap的构造函数有多个,我们一一的研究
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
//设置了初始容量
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
//设置了初始容量和负载因子
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " + loadFactor);
this.loadFactor = loadFactor;
//根据初始容量计算下一次扩容的临界值
this.threshold = tableSizeFor(initialCapacity);
}
HashMap这3个构造函数是相似的,最后一个构造函数的唯一的需要注意的就是 tableSizeFor 这个函数了。
//寻找大于输入参数且最近的2的整数次幂的数
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
这个代码看起来贼神奇,我们看看他是如何做到能够找到最近的2的整数次幂的。
在二进制里面,2的整数次幂怎么表示? 0100...000。这种只有中间一个是1,其他位置都是0的,就是一个2的整数次幂。这里的实现方案是通过00111111...1111,然后+1处理,然后获取2的整数次幂。这里的处理方案
-
先来假设n的二进制为01xxx...xxx。接着
-
对n右移1位:001xx...xxx,再位或:011xx...xxx
-
对n右移2为:00011...xxx,再位或:01111...xxx
-
同理,通过右移,然后再位或,让最高位的1后面的位全变为1。也就是001111111111
-
最后再让结果n+1,即得到了2的整数次幂的值了。
除了以上三个,还有一个特殊的构造函数
//传入一个map,将map的数据保存到HashMap中
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
也是设置了默认的加载因子,然后调用了 putMapEntries 方法。
//传入一个map,将其保存到hashmap中,
final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
int s = m.size();
if (s > 0) {
if (table == null) { // pre-size
//根据传入的长度计算容量,
float ft = ((float) s / loadFactor) + 1.0F;
//容量肯定不能超过HashMap的上下界限
int t = ((ft < (float) MAXIMUM_CAPACITY) ? (int) ft : MAXIMUM_CAPACITY);
//初始化临界值,当t大于临界值的时候,进行临界值的计算。这个tableSizeFor方法
if (t > threshold)
threshold = tableSizeFor(t);
} else if (s > threshold)//table已经初始化了,并且s超过了临界值,则调用resize()进行扩容
resize();
//遍历,逐个把map的书放入到hashmap中
for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
K key = e.getKey();
V value = e.getValue();
putVal(hash(key), key, value, false, evict);
}
}
}
这个构造方法,传入的是Map,在进行处理的过程中,会先通过map的大小对HashMap进行容量或者临界值做一个处理。然后再遍历通过putval()方法,将数据保存到hashmap中。
添加元素
public V put(K key, V value) {
//第三个参数表示不管value是否为空,都进行数据的保存
return putVal(hash(key), key, value, false, true);
}
public V putIfAbsent(K key, V value) {
return putVal(hash(key), key, value, true, true);
}
这个添加元素的方案应该是我们最最最常用的了吧?里面调用了一个函数的重载方法。hash(key) 方法是计算key对应的哈希值。
我们先不看重载方法,而是先研究一下,在hashmap中的哈希值是如何计算的。
static final int hash(Object key) {
int h;
//如果key为空,那么hash为0。否则的话取hashCode值h,然后将其和h右移16位的值进行异或操作
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
这个代码看起来很简单,但是因为涉及到异或的处理以及哈希槽的分配问题,所以我们这里重点讲解一下。
为什么要无符号右移16位?
假如说我们现在有一个32位的hashcode值。
当h无符号右移16位以后,会将h的高16位移动到低16位位置。然后再和原来的h进行异或操作。这样就可以将高低位的二进制特征进行混合起来。高16位不会发生变化,只有低16位发生了变化。为什么要这么做呢?我们知道hashmap的数据存储是将其分配到具体的哈希槽中的。所以需要尽量的保证数据能够均匀的分配到不同的槽中。
而分配到哈希槽点的计算方法是 (n - 1) & hash(这个我们后面会讲)。在重要属性中我们知道,HashMap数组的大小(也就是哈希槽点的数量)的默认值是16。我们按照16来进行计算处理。
这时候,hashcode的高16位,因为槽点的数量限制,直接就屏蔽了高16位的信息。如果我们不做刚才移位异或运算,那么在计算槽位时将丢失高区特征。这样就会容易造成如果数据的hashcode的值差异在高位,不做移位异或计算,就会发生哈希碰撞。
为什么使用异或?
异或操作能够很好的保留特征信息。不管是 | 还是 & ,都会导致计算的数据偏向 0 或者 1。
为什么槽位必须是2^n?
当槽位数值是2^n的时候,计算槽位的公式-1,能够保证所有的位置都是1,进行 (n - 1) & hash操作,分配的槽值位置的均匀度就不会受槽值的影响,而之受hash的影响。而我们在计算hash的时候又通过移位异或的计算从而保证其均匀性,从而减少了哈希碰撞。
对于HashMap的hash值的计算原理我们就说到这里有兴趣的小伙伴可以研究研究。我们这就继续源码了~
/**
* 保存key,value
* @param hash key对应的hash值
* @param key key值
* @param value value值
* @param onlyIfAbsent 如果是true:则只有对应的value为空的时候才保存。
* @param evict
* @return
*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
//哈希数组
Node<K, V>[] tab;
//p 该哈希桶的首节点
Node<K, V> p;
//n 哈希的长度
// i:计算出来数据在哈希数组中的的数组下标
int n, i;
//获取长度并进行扩容,使用的是懒加载,table一开始是没有加载的,等put后才开始加载
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
//查找hash对应的哈希桶首节点
if ((p = tab[i = (n - 1) & hash]) == null) {
//如果当前hash所对应的位置节点是空,则将其作为哈希桶的首节点
tab[i] = newNode(hash, key, value, null);
} else {
//哈希冲突了
//e表示key对应的数据在map中存在的节点信息
// k代表节点的key值
Node<K, V> e;
K k;
//哈希桶的首节点就是我们的key所在的位置.(需要哈希值相等,equal方法相同。所以这就是为什么在覆写equal方法的时候还要覆写hash)
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
//不是哈希桶的首节点,如果哈希桶的首节点是红黑树节点。则将其放到红黑树
else if (p instanceof TreeNode)
e = ((TreeNode<K, V>) p).putTreeVal(this, tab, hash, key, value);
else {
//否则就放入到数据链中
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {//到链表结尾了,那么将key和value放到链表结尾
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
//链表数量超过了8,则变为红黑树
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
//如果插入的key所对应的值存在则进行覆盖且则返回旧值
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
//增加实际数据长度,如果满足要求则扩容。
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
//添加成功,则返回空
return null;
}
在进行key,value存储的过程中,会根据具体的情况来进行分析处理。
- 如果存储数据的哈希槽没有创建则创建哈希槽数组。
- 哈希值对应的哈希桶首节点不存在,则将数据放到首节点位置。
- 如果首节点存在,则进行不同的情况处理
- 如果首节点就是我们key所在的位置,则返回首节点
- 如果首节点不是key所在位置。
- 当前哈希桶是红黑树,则通过putTreeVal方法进行处理。
- 如果是链表,则遍历链表,如果找到对应的key和要保存的key相等,则返回对应的节点信息,如果没有找到,则创建新的节点放置到链表后,保存后,可能会将链表转化为红黑树。
- 在之前的所有处理中,如果key所在的节点找到了,其实并没有进行数据的保存工作,只是将指针指向了对应的节点位置。然后根据onlyIfAbsent入参来处理是否保存的逻辑处理。
这里面有几个函数需要我们去关注一下。
resize()
这个函数有2个作用,一个是初始化,另一个是进行扩容工作。扩容是将数组的容量加倍,然后将每个位置的数据再重新计算放置到新的数组中。
// 初始化或扩容。
// 当table是null时,根据临界值threshold成员变量来初始化table的大小。
// 如果table已经初始化,那么哈希桶里面的元素要么处于该table下标,要么处于该table下标再加某个2的幂
final Node<K, V>[] resize() {
//保存旧版本的表
Node<K, V>[] oldTab = table;
//旧表的表容量
int oldCap = (oldTab == null) ? 0 : oldTab.length;
//旧的临界值
int oldThr = threshold;
//新的容量和新的临界值
int newCap, newThr = 0;
if (oldCap > 0) {//如果table表已经进行了初始化,则进行扩容处理。
if (oldCap >= MAXIMUM_CAPACITY) {//如果table已经超过了上限,不再扩容了
threshold = Integer.MAX_VALUE;
return oldTab;
} else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&//进行扩容
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // 装载因子不变,所以容量翻倍,阈值也翻倍 double threshold
}
//如果调用public HashMap(int initialCapacity, float loadFactor)方法进行初始化,会根据传输的容量初始化设置了阈值,但是并没有存放数据,table也没有初始化
//这时候直接将阈值赋值给新的变量
else if (oldThr > 0)//初始容量设置为阈值 // initial capacity was placed in threshold
newCap = oldThr;
else { //初始阈值为零表示使用默认值 // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int) (DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
//如果临界值为0,则设置临界值为容量*负载因子
if (newThr == 0) {
float ft = (float) newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float) MAXIMUM_CAPACITY ?
(int) ft : Integer.MAX_VALUE);
}
//设置新的临界值
threshold = newThr;
//创建新表
@SuppressWarnings({"rawtypes", "unchecked"})
Node<K, V>[] newTab = (Node<K, V>[]) new Node[newCap];
table = newTab;
//进行新表的数据保存
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K, V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)//如果只有一个节点,则直接将其保存到新的数据首节点位置
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)//如果是红黑树,则把红黑树进行拆分
((TreeNode<K, V>) e).split(this, newTab, j, oldCap);
else { //链表 preserve order
//进行2倍扩容的话,其实相当于把原来的数组内部的数据分别放到了i+n的位置和当前的i内。并不会放到其他的位置。
//e.hash & (newCap - 1)->因为位数都是以,所以得出的信息
Node<K, V> loHead = null, loTail = null;
Node<K, V> hiHead = null, hiTail = null;
Node<K, V> next;
do {
next = e.next;
//比如原来cap是0100,则位置是hash&(0011)的到的坐标。扩容以后就是hash&(0111)。
// 所以是否需要移动,只需要看0100,这个1的位置即可
// 如果这个bit等于0,说明新table下标和旧table下标是一样的
if ((e.hash & oldCap) == 0) {
//如果Low表的数据还没有初始化,则进行初始化,否则就将数据放到列表的下一位
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
} else {//否则的话,放入到i+n位置的数组内
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
//将两个链表的头节点放入到数组中
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
在进行初始化或者存放数据后,都会进行这个方法的调用。
treeifyBin
//将hash所对应的那个哈希桶变为红黑树结构
final void treeifyBin(Node<K, V>[] tab, int hash) {
int n, index;
Node<K, V> e;
//如果数组为空,进行初始化。如果数组的长度小于64,会进行扩容操作,因为hashmap会认为是因为数组太小大,导致的哈希桶太挤导致的
//所以会先进行扩容,只有当容量大于64,才会进行将链表结构变化为红黑树
if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
resize();
else if ((e = tab[index = (n - 1) & hash]) != null) {
//e是hash对应的数组位置的首节点
TreeNode<K, V> hd = null, tl = null;
do {
//创建一个树形节点
TreeNode<K, V> p = replacementTreeNode(e, null);
//将所有的树形节点,按照双向链表的方式保存
if (tl == null)
hd = p;
else {
p.prev = tl;
tl.next = p;
}
tl = p;
} while ((e = e.next) != null);
//将链表转化为红黑树结构
if ((tab[index] = hd) != null)
hd.treeify(tab);
}
}
这个方法会在某个哈希桶保存的数据量超过8个的时候进行调用。里面会根据情况进行扩容或者转化为红黑树。
如果发现哈希桶的数量小于64,会进行扩容工作。因为hashmap会认为是因为数组太小大,导致的哈希桶太挤导致的。
在转化为红黑树的过程中,会将现有的Node转化为TreeNode,然后会调用treeify 方法将双向链表转化为红黑树。
TreeNode.putTreeVal
这个方法是从红黑树中进行数据的遍历处理,如果获取到相同的key,则返回对应的位置信息,否则就通过红黑树的比较方式,将数据存入红黑树中。
比较重要的几个函数讲完了,我们可以简单看看其他几个添加的方法
//将一个map保存到hashmap中
public void putAll(Map<? extends K, ? extends V> m) {
putMapEntries(m, true);
}
这个调用的方法和我们的构造函数中使用的是一样的,我们之前做过解析,这里就不用再看了
删除
public V remove(Object key) {
Node<K, V> e;
return (e = removeNode(hash(key), key, null, false, true)) == null ?
null : e.value;
}
//key和value都相同的才进行移除
public boolean remove(Object key, Object value) {
return removeNode(hash(key), key, value, true, true) != null;
}
会调用一个函数重载方法
/**
*
* @param hash 对应的hash值
* @param key 对应的key
* @param value 对应的value
* @param matchValue 是否需要value匹配,如果为true的话,只有保存的value和传入的参数value相同,才移除
* @param movable 如果为false,则在删除时不移动其他节点
* @return
*/
final Node<K, V> removeNode(int hash, Object key, Object value,
boolean matchValue, boolean movable) {
Node<K, V>[] tab;
Node<K, V> p;
int n, index;
if ((tab = table) != null && (n = tab.length) > 0 &&
(p = tab[index = (n - 1) & hash]) != null) {//hash所对应的哈希桶存在而且不不为空
//node用来保存找到的key相等的符合要求的节点
Node<K, V> node = null, e;
K k;
V v;
if (p.hash == hash && //如果key相等,则直接返回p节点信息
((k = p.key) == key || (key != null && key.equals(k))))
node = p;
else if ((e = p.next) != null) {
if (p instanceof TreeNode) //如果当前哈希桶是红黑树,则通过红黑树来进行查找
node = ((TreeNode<K, V>) p).getTreeNode(hash, key);
else {//否则通过遍历链表搜索,搜索完的话
do {
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
p = e;
} while ((e = e.next) != null);
}
}
//如果找到了对应的节点信息,则根据入参进行数据的删除。
if (node != null && (!matchValue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
if (node instanceof TreeNode)
((TreeNode<K, V>) node).removeTreeNode(this, tab, movable);
else if (node == p)
tab[index] = node.next;
else
p.next = node.next;
++modCount;
--size;
afterNodeRemoval(node);
return node;
}
}
return null;
}
这里会根据hash来判断key可能在的 哈希桶的位置,然后从哈希桶的根节点开始遍历。当然了,哈希桶可能是红黑树也可能是链表,需要根据不同的情况来遍历查找节点。
当查找到节点以后,会根据入参来判断是否进行移除工作。
我们来看下一个移除的函数(清空)
清空
public void clear() {
Node<K, V>[] tab;
//修改次数+1
modCount++;
//如果哈希数组不为空,则遍历所有的哈希桶,将其所有的首节点设置为空
if ((tab = table) != null && size > 0) {
size = 0;
for (int i = 0; i < tab.length; ++i)
tab[i] = null;
}
}
清空操作相对来说比较简单,会把所有的哈希桶的首节点都置为null,然后将hashmap的size置为0。
查找
public V get(Object key) {
Node<K, V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K, V> getNode(int hash, Object key) {
Node<K, V>[] tab;
Node<K, V> first, e;
int n;
K k;
//hash所对应的哈希桶是存在的
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
//首先检测首节点是否是我们需要查找的数据,如果是的话,直接返回
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
//如果不是,遍历
if ((e = first.next) != null) {
if (first instanceof TreeNode)
//如果是红黑树,则从红黑树获取
return ((TreeNode<K, V>) first).getTreeNode(hash, key);
do {//链表结构的话,遍历链表查询
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
对于数据的获取,通过重载函数进行了查询处理。
线程安全
在JDK8中的HashMap是非线程安全的,会发生数据覆盖问题。而非线程安全的问题主要出现在数据的插入操作。
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
...
if ((p = tab[i = (n - 1) & hash]) == null) // 如果没有hash碰撞则直接插入元素
tab[i] = newNode(hash, key, value, null);
...
if (++size > threshold)
resize();
...
}
首先,在第一个地方,假设线程A、B都在执行put的操作,当线程执行完条件判断完成以后由于时间片耗尽而被挂起,而线程B得到时间片后载该下标处进行了插入元素的操作,完成了正常的插入操作。然后这个时候A获取时间片以后,由于之前进行过条件判断,所以不再进行判断而是直接进行数据的插入,会导致线程B的数据被线程A覆盖了,从而线程不安全。
其次,在第二个位置,++size的操作,在进行操作的时候,在底层会进行多个处理,首先取得size值,然后再进行++,最后将值进行保存。并非是一个原子操作。所以会存在线程安全的问题。
扩展知识点
- 在进行HashMap存储的过程中,理解了为什么类在重写equal方法的同时,必须重写hashcode方法。因为在保存或者移除的时候,会根据hashcode来获取对应的哈希桶,然后根据equals方法来进行是否是同一个key的判断处理。如果重写了equal,但是hashcode不同,可能会导致其hashcode不一致,从而保存到了不同的哈希桶中。
- hashcode值是32位的。
- HashMap非线程安全,Hashtable是线程安全的。HashTable的方法是通过Synchronize来实现同步的。
- HashMap非线程安全,在多线程使用场景下可以使用ConcurrentHashMap来替代HashMap。
- Hashmap是允许key和value为null值的,用containsValue和containsKey方法判断是否包含对应键值对;HashTable键值对都不能为空,否则包空指针异常。
网友评论