HashMap概述
-
HashMap 是基于哈希表的 Map 接口的非同步实现,非线程安全。此实现提供所有可选的映射操作,并允许使用 null 值和 null 键。此类不保证映射的顺序,特别是它不保证该顺序恒久不变
-
特点:基于Map接口实现、允许null键/值、非同步、不保证有序(比如插入的顺序)、也不保证序不随时间变化
put方法
put函数大致思路:
- 对key进行hash方法计算得到hash值,hash&(n-1)得到bucket的index
- 没有碰撞就直接初始化Node存在对应的bucket中
- 如果碰撞了,碰撞的bucket当前为链表的话,使用尾插法插入链表中,插入后导致链表长度(>=TREEIFY_THRESHOLD),就把链表转化为红黑树
- 如果碰撞了并且当前bucket为红黑树的话,直接插入
- 如果节点已经存在了,就替换old value(由onlyIfAbsent参数决定)
- 如果bucket满了(超过load factor*current capacity)resize
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
get方法
get方法相对于put方法而言,比较简单,主要思路如下:
- 根据key计算相关的hash值,(n-1)& hash得到bucket的index,不存在就返回null
- 存在对应的bucket,先判断第一个节点是否与key equals(这里总是先check第一个node原因是当前bucket有可能是链表或者红黑树结构,只有第一个node判断方式一致)
- 当第一个nod不equals时,根据当前节点是tree结构还是list结构进行相应的判断操作
- 若为树,则在树中通过key.equals(k)查找,O(logn);
- 若为链表,则在链表中通过key.equals(k)查找,O(n)。
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
hash 方法比较
jdk7
//h == key.hashCode()
static int hash(int h) {
h ^= (h >>> 20) ^ (h >>> 12);
return h ^ (h >>> 7) ^ (h >>> 4);
}
jdk8
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
在Java8的实现中,是通过hashCode()的高16位异或低16位实现的:(h = k.hashCode()) ^ (h >>> 16),主要是从速度、功效、质量来考虑的,这么做可以在bucket的n比较小的时候,也能保证考虑到高低bit都参与到hash的计算中,同时不会有太大的开销。相对于java7,在n比较小的时候,碰撞概率小一点
hash 计算方式
hash.pngWechatIMG25763.png
resize
当执行put时,bucket占用程度已经超过了Load Factor的比例,就会发生resize,在resize的过程中,把当前bucket个数扩充为两倍,重新计算index。再把节点放到新的bucket中。因为扩充到原来的两倍,所以只是在n上多了一位bit为1的位数,原来的hash&(n-1) 的值,如果在新扩充的那一位为1的话,就分配到原索引+oldCap
,为0的话,位置不变。
hashMap resize.png
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
相关方法
Returns a power of two size for the given target capacity.(返回大于cap数值的最小的2指数次幂结果)
eg: cap = 10 return 16
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
Float.isNaN(loadFactor)
float f = 0.0f;
float d = 0.0f;
System.out.println(Float.isNaN(f / d));//true
System.out.println(f / d);//NaN
System.out.println(f / d != f / d);//true
JDK中float和double有一个方法isNan,该方法用于描述非法的float,经过多次运算float值可能会出现非法情况,如除数为0.0
在Float中NaN实际上是引用类型,而不是值类型,每一个NaN都是不同的对象。
线程不安全
1、在多线程的环境下,进行put()的时候会导致多线程的数据不一致。
例如有A、B两个线程,首先假设A获得CPU的执行权,A开始向HashMap中添加数据,先计算key的hash值,计算元素落到桶的索引坐标,然后获取到了桶里面的链表头结点,此时线程A的时间片用完了,线程B获得了cpu的执行权,线程B和线程A一样执行操作,只不过B成功的将元素添加到HashMap中了,此时线程A获得cpu执行权,假设A线程要插入的元素计算得到在桶中的索引和线程B插入元素的索引一样,线程B插入成功之后,线程A执行,此时线程A插入的数据会覆盖掉线程B插入的数据,这样线程B插入的记录就会凭空消失,造成了数据不一致。
2、在多线程的环境下,执行get()元素的时候可能会因为扩容引起死循环
HashMap是采用链表解决Hash冲突,因为是链表结构,那么就容易形成闭合链路,这样在循环的时候只要有线程对这个HashMap进行get操作就会产生死循环。在单线程的情况下,只有一个线程对HashMap数据结构进行操作,是不可能产生闭合回路的,当put的时候,如果size>initialCapacity*loadFactor,那么这时候HashMap就会进行rehash操作,随之HashMap的结构就会发生翻天覆地的变化。很有可能两个线程就是在这个时候同时出发rehash操作,产生了闭合回路。
总结
-
equals()和hashCode()都有的作用:
HashMap中主要使用hashCode计算定位bucket,equals进一步判断数据相等。重写equals必须重写hashCode。只重写equals而不重写hashcode,那么hashcode方法就是Object默认的hashcode方法,由于默认的hashcode方法是根据对象的内存地址经哈希算法得来的。导致属性相同的对象hashCode不同。重写hashCode可以不用重写equals。
网友评论