ConcurrentHashMap是HashMap的并发版本,提供与HashMap相似的功能。与HashMap相比,它具有如下的特点:
-
并发安全
-
直接支持一些原子复合操作
-
支持高并发,读操作完全并行,写操作支持一定程度并行
-
与同步容器Collections.synchronizedMap相比,迭代不用加锁,不会抛出ConcurrentModificationException;
-
弱一致性
在支持高并发的实现上,Jdk7采用了分段锁和读不需要锁。Jdk8进行了进一步的优化,取消了分段锁,采用了粒度更细的锁,对每个哈希表数组的每个位置都有一个单独的锁。提供了并行性。并且在hash链表冲突严重时,将单向链表转换成红黑树,加快了查找的效率。
1.数据结构
// 桶数组
transient volatile Node[] table;
// 扩容数组,只会在扩容中不会为空
private transient volatile Node[] nextTable;
// 控制扩容的变量。当为负数的时候,table正在初始化或者扩容,-1表示正在初始化,-n表示正在进行扩容的线程数。当table为null时,变量为创建table的大小或者0值。当table初始化完成,变量为下一次扩容的大小
private transient volatile int sizeCtl;
/* ---------------- Constants -------------- */
// table的最大容量。2的30次方=1073741824
private static final int MAXIMUM_CAPACITY = 1 << 30;
// table的初始默认容量。
private static final int DEFAULT_CAPACITY = 16;
// 最大的数组容量。2^31-1=2147483647
static final int MAX_ARRAY_SIZE = Integer.MAX_VALUE - 8;
// 默认的并发等级。能够同时更新ConccurentHashMap且不产生锁竞争的最大线程数,在Java8之前实际上就是ConcurrentHashMap中的分段锁个数,即Segment[]的数组长度。正确地估计很重要,当低估,数据结构将根据额外的竞争,从而导致线程试图写入当前锁定的段时阻塞;相反,如果高估了并发级别,你遇到过大的膨胀,由于段的不必要的数量; 这种膨胀可能会导致性能下降,由于高数缓存未命中。在Java8里,仅仅是为了兼容旧版本而保留。唯一的作用就是保证构造map时初始容量不小于concurrencyLevel。
private static final int DEFAULT_CONCURRENCY_LEVEL = 16;
// 进行扩容的负载因子
private static final float LOAD_FACTOR = 0.75f;
// 链表树化的阈值
static final int TREEIFY_THRESHOLD = 8;
// 树链表化的阈值
static final int UNTREEIFY_THRESHOLD = 6;
// 红黑树的最小容量。最小为4倍的TREEIFY_THRESHOLD
static final int MIN_TREEIFY_CAPACITY = 64;
/**
* Minimum number of rebinnings per transfer step. Ranges are
* subdivided to allow multiple resizer threads. This value
* serves as a lower bound to avoid resizers encountering
* excessive memory contention. The value should be at least
* DEFAULT_CAPACITY.
*/
private static final int MIN_TRANSFER_STRIDE = 16;
/**
* The number of bits used for generation stamp in sizeCtl.
* Must be at least 6 for 32bit arrays.
*/
private static int RESIZE_STAMP_BITS = 16;
static final int MOVED = -1; // hash for forwarding nodes
static final int TREEBIN = -2; // hash for roots of trees
static final int RESERVED = -3; // hash for transient reservations
static final int HASH_BITS = 0x7fffffff; // usable bits of normal node hash
// CPU的核心数
static final int NCPU = Runtime.getRuntime().availableProcessors();
2.主要方法
2.1 put方法
2.1.1 基本流程
-
计算转换之后hash(key的hashCode高16位与低16位异或,然后再根据table的长度取模)
-
遍历整个table,直到将值插入
-
若table为空,则初始化table
-
索引到的bin(桶)为null,则将其值插入
-
若发现table正在扩容,则帮组扩容
-
索引到的bin不为null,则将链表头(或者树根部)加锁。根据当前节点的类型,将值插入到对应的位置
-
若bin里面的值大于树化的阈值(TREEIFY_THRESHOLD)则需要将链表转化成红黑树
-
2.1.2 源代码
final V putVal(K key, V value, boolean onlyIfAbsent) {
if (key == null || value == null) throw new NullPointerException();
// 将key的hashcode进行一个转换
int hash = spread(key.hashCode());
int binCount = 0;
// 遍历整个table。这里是个死循环,直至插入成功
for (Node[] tab = table;;) {
// f 当前的桶;n 桶的总长度;i 桶所在的位置;fh 桶中元素的hash
Node f; int n, i, fh;
// 若表是空的,则初始化
if (tab == null || (n = tab.length) == 0)
tab = initTable();
// 若表不为空。则判断表中应该插入的位置是否为空,插入的位置通过 变换后的hash值 与 表长度取模之后求得
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
// cas操作插入该值
if (casTabAt(tab, i, null,
new Node(hash, key, value, null)))
break; // no lock when adding to empty bin
}
// 若监测到其他地方在扩容,则会协助扩容
else if ((fh = f.hash) == MOVED)
tab = helpTransfer(tab, f);
else {
V oldVal = null;
// 同步代码块,保证线程安全
synchronized (f) {
if (tabAt(tab, i) == f) {
// 若fh零,则桶中的数据结构为链表,则只需要找到插入的位置即可
if (fh >= 0) {
binCount = 1;
for (Node e = f;; ++binCount) {
K ek;
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
oldVal = e.val;
if (!onlyIfAbsent)
e.val = value;
break;
}
Node pred = e;
if ((e = e.next) == null) {
pred.next = new Node(hash, key,value, null);
break;
}
}
}
// 若为TreeBin,则fh为 -1。且判断f的类类型为TreeBin,则插入到树的结构中
else if (f instanceof TreeBin) {
Node p;
binCount = 2;
if ((p = ((TreeBin)f).putTreeVal(hash, key, value)) != null) {
oldVal = p.val;
if (!onlyIfAbsent)
p.val = value;
}
}
}
}
if (binCount != 0) {
// 若每个桶中的数量大于了树化的阈值,则需要将链表树化成红色树
if (binCount >= TREEIFY_THRESHOLD)
treeifyBin(tab, i);
if (oldVal != null)
return oldVal;
break;
}
}
}
addCount(1L, binCount);
return null;
}
2.2 get方法
2.2.1 基本流程
-
计算转换后的hash,根据hash找到对应的索引值
-
若对应的bin不为空,则根据节点的类型判断是红黑树还是链表,取得相应的元素
2.2.2 源代码
public V get(Object key) {
Node[] tab; Node e, p; int n, eh; K ek;
int h = spread(key.hashCode());
// 若table不为空,且索引所对应的bin不为空
if ((tab = table) != null && (n = tab.length) > 0 &&
(e = tabAt(tab, (n - 1) & h)) != null) {
// 头结点的hash与要找的hash相等,且提取出的key相同,则将值返回
if ((eh = e.hash) == h) {
if ((ek = e.key) == key || (ek != null && key.equals(ek)))
return e.val;
}
// bin所对应的数据结构为树(TreeBin的hash为-2)
else if (eh < 0)
return (p = e.find(h, key)) != null ? p.val : null;
// bin所对应的数据结构为链表
while ((e = e.next) != null) {
if (e.hash == h &&
((ek = e.key) == key || (ek != null && key.equals(ek))))
return e.val;
}
}
return null;
}
2.3 replaceNode方法
2.3.1 基本流程
-
计算转换之后hash(key的hashCode高16位与低16位异或,然后再根据table的长度取模)
-
遍历整个table,找到对应索引的位置
-
若table为空,或者对应索引位置不存在,则break
-
若发现table正在扩容,则帮组扩容
-
索引到的bin不为null,则将链表头(或者树根部)加锁。找到对应key的位置,然后根据新值与旧值,判断做替换或者删除操作
-
若桶中数据结构为树且操作为删除的话,当删除结束之后size过小,则需要将树转换成链表
-
2.3.2 源代码
// key;value:新值;cv:旧值
final V replaceNode(Object key, V value, Object cv) {
// 转换hash
int hash = spread(key.hashCode());
// 遍历整个table,直到替换完成
for (Node[] tab = table;;) {
Node f; int n, i, fh;
// 若这个需要替换的节点不存在,break
if (tab == null || (n = tab.length) == 0 ||
(f = tabAt(tab, i = (n - 1) & hash)) == null)
break;
// 若正在扩容,则先帮组扩容
else if ((fh = f.hash) == MOVED)
tab = helpTransfer(tab, f);
else {
V oldVal = null;
// 操作是否有效的标志
boolean validated = false;
// 加锁
synchronized (f) {
if (tabAt(tab, i) == f) {
// 链表
if (fh >= 0) {
validated = true;
for (Node e = f, pred = null;;) {
K ek;
// 找到hash相等,且key相等的位置
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
V ev = e.val;
// 若新值为空 || 新值等于旧值 || 若旧值不为空,且旧值等于找到的值
if (cv == null || cv == ev ||
(ev != null && cv.equals(ev))) {
oldVal = ev;
// 若新值不为空,则替换成新值。对应的replace方法
if (value != null)
e.val = value;
// 若新值为空,且前继节点不为空,则改变指针的指向。对应的remove方法
else if (pred != null)
pred.next = e.next;
// 若前继节点为空,当前remove的是头节点,则需要改变头,即bin
else
setTabAt(tab, i, e.next);
}
break;
}
pred = e;
if ((e = e.next) == null)
break;
}
}
// 红黑树
else if (f instanceof TreeBin) {
validated = true;
TreeBin t = (TreeBin)f;
TreeNode r, p;
// 若树的根节点不为空,且能够找到该节点
if ((r = t.root) != null &&
(p = r.findTreeNode(hash, key, null)) != null) {
V pv = p.val;
if (cv == null || cv == pv ||
(pv != null && cv.equals(pv))) {
oldVal = pv;
// 替换
if (value != null)
p.val = value;
// 删除。若返回true,则表示现在的树size很小,需要将树变成链表
else if (t.removeTreeNode(p))
setTabAt(tab, i, untreeify(t.first));
}
}
}
}
}
// 若操作有效
if (validated) {
if (oldVal != null) {
if (value == null)// 若不为空,新值为空,代表为删除操作,count需要减一
addCount(-1L, -1);
return oldVal;
}
break;
}
}
}
return null;
}
2.4 扩容方法transfer
2.4.1 基本流程
-
为每个内核均分任务,并保证其不小于16;
-
若nextTab为null,则初始化其为原table的2倍;
-
死循环遍历,直到finishing。
-
节点为空,则插入ForwardingNode;
-
链表节点(fh>=0),分别插入nextTable的i和i+n的位置;
-
TreeBin节点(fh<0),判断是否需要untreefi,分别插入nextTable的i和i+n的位置;
-
finishing时,nextTab赋给table,更新sizeCtl为新容量的0.75倍 ,完成扩容。
-
2.4.2 发生扩容的时候
-
在treeifyBin函数中,若table的长度小于最小树化长度(MIN_TREEIFY_CAPACITY)时,则先不会对链表进行树化,而是将table进行扩容
-
加入元素后,在addCount函数中,判断元素是否达到扩容的阈值。超过,则需要扩容
2.4.3 源代码
private final void transfer(Node[] tab, Node[] nextTab) {
int n = tab.length, stride;
// 为每个内核均分任务,并保证其不小于16
if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
stride = MIN_TRANSFER_STRIDE; // subdivide range
// 若nextTab为null,则初始化其为原table的2倍;
if (nextTab == null) { // initiating
try {
@SuppressWarnings("unchecked")
Node[] nt = (Node[])new Node[n << 1];
nextTab = nt;
} catch (Throwable ex) { // try to cope with OOME
sizeCtl = Integer.MAX_VALUE;
return;
}
nextTable = nextTab;
// 首先进行转移的 bin 索引位置
transferIndex = n;
}
int nextn = nextTab.length;
// 转发节点
ForwardingNode fwd = new ForwardingNode(nextTab);
boolean advance = true;
boolean finishing = false; // to ensure sweep before committing nextTab
for (int i = 0, bound = 0;;) {
Node f; int fh;
// 初始化转换的bin的index,和该线程处理的边界
while (advance) {
int nextIndex, nextBound;
if (--i >= bound || finishing)
advance = false;
else if ((nextIndex = transferIndex) <= 0) {
i = -1;
advance = false;
}
else if (U.compareAndSwapInt
(this, TRANSFERINDEX, nextIndex,
nextBound = (nextIndex > stride ?
nextIndex - stride : 0))) {
bound = nextBound;
i = nextIndex - 1;
advance = false;
}
}
// bin的索引位置超过了边界,扩容完成
if (i < 0 || i >= n || i + n >= nextn) {
int sc;
// 善后工作
if (finishing) {
nextTable = null;
table = nextTab;
sizeCtl = (n << 1) - (n >>> 1);
return;
}
if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
return;
finishing = advance = true;
i = n; // recheck before commit
}
}
// 若当前bin为空,则没有要转移的链表
else if ((f = tabAt(tab, i)) == null)
advance = casTabAt(tab, i, null, fwd);
// 若当前bin的hash为MOVED状态,说明已经处理过了
else if ((fh = f.hash) == MOVED)
advance = true; // already processed
else {
// 进行转移的处理,需要同步,加锁
synchronized (f) {
if (tabAt(tab, i) == f) {
// ln低位的头节点,hn高位的头节点
// 因为table扩容两倍,相当于增加了一位。所以在rehash的过程中,对于某个bin只需要计算增加的那一位mod之后是0,还是1.
// 若为0,则保持位置 i 不动。若为1,则需要转移到 i + (增加size)的位置上
Node ln, hn;
// 若头节点的hash大于0,说明为链表,做链表处理操作
if (fh >= 0) {
int runBit = fh & n;
Node lastRun = f;
for (Node p = f.next; p != null; p = p.next) {
int b = p.hash & n;
if (b != runBit) {
runBit = b;
lastRun = p;
}
}
// 只有地位的头节点
if (runBit == 0) {
ln = lastRun;
hn = null;
}
// 只有高位的头结点
else {
hn = lastRun;
ln = null;
}
// 将原来的单链表,转换成两个链表
for (Node p = f; p != lastRun; p = p.next) {
int ph = p.hash; K pk = p.key; V pv = p.val;
if ((ph & n) == 0)
ln = new Node(ph, pk, pv, ln);
else
hn = new Node(ph, pk, pv, hn);
}
// 将链表设置到对应的bin上
setTabAt(nextTab, i, ln);
setTabAt(nextTab, i + n, hn);
setTabAt(tab, i, fwd);
advance = true;
}
// 处理红黑树
else if (f instanceof TreeBin) {
TreeBin t = (TreeBin)f;
// lo和hi分别为bin地位和高位的链表头结点
TreeNode lo = null, loTail = null;
TreeNode hi = null, hiTail = null;
int lc = 0, hc = 0;
// 遍历整个树,将所有的节点根据mod最高位是否为1,分别加入到lo和hi的链表中
for (Node e = t.first; e != null; e = e.next) {
int h = e.hash;
TreeNode p = new TreeNode
(h, e.key, e.val, null, null);
if ((h & n) == 0) {
if ((p.prev = loTail) == null)
lo = p;
else
loTail.next = p;
loTail = p;
++lc;
}
else {
if ((p.prev = hiTail) == null)
hi = p;
else
hiTail.next = p;
hiTail = p;
++hc;
}
}
// 若链表长度小于链表化的阈值,则转换成链表,否则构成红黑树
ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
(hc != 0) ? new TreeBin(lo) : t;
hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
(lc != 0) ? new TreeBin(hi) : t;
// 分别设置到对应的tab中
setTabAt(nextTab, i, ln);
setTabAt(nextTab, i + n, hn);
setTabAt(tab, i, fwd);
advance = true;
}
}
}
}
}
}
3.5 获取元素的个数
ConcurrentHashMap 中有两个东西,一个是 baseCount 另外一个是 CounterCell。根据源码的注释可见,当没有竞争的时候 baseCount 作为了基本的计数值。并且这个值通过 CAS 来更新。那么有竞争,并且是高并发的情况下,用 CAS 更新一个变量肯定性能、效率是上不去的。这个时候 CounterCell 就登场了。高并发的计数方法类似 LongAdder 类的实现。LongAdder就是 jdk1.8 提供的一种高并发场景下的计数器,用来代替 AtomicLong & AtomicInt 的。
/**
* Base counter value, used mainly when there is no contention,
* but also as a fallback during table initialization
* races. Updated via CAS.
*/
private transient volatile long baseCount;
/**
* Spinlock (locked via CAS) used when resizing and/or creating CounterCells.
*/
private transient volatile int cellsBusy;
/**
* Table of counter cells. When non-null, size is a power of 2.
*/
private transient volatile CounterCell[] counterCells;
看一下 CounterCell 是什么样子
// @sun.misc.Contended注解来避免伪共享,原理是在使用此注解的对象或字段的前后各增加128字节大小的padding,使用2倍于大多数硬件缓存行的大小来避免相邻扇区预取导致的伪共享冲突
// 什么是伪共享: https://www.jianshu.com/p/c3c108c3dcfd
@sun.misc.Contended static final class CounterCell {
// value 就是当前 cell 里面保存的计数值
volatile long value;
CounterCell(long x) { value = x; }
}
计数的代码如下
private final void addCount(long x, int check) {
CounterCell[] as; long b, s;
// 若 counterCells 不为 null, 则使用 counterCells 计数,因为已经发生并发情况了
// 若 counterCells 为 null,CAS 更新 baseCount 失败(说明并发情况,有线程更新失败),则用 counterCells 计数
if ((as = counterCells) != null ||
!U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
CounterCell a; long v; int m;
boolean uncontended = true;
// 若 as 为 null 则需要初始化这个数组
// 若 as 不为 null,根据规则找到数组对应的 index,然后 cas 更新这个技术
// 若出现 cas 失败,则是对这个 段 有多个线程竞争,则需要循环使更新成功,这些工作在 fullAddCount 方法中执行
// 当 counterCells 变得不稳定的时候,也会进行扩容
if (as == null || (m = as.length - 1) < 0 ||
(a = as[ThreadLocalRandom.getProbe() & m]) == null ||
!(uncontended =
U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
fullAddCount(x, uncontended);
return;
}
if (check <= 1)
return;
s = sumCount();
}
if (check >= 0) {
// ...
// 里面判断是否需要扩容 hashtable
}
}
整体的思路就是不用一个变量来计数,而是通过一个数组。在高并发的情况在采用分段锁的方式来降低竞争,从而提高这个方法的效率。
但是这个方法也不能实时的反应出容器里面元素的具体个数,因为在统计的时候,可能有线程正在执行 addCount 方法。要想得出准确的值,还是得加全局的锁。
3.弱一致性
ConcurrentHashMap创建迭代器之后,在循环遍历的过程中,可能元素会发生变化。如果变化发生在已经迭代的部分中,则迭代器不会反应出来。如果变化发生在未迭代的部分,则迭代器能够反应出来
4.参考
深入分析 ConcurrentHashMap 1.8 的扩容实现
网友评论