前言:这一篇 LinkedHashMap 和 之前的一篇 HashMap 大部分都是来源简书的艺术家的相关文章,写的非常好,就拿来学习了,
发现这里的源码和 Java 8 的不一样,不知道具体是哪个版本,没有去研究,之后还会再写两篇基于 Java 8 的LinkedHashMap 和 HashMap 的 源码解析。
Start1. LinkedHashMap 使用与实现
1.1 应用场景
HashMap 是无序的,HashMap 在 put 的时候是根据 key 的 hashcode 进行 hash 然后放入对应的地方。
所以在按照一定顺序 put 进 HashMap 中,然后遍历出 HashMap 的顺序跟 put 的顺序不同(除非在 put 的时候 key 已经按照 hashcode 排序号了,这种几率非常小)。
当我们希望有顺序地去存储 key-value 时,就需要使用 LinkedHashMap 了。
1.2 继承
public class LinkedHashMap<K,V>
extends HashMap<K,V>
implements Map<K,V>
{
LinkedHashMap 继承了 HashMap,所以它们有很多相似的地方。
1.3 构造方法
LinkedHashMap 构造方法LinkedHashMap 提供了五个构造方法,我们先看空参的构造方法。
/**
* Constructs an empty insertion-ordered <tt>LinkedHashMap</tt> instance
* with the default initial capacity (16) and load factor (0.75).
*/
public LinkedHashMap() {
// 调用 HashMap 的构造方法,其实就是初始化 Entry[] table
super();
// 这里是指是否基于访问排序,默认为 false 为插入顺序
accessOrder = false;
}
首先使用 super 调用了父类 HashMap 的构造方法,其实就是根据初始容量、负载因子去初始化 Entry[] table。
然后把 accessOrder 设置为 false,这就跟存储的顺序有关了,LinkedHashMap 存储数据是有序的,而且分为两种:插入顺序和访问顺序。
这里 accessOrder 设置为 false,表示不是访问顺序而是插入顺序存储的,这也是默认值,表示 LinkedHashMap 中存储的顺序是按照调用 put 方法插入的顺序进行排序的。
LinkedHashMap 也提供了可以设置 accessOrder 的构造方法,我们来看看这种模式下,它的顺序有什么特点?
LinkedHashMap<Object, Object> linkedHashMap = new LinkedHashMap<>(128, (float) 0.75, true);
linkedHashMap.put("key1", "value");
linkedHashMap.put("key2", "value");
linkedHashMap.put("key3", "value");
Set<Map.Entry<Object, Object>> entrySet = linkedHashMap.entrySet();
Iterator<Map.Entry<Object, Object>> iterator = entrySet.iterator();
while (iterator.hasNext()) {
Map.Entry<Object, Object> next = iterator.next();
Log.d("JunL", "key = " + next.getKey() + " --- value = " + next.getValue());
}
Object key1 = linkedHashMap.get("key1");
Set<Map.Entry<Object, Object>> entrySet2 = linkedHashMap.entrySet();
Iterator<Map.Entry<Object, Object>> iterator2 = entrySet2.iterator();
while (iterator2.hasNext()) {
Map.Entry<Object, Object> next = iterator2.next();
Log.d("JunL", "key = " + next.getKey() + " --- value = " + next.getValue());
}
运行结果
因为调用了 get("name1") 导致了 name1 对应的 Entry 移动到了最后。
再来看一下 LinkedHashMap 的 init 方法:
/**
* Called by superclass constructors and pseudoconstructors (clone,
* readObject) before any entries are inserted into the map. Initializes
* the chain.
*/
@Override
void init() {
// 创建了一个 hash = -1,key、value、next 都为 null 的 Entry
header = new Entry<>(-1, null, null, null);
// 让创建的 Entry 的 before 和 afte r都指向自身,注意 after 不是之前提到的 next
// 其实就是创建了一个只有头部节点的双向链表
header.before = header.after = header;
}
这好像跟 HashMap 提到的 Entry 有些不一样,HashMap 中静态内部类 Entry 是这样定义的:
static class Entry<K,V> implements Map.Entry<K,V> {
final K key;
V value;
Entry<K,V> next;
int hash;
LinkedHashMap 有自己的静态内部类 Entry,它继承了 HashMap.Entry,定义如下:
/**
* HashMap.Node subclass for normal LinkedHashMap entries.
*/
static class Entry<K,V> extends HashMap.Node<K,V> {
Entry<K,V> before, after;
Entry(int hash, K key, V value, Node<K,V> next) {
super(hash, key, value, next);
}
}
所以 LinkedHashMap 构造函数,主要就是调用 HashMap 构造函数初始化了一个 Entry[] table,然后调用自身的 init 初始化了一个只有头结点的双向链表。完成了如下操作:
LinkedHashMap 构造函数1.4 put 方法
LinkedHashMap 没有重写 put 方法,所以还是调用 HashMap 得到 put 方法,如下:
public V put(K key, V value) {
// 对key为null的处理
if (key == null)
return putForNullKey(value);
// 计算hash
int hash = hash(key);
// 得到在table中的index
int i = indexFor(hash, table.length);
// 遍历table[index],是否key已经存在,存在则替换,并返回旧值
for (Entry<K,V> e = table[i]; e != null; e = e.next) {
Object k;
if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
V oldValue = e.value;
e.value = value;
e.recordAccess(this);
return oldValue;
}
}
modCount++;
// 如果key之前在table中不存在,则调用addEntry,LinkedHashMap重写了该方法
addEntry(hash, key, value, i);
return null;
}
LinkedHashMap的addEntry方法:
void addEntry(int hash, K key, V value, int bucketIndex) {
// 调用父类的 addEntry,增加一个 Entry 到 HashMap 中
super.addEntry(hash, key, value, bucketIndex);
// removeEldestEntry 方法默认返回 false,不用考虑
Entry<K,V> eldest = header.after;
if (removeEldestEntry(eldest)) {
removeEntryForKey(eldest.key);
}
}
这里调用了父类 HashMap 的 addEntry 方法,如下:
void addEntry(int hash, K key, V value, int bucketIndex) {
// 扩容相关
if ((size >= threshold) && (null != table[bucketIndex])) {
resize(2 * table.length);
hash = (null != key) ? hash(key) : 0;
bucketIndex = indexFor(hash, table.length);
}
// LinkedHashMap 进行了重写
createEntry(hash, key, value, bucketIndex);
}
这里主要看createEntry方法,LinkedHashMap进行了重写。
void createEntry(int hash, K key, V value, int bucketIndex) {
HashMap.Entry<K,V> old = table[bucketIndex];
// e就是新创建了Entry,会加入到table[bucketIndex]的表头
Entry<K,V> e = new Entry<>(hash, key, value, old);
table[bucketIndex] = e;
// 把新创建的Entry,加入到双向链表中
e.addBefore(header);
size++;
}
我们来看看 LinkedHashMap.Entry 的 addBefore 方法:
private void addBefore(Entry<K,V> existingEntry) {
after = existingEntry;
before = existingEntry.before;
before.after = this;
after.before = this;
}
从这里就可以看出,当 put 元素时,不但要把它加入到 HashMap 中去,还要加入到双向链表中,所以可以看出 LinkedHashMap 就是 HashMap+ 双向链表,下面用图来表示逐步往 LinkedHashMap 中添加数据的过程,红色部分是双向链表,黑色部分是 HashMap 结构,header 是一个 Entry 类型的双向链表表头,本身不存储数据。
首先是只加入一个元素 Entry1,假设 index 为 0:
LinkedHashMap 结构一个元素当再加入一个元素 Entry2,假设 index 为 15:
LinkedHashMap 结构两个元素当再加入一个元素 Entry3, 假设 index 也是 0:
LinkedHashMap 结构三个元素以上,就是 LinkedHashMap 的 put 的所有过程了,总体来看,跟 HashMap 的 put 类似,只不过多了把新增的 Entry 加入到双向列表中。
1.5 扩容
在 HashMap 的 put 方法中,如果发现前元素个数超过了扩容阀值时,会调用 resize 方法,如下:
void resize(int newCapacity) {
Entry[] oldTable = table;
int oldCapacity = oldTable.length;
if (oldCapacity == MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return;
}
Entry[] newTable = new Entry[newCapacity];
boolean oldAltHashing = useAltHashing;
useAltHashing |= sun.misc.VM.isBooted() &&
(newCapacity >= Holder.ALTERNATIVE_HASHING_THRESHOLD);
boolean rehash = oldAltHashing ^ useAltHashing;
// 把旧table的数据迁移到新table
transfer(newTable, rehash);
table = newTable;
threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1);
}
LinkedHashMap 重写了 transfer 方法,数据的迁移,它的实现如下:
void transfer(HashMap.Entry[] newTable, boolean rehash) {
// 扩容后的容量是之前的2倍
int newCapacity = newTable.length;
// 遍历双向链表,把所有双向链表中的Entry,重新就算hash,并加入到新的table中
for (Entry<K,V> e = header.after; e != header; e = e.after) {
if (rehash)
e.hash = (e.key == null) ? 0 : hash(e.key);
int index = indexFor(e.hash, newCapacity);
e.next = newTable[index];
newTable[index] = e;
}
}
可以看出,LinkedHashMap 扩容时,数据的再散列和 HashMap 是不一样的。
HashMap 是先遍历旧 table,再遍历旧 table 中每个元素的单向链表,取得 Entry 以后,重新计算 hash 值,然后存放到新 table 的对应位置。
LinkedHashMap 是遍历的双向链表,取得每一个 Entry,然后重新计算 hash 值,然后存放到新 table 的对应位置。
从遍历的效率来说,遍历双向链表的效率要高于遍历 table,因为遍历双向链表是 N 次(N为元素个数);而遍历 table 是 N + table 的空余个数(N为元素个数)。
1.6 双向链表的重排序
前面分析的,主要是当前 LinkedHashMap 中不存在当前 key 时,新增 Entry 的情况。当 key 如果已经存在时,则进行更新 Entry 的 value。就是 HashMap 的 put 方法中的如下代码:
for (Entry<K,V> e = table[i]; e != null; e = e.next) {
Object k;
if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
V oldValue = e.value;
e.value = value;
// 重排序
e.recordAccess(this);
return oldValue;
}
}
主要看 e.recordAccess(this),这个方法跟访问顺序有关,而 HashMap 是无序的,所以在 HashMap.Entry 的 recordAccess 方法是空实现,但是 LinkedHashMap 是有序的,LinkedHashMap.Entry 对 recordAccess 方法进行了重写。
void recordAccess(HashMap<K,V> m) {
LinkedHashMap<K,V> lm = (LinkedHashMap<K,V>)m;
// 如果LinkedHashMap的accessOrder为true,则进行重排序
// 比如前面提到LruCache中使用到的LinkedHashMap的accessOrder属性就为true
if (lm.accessOrder) {
lm.modCount++;
// 把更新的Entry从双向链表中移除
remove();
// 再把更新的Entry加入到双向链表的表尾
addBefore(lm.header);
}
}
在 LinkedHashMap 中,只有 accessOrder
为 true,即是访问顺序模式,才会 put 时对更新的 Entry 进行重新排序,而如果是插入顺序模式时,不会重新排序,这里的排序跟在 HashMap 中存储没有关系,只是指在双向链表中的顺序。
举个栗子:开始时,HashMap 中有 Entry1、Entry2、Entry3,并设置 LinkedHashMap 为访问顺序,则更新 Entry1 时,会先把 Entry1 从双向链表中删除,然后再把 Entry1 加入到双向链表的表尾,而 Entry1 在 HashMap 结构中的存储位置没有变化,对比图如下所示:
LinkedHashMap 重排序可以看到,header 的 after 指向了 Entry 2,before 指向的 Entry 1;
1.7 get 方法
LinkedHashMap 有对 get 方法进行了重写,如下:
public V get(Object key) {
// 调用 getEntry 得到 Entry
Entry<K,V> e = (Entry<K,V>)getEntry(key);
if (e == null)
return null;
// 如果 LinkedHashMap 是访问顺序的,则 get 时,也需要重新排序
e.recordAccess(this);
return e.value;
}
先是调用了 getEntry 方法,通过 key 得到 Entry,而LinkedHashMap 并没有重写 getEntry 方法,所以调用的是 HashMap的 getEntry 方法。
在分析过 HashMap 的 getEntry 方法:首先通过 key 算出 hash 值,然后根据 hash 值算出在 table 中存储的 index,然后遍历 table[index] 的单向链表去对比 key,如果找到了就返回 Entry。
后面调用了 LinkedHashMap.Entry 的 recordAccess 方法,上面分析过 put 过程中这个方法,其实就是在访问顺序的 LinkedHashMap 进行了 get 操作以后,重新排序,把 get 的 Entry 移动到双向链表的表尾。
1.8 遍历方式取数据
我们先来看看HashMap使用遍历方式取数据的过程:
HashMap遍历很明显,这样取出来的 Entry 顺序肯定跟插入顺序不同了,既然 LinkedHashMap 是有序的,那么它是怎么实现的呢?
先看看 LinkedHashMap 取遍历方式获取数据的代码:
Map<String, String> linkedHashMap = new LinkedHashMap<>();
linkedHashMap.put("name1", "josan1");
linkedHashMap.put("name2", "josan2");
linkedHashMap.put("name3", "josan3");
// LinkedHashMap没有重写该方法,调用的HashMap中的entrySet方法
Set<Entry<String, String>> set = linkedHashMap.entrySet();
Iterator<Entry<String, String>> iterator = set.iterator();
while(iterator.hasNext()) {
Entry entry = iterator.next();
String key = (String) entry.getKey();
String value = (String) entry.getValue();
System.out.println("key:" + key + ",value:" + value);
}
LinkedHashMap 没有重写 entrySet 方法,我们先来看 HashMap 中的 entrySet,如下:
public Set<Map.Entry<K,V>> entrySet() {
return entrySet0();
}
private Set<Map.Entry<K,V>> entrySet0() {
Set<Map.Entry<K,V>> es = entrySet;
return es != null ? es : (entrySet = new EntrySet());
}
private final class EntrySet extends AbstractSet<Map.Entry<K,V>> {
public Iterator<Map.Entry<K,V>> iterator() {
return newEntryIterator();
}
// 无关代码
......
}
可以看到,HashMap 的 entrySet 方法,其实就是返回了一个 EntrySet 对象。
我们得到 EntrySet 会调用它的 iterator 方法去得到迭代器 Iterator,从上面的代码也可以看到,iterator 方法中直接调用了* newEntryIterator 方法并返回,而 LinkedHashMap 重写了该方法
Iterator<Map.Entry<K,V>> newEntryIterator() {
return new EntryIterator();
}
这里直接返回了 EntryIterator 对象,这个和 HashMap 中的 newEntryIterator 方法中一模一样,都是返回了 EntryIterator 对象,其实他们返回的是各自的内部类。我们来看看 LinkedHashMap 中 EntryIterator 的定义:
private class EntryIterator extends LinkedHashIterator<Map.Entry<K,V>> {
public Map.Entry<K,V> next() {
return nextEntry();
}
}
该类是继承 LinkedHashIterator,并重写了 next 方法;而 HashMap 中是继承 HashIterator。
我们再来看看 LinkedHashIterator 的定义:
private abstract class LinkedHashIterator<T> implements Iterator<T> {
// 默认下一个返回的Entry为双向链表表头的下一个元素
Entry<K,V> nextEntry = header.after;
Entry<K,V> lastReturned = null;
public boolean hasNext() {
return nextEntry != header;
}
Entry<K,V> nextEntry() {
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
if (nextEntry == header)
throw new NoSuchElementException();
Entry<K,V> e = lastReturned = nextEntry;
nextEntry = e.after;
return e;
}
// 不相关代码
......
}
我们先不看整个类的实现,只要知道在 LinkedHashMap 中,
Iterator<Entry<String, String>> iterator = set.iterator();
这段代码会返回一个继承 LinkedHashIterator 的 Iterator,它有着跟 HashIterator 不一样的遍历规则。
接着,我们会用 while(iterator.hasNext()) 去循环判断是否有下一个元素,LinkedHashMap 中的 EntryIterator 没有重写该方法,所以还是调用 LinkedHashIterator 中的 hasNext 方法,如下:
public boolean hasNext() {
// 下一个应该返回的Entry是否就是双向链表的头结点
// 有两种情况:1.LinkedHashMap中没有元素;2.遍历完双向链表回到头部
return nextEntry != header;
}
nextEntry 表示下一个应该返回的 Entry,默认值是 header.after,即双向链表表头的下一个元素。
而上面介绍到,LinkedHashMap 在初始化时,会调用 init 方法去初始化一个 before
和 after
都指向自身的 Entry,但是 put 过程会把新增加的 Entry 加入到双向链表的表尾,所以只要 LinkedHashMap 中有元素,第一次调用 hasNext 肯定不会为 false。
然后我们会调用 next 方法去取出 Entry,LinkedHashMap 中的 EntryIterator 重写了该方法,如下:
public Map.Entry<K,V> next() {
return nextEntry();
}
而它自身又没有重写 nextEntry 方法,所以还是调用的 LinkedHashIterator 中的 nextEntry 方法:
Entry<K,V> nextEntry() {
// 保存应该返回的 Entry
Entry<K,V> e = lastReturned = nextEntry;
//把当前应该返回的 Entry 的 after 作为下一个应该返回的 Entry
nextEntry = e.after;
// 返回当前应该返回的 Entry
return e;
}
这里其实遍历的是双向链表,所以不会存在 HashMap 中需要寻找下一条单向链表的情况,从头结点 Entry header 的下一个节点开始,只要把当前返回的 Entry 的 after 作为下一个应该返回的节点即可。
直到到达双向链表的尾部时,after 为双向链表的表头节点 Entry header,这时候 hasNext 就会返回 false,表示没有下一个元素了。LinkedHashMap 的遍历取值如下图所示:
遍历出来的结果为 Entry1、Entry2...Entry6。
可得,LinkedHashMap 是有序的,且是通过双向链表来保证顺序的。
1.9 remove方法
LinkedHashMap 没有提供 remove 方法,所以调用的是 HashMap 的 remove 方法,实现如下:
public V remove(Object key) {
Entry<K,V> e = removeEntryForKey(key);
return (e == null ? null : e.value);
}
final Entry<K,V> removeEntryForKey(Object key) {
int hash = (key == null) ? 0 : hash(key);
int i = indexFor(hash, table.length);
Entry<K,V> prev = table[I];
Entry<K,V> e = prev;
while (e != null) {
Entry<K,V> next = e.next;
Object k;
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k)))) {
modCount++;
size--;
if (prev == e)
table[i] = next;
else
prev.next = next;
// LinkedHashMap.Entry重写了该方法
e.recordRemoval(this);
return e;
}
prev = e;
e = next;
}
return e;
}
在 HashMap 中就分析了 remove 过程,其实就是断开其他对象对自己的引用。
比如被删除 Entry 是在单向链表的表头,则让它的 next 放到表头,这样它就没有被引用了;如果不是在表头,它是被别的 Entry 的 next 引用着,这时候就让上一个 Entry 的 next 指向它自己的 next,这样,它也就没被引用了。
在 HashMap.Entry 中 recordRemoval 方法是空实现,但是 LinkedHashMap.Entry 对其进行了重写,如下:
void recordRemoval(HashMap<K,V> m) {
remove();
}
private void remove() {
before.after = after;
after.before = before;
}
易知,这是要把双向链表中的 Entry 删除,也就是要断开当前要被删除的 Entry 被其他对象通过 after 和 before 的方式引用。
所以,LinkedHashMap 的 remove 操作。首先把它从 table 中删除,即断开 table 或者其他对象通过 next 对其引用,然后也要把它从双向链表中删除,断开其他对应通过 after 和 before 对其引用。
2. HashMap 与 LinkedHashMap 的结构对比
HashMap 结构 LinkedHashMap 结构3. LinkedHashMap 在 Android 中的应用
在 Android 中使用图片时,一般会用 LruCacha 做图片的内存缓存,它里面就是使用 LinkedHashMap 来实现存储的。
public class LruCache<K, V> {
private final LinkedHashMap<K, V> map;
public LruCache(int maxSize) {
if (maxSize <= 0) {
throw new IllegalArgumentException("maxSize <= 0");
}
this.maxSize = maxSize;
// 注意第三个参数,是accessOrder,这里为true,后面会讲到
this.map = new LinkedHashMap<K, V>(0, 0.75f, true);
}
前面提到了,accessOrder 为 true,表示 LinkedHashMap 为访问顺序,当对已存在 LinkedHashMap 中的 Entry 进行 get 和 put 操作时,会把 Entry 移动到双向链表的表尾(其实是先删除,再插入)。
我们拿 LruCache 的 put 方法举例:
public final V put(K key, V value) {
if (key == null || value == null) {
throw new NullPointerException("key == null || value == null");
}
V previous;
// 对map进行操作之前,先进行同步操作
synchronized (this) {
putCount++;
size += safeSizeOf(key, value);
previous = map.put(key, value);
if (previous != null) {
size -= safeSizeOf(key, previous);
}
}
if (previous != null) {
entryRemoved(false, key, previous, value);
}
// 整理内存,看是否需要移除LinkedHashMap中的元素
trimToSize(maxSize);
return previous;
}
之前提到了,HashMap 是线程不安全的,LinkedHashMap 同样是线程不安全的。所以在对调用 LinkedHashMap 的 put 方法时,先使用 synchronized
进行了同步操作。
我们最关心的是倒数第一行代码,其中 maxSize
为我们给 LruCache 设置的最大缓存大小。我们看看该方法:
/**
* Remove the eldest entries until the total of remaining entries is at or
* below the requested size.
*
* @param maxSize the maximum size of the cache before returning. May be -1
* to evict even 0-sized elements.
*/
public void trimToSize(int maxSize) {
// while死循环,直到满足当前缓存大小小于或等于最大可缓存大小
while (true) {
K key;
V value;
// 线程不安全,需要同步
synchronized (this) {
if (size < 0 || (map.isEmpty() && size != 0)) {
throw new IllegalStateException(getClass().getName()
+ ".sizeOf() is reporting inconsistent results!");
}
// 如果当前缓存的大小,已经小于等于最大可缓存大小,则直接返回
// 不需要再移除LinkedHashMap中的数据
if (size <= maxSize || map.isEmpty()) {
break;
}
// 得到的就是双向链表表头header的下一个Entry
Map.Entry<K, V> toEvict = map.entrySet().iterator().next();
key = toEvict.getKey();
value = toEvict.getValue();
// 移除当前取出的Entry
map.remove(key);
// 从新计算当前的缓存大小
size -= safeSizeOf(key, value);
evictionCount++;
}
entryRemoved(true, key, value, null);
}
}
从注释上就可以看出,该方法就是不断移除 LinkedHashMap 中双向链表表头的元素,直到当前缓存大小小于或等于最大可缓存的大小。
由前面的重排序我们知道,对 LinkedHashMap 的 put 和 get 操作,都会让被操作的 Entry 移动到双向链表的表尾,而移除是从 map.entrySet().iterator().next() 开始的,也就是双向链表的表头的 header 的 after 开始的,这也就符合了 LRU 算法的需求。
下图表示了 LinkedHashMap 中删除、添加、get/put 已存在的 Entry操作。
- 红色表示初始状态
- 紫色表示缓存图片大小超过了最大可缓存大小时,才能够表头移除 Entry1
- 蓝色表示对已存在的 Entry3 进行了 get/put 操作,把它移动到双向链表表尾
- 绿色表示新增一个 Entry7,插入到双向链表的表尾(暂时不考虑在 HashMap 中的位置)
4 总结
- LinkedHashMap 是继承于 HashMap,是基于 HashMap 和双向链表来实现的。
- HashMap 无序;LinkedHashMap 有序,可分为插入顺序和访问顺序两种。如果是访问顺序,那 put 和 get 操作已存在的 Entry 时,都会把 Entry 移动到双向链表的表尾(其实是先删除再插入)。
- LinkedHashMap 存取数据,还是跟 HashMap 一样使用的 Entry[] 的方式,双向链表只是为了保证顺序。
- LinkedHashMap 是线程不安全的。
(参考链接](https://www.jianshu.com/p/8f4f58b4b8ab)
PS:开始和结束的图片来源网络,侵删
网友评论