YYMemoryCache是内存缓存,所以存取速度非常快,主要用到两种数据结构的LRU淘汰算法
1.LRU
Cache的容量是有限的,当Cache的空间都被占满后,如果再次发生缓存失效,就必须选择一个缓存块来替换掉.LRU法是依据各块使用的情况, 总是选择那个最长时间未被使用的块替换。这种方法比较好地反映了程序局部性规律
2.LRU主要采用两种数据结构实现
- 双向链表(Doubly Linked List)
- 哈希表(Dictionary)
3.对一个Cache的操作无非三种:插入、替换、查找
- 插入:当Cache未满时,新的数据项只需插到双链表头部即可
- 替换:当Cache已满时,将新的数据项插到双链表头部,并删除双链表的尾结点即可
- 查找:每次数据项被查询到时,都将此数据项移动到链表头部
4.分析图(分析源码时可以对照该图)
2.png5.YYMemoryCache.m里的两个分类
链表节点_YYLinkedMapNode
:
@interface _YYLinkedMapNode : NSObject {
@package
// 指向前一个节点
__unsafe_unretained _YYLinkedMapNode *_prev; // retained by dic
// 指向后一个节点
__unsafe_unretained _YYLinkedMapNode *_next; // retained by dic
// 缓存key
id _key;
// 缓存对象
id _value;
// 当前缓存内存开销
NSUInteger _cost;
// 缓存时间
NSTimeInterval _time;
}
@end
链表_YYLinkedMap
:
@interface _YYLinkedMap : NSObject {
@package
// 用字典保存所有节点_YYLinkedMapNode (为什么不用oc字典?因为用CFMutableDictionaryRef效率高,毕竟基于c)
CFMutableDictionaryRef _dic;
// 总缓存开销
NSUInteger _totalCost;
// 总缓存数量
NSUInteger _totalCount;
// 链表头节点
_YYLinkedMapNode *_head;
// 链表尾节点
_YYLinkedMapNode *_tail;
// 是否在主线程上,异步释放 _YYLinkedMapNode对象
BOOL _releaseOnMainThread;
// 是否异步释放 _YYLinkedMapNode对象
BOOL _releaseAsynchronously;
}
// 添加节点到链表头节点
- (void)insertNodeAtHead:(_YYLinkedMapNode *)node;
// 移动当前节点到链表头节点
- (void)bringNodeToHead:(_YYLinkedMapNode *)node;
// 移除链表节点
- (void)removeNode:(_YYLinkedMapNode *)node;
// 移除链表尾节点(如果存在)
- (_YYLinkedMapNode *)removeTailNode;
// 移除所有缓存
- (void)removeAll;
@end
方法插入、替换、查找方法实现:
// 添加节点到链表头节点
- (void)insertNodeAtHead:(_YYLinkedMapNode *)node {
// 字典保存链表节点node
CFDictionarySetValue(_dic, (__bridge const void *)(node->_key), (__bridge const void *)(node));
// 叠加该缓存开销到总内存开销
_totalCost += node->_cost;
// 总缓存数+1
_totalCount++;
if (_head) {
// 存在链表头,取代当前表头
node->_next = _head;
_head->_prev = node;
// 重新赋值链表表头临时变量_head
_head = node;
} else {
// 不存在链表头
_head = _tail = node;
}
}
存在表头情况图形分析(其他情况不用图分析,自己想象吧,呵呵)
3.png// 移动当前节点到链表头节点
- (void)bringNodeToHead:(_YYLinkedMapNode *)node {
// 当前节点已是链表头节点
if (_head == node) return;
if (_tail == node) {
//**如果node是链表尾节点**
// 把node指向的上一个节点赋值给链表尾节点
_tail = node->_prev;
// 把链表尾节点指向的下一个节点赋值nil
_tail->_next = nil;
} else {
//**如果node是非链表尾节点和链表头节点**
// 把node指向的上一个节点赋值給node指向的下一个节点node指向的上一个节点
node->_next->_prev = node->_prev;
// 把node指向的下一个节点赋值给node指向的上一个节点node指向的下一个节点
node->_prev->_next = node->_next;
}
// 把链表头节点赋值给node指向的下一个节点
node->_next = _head;
// 把node指向的上一个节点赋值nil
node->_prev = nil;
// 把节点赋值给链表头节点的指向的上一个节点
_head->_prev = node;
_head = node;
}
如果node是非链表尾节点和链表头节点情况图形分析
4.png// 移除节点
- (void)removeNode:(_YYLinkedMapNode *)node {
// 从字典中移除node
CFDictionaryRemoveValue(_dic, (__bridge const void *)(node->_key));
// 减掉总内存消耗
_totalCost -= node->_cost;
// // 总缓存数-1
_totalCount--;
// 重新连接链表(看图分析吧)
if (node->_next) node->_next->_prev = node->_prev;
if (node->_prev) node->_prev->_next = node->_next;
if (_head == node) _head = node->_next;
if (_tail == node) _tail = node->_prev;
}
// 移除尾节点(如果存在)
- (_YYLinkedMapNode *)removeTailNode {
if (!_tail) return nil;
// 拷贝一份要删除的尾节点指针
_YYLinkedMapNode *tail = _tail;
// 移除链表尾节点
CFDictionaryRemoveValue(_dic, (__bridge const void *)(_tail->_key));
// 减掉总内存消耗
_totalCost -= _tail->_cost;
// 总缓存数-1
_totalCount--;
if (_head == _tail) {
// 清除节点,链表上已无节点了
_head = _tail = nil;
} else {
// 设倒数第二个节点为链表尾节点
_tail = _tail->_prev;
_tail->_next = nil;
}
// 返回完tail后_tail将会释放
return tail;
}
// 移除所有缓存
- (void)removeAll {
// 清空内存开销与缓存数量
_totalCost = 0;
_totalCount = 0;
// 清空头尾节点
_head = nil;
_tail = nil;
if (CFDictionaryGetCount(_dic) > 0) {
// 拷贝一份字典
CFMutableDictionaryRef holder = _dic;
// 重新分配新的空间
_dic = CFDictionaryCreateMutable(CFAllocatorGetDefault(), 0, &kCFTypeDictionaryKeyCallBacks, &kCFTypeDictionaryValueCallBacks);
if (_releaseAsynchronously) {
// 异步释放缓存
dispatch_queue_t queue = _releaseOnMainThread ? dispatch_get_main_queue() : YYMemoryCacheGetReleaseQueue();
dispatch_async(queue, ^{
CFRelease(holder); // hold and release in specified queue
});
} else if (_releaseOnMainThread && !pthread_main_np()) {
// 主线程上释放缓存
dispatch_async(dispatch_get_main_queue(), ^{
CFRelease(holder); // hold and release in specified queue
});
} else {
// 同步释放缓存
CFRelease(holder);
}
}
}
YYMemoryCache.m实现分析(如果上面弄清楚,接下来就简单多了),增删改都是调用上面的方法,下面分析查找与添加缓存方法实现
// 查找缓存
- (id)objectForKey:(id)key {
if (!key) return nil;
// 加锁,防止资源竞争
// OSSpinLock 自旋锁,性能最高的锁。原理很简单,就是一直 do while 忙等。它的缺点是当等待时会消耗大量 CPU 资源,所以它不适用于较长时间的任务。对于内存缓存的存取来说,它非常合适。
// 当pthread_mutex_lock()返回时,该互斥锁已被锁定。
//线程调用该函数让互斥锁上锁,如果该互斥锁已被另一个线程锁定和拥有,则调用该线程将阻塞,直到该互斥锁变为可用为止。
pthread_mutex_lock(&_lock);
// _lru为链表_YYLinkedMap,全部节点存在_lru->_dic中
// 获取节点
_YYLinkedMapNode *node = CFDictionaryGetValue(_lru->_dic, (__bridge const void *)(key));
if (node) {
//** 有对应缓存 **
// 重新更新缓存时间
node->_time = CACurrentMediaTime();
// 把当前node移到链表表头(为什么移到表头?根据LRU淘汰算法:Cache的容量是有限的,当Cache的空间都被占满后,如果再次发生缓存失效,就必须选择一个缓存块来替换掉.LRU法是依据各块使用的情况, 总是选择那个最长时间未被使用的块替换。这种方法比较好地反映了程序局部性规律)
[_lru bringNodeToHead:node];
}
// 解锁
pthread_mutex_unlock(&_lock);
// 有缓存则返回缓存值
return node ? node->_value : nil;
}
// 添加缓存
- (void)setObject:(id)object forKey:(id)key withCost:(NSUInteger)cost {
if (!key) return;
if (!object) {
// ** 缓存对象为空,移除缓存 **
[self removeObjectForKey:key];
return;
}
// 加锁
pthread_mutex_lock(&_lock);
// 查找缓存
_YYLinkedMapNode *node = CFDictionaryGetValue(_lru->_dic, (__bridge const void *)(key));
// 当前时间
NSTimeInterval now = CACurrentMediaTime();
if (node) {
//** 之前有缓存,更新旧缓存 **
// 更新值
_lru->_totalCost -= node->_cost;
_lru->_totalCost += cost;
node->_cost = cost;
node->_time = now;
node->_value = object;
// 移动节点到链表表头
[_lru bringNodeToHead:node];
} else {
//** 之前未有缓存,添加新缓存 **
// 新建节点
node = [_YYLinkedMapNode new];
node->_cost = cost;
node->_time = now;
node->_key = key;
node->_value = object;
// 添加节点到表头
[_lru insertNodeAtHead:node];
}
if (_lru->_totalCost > _costLimit) {
// ** 总缓存开销大于设定的开销 **
// 异步清理最久未使用的缓存
dispatch_async(_queue, ^{
[self trimToCost:_costLimit];
});
}
if (_lru->_totalCount > _countLimit) {
// ** 总缓存数量大于设定的数量 **
// 移除链表尾节点(最久未访问的缓存)
_YYLinkedMapNode *node = [_lru removeTailNode];
if (_lru->_releaseAsynchronously) {
dispatch_queue_t queue = _lru->_releaseOnMainThread ? dispatch_get_main_queue() : YYMemoryCacheGetReleaseQueue();
dispatch_async(queue, ^{
[node class]; // and release in queue
});
} else if (_lru->_releaseOnMainThread && !pthread_main_np()) {
dispatch_async(dispatch_get_main_queue(), ^{
[node class]; //hold and release in queue
});
}
}
pthread_mutex_unlock(&_lock);
}
作者:汉斯哈哈哈
链接:https://www.jianshu.com/p/492c3c3a0485
网友评论