LRU缓存

作者: 羲牧 | 来源:发表于2022-02-19 18:12 被阅读0次

请你设计并实现一个满足 LRU (最近最少使用) 缓存 约束的数据结构。
实现 LRUCache 类:
LRUCache(int capacity) 以 正整数 作为容量 capacity 初始化 LRU 缓存
int get(int key) 如果关键字 key 存在于缓存中,则返回关键字的值,否则返回 -1 。
void put(int key, int value) 如果关键字 key 已经存在,则变更其数据值 value ;如果不存在,则向缓存中插入该组 key-value 。如果插入操作导致关键字数量超过 capacity ,则应该 逐出 最久未使用的关键字。
函数 get 和 put 必须以 O(1) 的平均时间复杂度运行。

示例:

输入
["LRUCache", "put", "put", "get", "put", "get", "put", "get", "get", "get"]
[[2], [1, 1], [2, 2], [1], [3, 3], [2], [4, 4], [1], [3], [4]]
输出
[null, null, null, 1, null, -1, null, -1, 3, 4]

解释
LRUCache lRUCache = new LRUCache(2);
lRUCache.put(1, 1); // 缓存是 {1=1}
lRUCache.put(2, 2); // 缓存是 {1=1, 2=2}
lRUCache.get(1); // 返回 1
lRUCache.put(3, 3); // 该操作会使得关键字 2 作废,缓存是 {1=1, 3=3}
lRUCache.get(2); // 返回 -1 (未找到)
lRUCache.put(4, 4); // 该操作会使得关键字 1 作废,缓存是 {4=4, 3=3}
lRUCache.get(1); // 返回 -1 (未找到)
lRUCache.get(3); // 返回 3
lRUCache.get(4); // 返回 4

提示:

1 <= capacity <= 3000
0 <= key <= 10000
0 <= value <= 105
最多调用 2 * 105 次 get 和 put


题解

核心思路是 哈希表+双向链表。

哈希表存储key和双向链表中的位置。
双向链表队头的元素是最近访问过的元素,队尾是最近未访问过的元素

注意:所有put操作和get读取到的情况,都要将数据插入到队头
设置head和tail的dummy节点,可以简化操作。
由于空间满的时候需要删除队尾数据,所以使用单链表的时间复杂度会达到O(k), 而双向链表可以做到读写都是O(1)

class DLinkedNode:
    def __init__(self, key=0, value=0):
        self.key = key
        self.value = value
        self.next = None
        self.prev = None

class LRUCache:
    def __init__(self, capacity: int):
        self.head = DLinkedNode()
        self.tail = DLinkedNode()
        #双向链表初始化时,head.prev和tail.next均为None
        self.head.next = self.tail
        self.tail.prev = self.head
        self.cache = dict()
        self.capacity = capacity
        self.size = 0
     
    # 将节点插入头节点head之后,思路和单链表类似,先将node连上head之后的节点,再将head指向node
    def insertHead(self, node):
        node.next = self.head.next
        node.prev = self.head
        self.head.next.prev = node
        self.head.next = node
    
    #删除动作,两次指针变换,node节点的后一个节点的前驱,node节点的前一个节点的后继
    def remove(self, node):
        node.next.prev = node.prev
        node.prev.next = node.next

    # 删除队尾节点就是删除tail节点前一个节点
    def removeTail(self):
        node = self.tail.prev
        self.remove(node)
        return node

    def get(self, key: int) -> int:
        # print("get1 ", self.head.next.next.key, self.head.next.next.value)
        # print("get2 ", self.head.next.next.key, self.head.next.next.value)
        if key in self.cache.keys():
            node = self.cache[key]
            self.remove(node)
            self.insertHead(node)
            return node.value
        else:
            return -1

    def put(self, key: int, value: int) -> None:
        if key in self.cache:
            node = self.cache[key]
            node.value = value
            self.remove(node)
            self.insertHead(node)
        else:
            node = DLinkedNode(key, value)
            self.insertHead(node)
            self.size += 1
            self.cache[key] = node
            if self.size > self.capacity:
                removed = self.removeTail()
                self.cache.pop(removed.key)
                self.size = self.size - 1



# Your LRUCache object will be instantiated and called as such:
# obj = LRUCache(capacity)
# param_1 = obj.get(key)
# obj.put(key,value)

相关文章

网友评论

      本文标题:LRU缓存

      本文链接:https://www.haomeiwen.com/subject/pfuplrtx.html