常见的缓存机制
LRU Cache
Least Recently Used,在操作系统里是一种常用的页面置换算法,置换策略即,选择最近最久未使用的页面予以淘汰
LeetCode - 146.LRU Cache
link: https://leetcode-cn.com/problems/lru-cache/
中文题目
运用你所掌握的数据结构,设计和实现一个 LRU (最近最少使用) 缓存机制 。
实现 LRUCache 类:
LRUCache(int capacity) 以正整数作为容量 capacity 初始化 LRU 缓存
int get(int key) 如果关键字 key 存在于缓存中,则返回关键字的值,否则返回 -1 。
void put(int key, int value) 如果关键字已经存在,则变更其数据值;如果关键字不存在,则插入该组「关键字-值」。当缓存容量达到上限时,它应该在写入新数据之前删除最久未使用的数据值,从而为新的数据值留出空间。
进阶:你是否可以在 O(1) 时间复杂度内完成这两种操作?
Example
输入
["LRUCache", "put", "put", "get", "put", "get", "put", "get", "get", "get"]
[[2], [1, 1], [2, 2], [1], [3, 3], [2], [4, 4], [1], [3], [4]]
输出
[null, null, null, 1, null, -1, null, -1, 3, 4]
解释
LRUCache lRUCache = new LRUCache(2);
lRUCache.put(1, 1); // 缓存是 {1=1}
lRUCache.put(2, 2); // 缓存是 {1=1, 2=2}
lRUCache.get(1); // 返回 1
lRUCache.put(3, 3); // 该操作会使得关键字 2 作废,缓存是 {1=1, 3=3}
lRUCache.get(2); // 返回 -1 (未找到)
lRUCache.put(4, 4); // 该操作会使得关键字 1 作废,缓存是 {4=4, 3=3}
lRUCache.get(1); // 返回 -1 (未找到)
lRUCache.get(3); // 返回 3
lRUCache.get(4); // 返回 4
Note:
- 1 <= capacity <= 3000
- 0 <= key <= 3000
- 0 <= value <= 104
- 最多调用 3 * 104 次 get 和 put
问题描述
需要实现一个LRU缓存,需要保证时间复杂度是O(1)
题目分析
数据结构分析
- 根据LRU Cache的定义,实际的替换原则就是将最久未使用过的元素置换出去
- 既然涉及到key和value,需要快速在O(1)时间内快速查找数据,那就得用到hash数据结构
- 需要将最新使用的数据放到最前,最久未使用的数据放后面,这就是个链表结构
- 当数据容量满了的时候,需要将最久未使用的数据,也就是链表最后一个数据删掉,那这就需要用到双端链表,且需要支持双向查找,因此节点的数据结构需要选用带有双端的双向链表
- 为此,我们可以创建一个伪head和伪tail,用于指向第一个和最后一个节点
- 为了get操作在O(1)时间内完成,我们可以在hash里直接对节点进行索引,这样就能根据key快速定位节点在链表中的位置及前后关系
操作过程分析
- 对于get操作
- 如果key在dict中,那我们需要将节点从原本位置移动到第一个节点处,也就是head的指向
- 如果key不在dict中,那我们直接按题意返回-1即可
- 对于put操作
- 如果key在dict中,那么我们同get时一样,直接移动到第一个节点处即可,此时需要注意的是,value值可能被覆盖,所以对节点的value需要重新赋值
- 如果key不在dict中,那就需要进行添加操作了,当然这个节点是最近刚使用的,那么一定是在第一个节点位置
- 当新的节点被添加进来时,由于cache是有容量限制的,因此需要将最久未使用的那个数据移除掉,也就是最后一个节点相关数据
- 其它
- 为了调试,我写了个visit方法,这个方法可以遍历链表,输出中间结果
代码实现
Python3 实现
class Node(object):
def __init__(self, key = 0, value = 0):
self.key = key
self.value = value
self.next = None
self.prev = None
class LRUCache:
def visit(self):
result = []
p = self.head.next
while p and p != self.tail:
result.append(str(p.value))
p = p.next
# print('->'.join(result))
def __init__(self, capacity: int):
self.capacity = capacity
self.cache = {}
self.head = Node()
self.tail = Node()
self.head.next = self.tail
self.tail.prev = self.head
def get(self, key: int) -> int:
if key not in self.cache:
return -1
node = self.cache[key]
self.move_node_to_head(node)
# self.visit()
return node.value
def put(self, key: int, value: int) -> None:
if key in self.cache:
node = self.cache[key]
node.value = value
self.move_node_to_head(node)
else:
node = Node(key, value)
self.add_to_head(node)
self.cache[key] = node
if len(self.cache) <= self.capacity:
pass
else:
last_node = self.remove_tail_node()
self.cache.pop(last_node.key)
# self.visit()
def remove_node(self, node):
node.prev.next = node.next
node.next.prev = node.prev
def add_to_head(self, node):
node.next = self.head.next
node.prev = self.head
self.head.next.prev = node
self.head.next = node
def move_node_to_head(self, node):
self.remove_node(node)
self.add_to_head(node)
def remove_tail_node(self):
node = self.tail.prev
node.prev.next = self.tail
self.tail.prev = node.prev
return node
# Your LRUCache object will be instantiated and called as such:
# obj = LRUCache(capacity)
# param_1 = obj.get(key)
# obj.put(key,value)
运行结果
Time Submitted | Status | Runtime | Language |
---|---|---|---|
a few seconds ago | Accepted | 168 ms | python3 |
执行结果:
通过
显示详情
执行用时:168 ms, 在所有 Python3 提交中击败了78.98%的用户
内存消耗:23.7 MB, 在所有 Python3 提交中击败了14.51%的用户