当前位置:   article > 正文

高频算法面试题,LRU缓存机制,详解_lru算法面试

lru算法面试

一、LRU算法简介

LRU即 Least Latest Used最近最少使用的, 该算法是大部分操作系统为最大化页面命中率而广泛采用的一种页面置换算法。该算法的思路是,发生缺页中断时,选择未使用时间最长的页面置换出去。从程序运行的原理来看,最近最少使用算法是比较接近理想的一种页面置换算法,这种算法既充分利用了内存中页面调用的历史信息,又正确反映了程序的局部问题。

二、LRU算法描述

LRU 算法实际上是让你设计数据结构:首先要接收一个 capacity 参数作为缓存的最大容量,然后实现两个 API,一个是 put(key, val) 方法存入键值对,另一个是 get(key) 方法获取 key 对应的 val,如果 key 不存在则返回 -1。

get 和 put 方法必须都是 O(1) 的时间复杂度,我们举个具体例子来看看 LRU 算法怎么工作。

三、LRU 算法设计

分析上面的操作过程,要让 put 和 get 方法的时间复杂度为 O(1),我们可以总结出 cache 这个数据结构必要的条件:查找快,插入快,删除快,有顺序之分。

因为显然 cache 必须有顺序之分,以区分最近使用的和久未使用的数据;而且我们要在 cache 中查找键是否已存在;如果容量满了要删除最后一个数据;每次访问还要把数据插入到队头。

那么,什么数据结构同时符合上述条件呢?哈希表查找快,但是数据无固定顺序;链表有顺序之分,插入删除快,但是查找慢。所以结合一下,形成一种新的数据结构: 哈希链表

LRU 缓存算法的核心数据结构就是哈希链表,双向链表和哈希表的结合体。这个数据结构长这样:
在这里插入图片描述
思想很简单,就是借助哈希表赋予了链表快速查找的特性嘛:可以快速查找某个 key 是否存在缓存(链表)中,同时可以快速删除、添加节点。回想刚才的例子,这种数据结构是不是完美解决了 LRU 缓存的需求?

也许读者会问,为什么要是双向链表,单链表行不行?另外,既然哈希表中已经存了 key,为什么链表中还要存键值对呢,只存值不就行了?

想的时候都是问题,只有做的时候才有答案。这样设计的原因,必须等我们亲自实现 LRU 算法之后才能理解。

四、代码实现

// LRU缓存机制,哈希链实现

class LRUCache {
private:
    int cap;    // 缓存的容量
    list<pair<int, int>> LRUList;   // 链表,每个节点为一个 pair,存储 key和 value的值
    unordered_map<int, list<pair<int,int>>::iterator> Cache;    // 哈希表,存储 key和 LRUList的迭代器
public:
    LRUCache(int capcity):cap(capcity) { }
    int get(int key) {
        // 先判断 key对应的值是否在里面,不在则返回 -1
        if(Cache.find(key) == Cache.end())  return -1;
        auto it = Cache[key];
        int value = it->second;
        // 将 key对应的链表节点移动到链表的头,并且更新 Cache的value值(链表的迭代器)
        LRUList.erase(it);
        LRUList.push_front({key, value});
        Cache[key] = LRUList.begin();

        return value;
    }
    void put(int key, int val) {
        // 如果 key对应的元素不在缓存中
        if(Cache.find(key) == Cache.end()) {
            // 如果哈希表的容量达到缓存的最大值,则删除链表的最后一个节点并且将对应的在 Cache中的节点擦除
            if(cap == Cache.size()) {
                auto it = LRUList.back();
                LRUList.pop_back();
                Cache.erase(it.first);
            }
            // 将节点插入到链表的头部,并且更新哈希表中的value值(链表的迭代器)
            LRUList.push_front({key, val});
            Cache[key] = LRUList.begin();
        } else {
        // 如果 key对应的元素在缓存中,在哈希表中进行定位
            auto it = Cache[key];
            // 将 key对应的链表节点移动到链表的头,并且更新 Cache的value值(链表的迭代器)
            LRUList.erase(it);
            LRUList.push_front({key, value});
            Cache[key] = LRUList.begin();
        }
    }
};
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/519396
推荐阅读
相关标签
  

闽ICP备14008679号