LRU算法全称Least Recently Used,也就是检查最近最少使用的数据的算法。这个算法通常使用在内存淘汰策略中,用于将不常用的数据转移出内存,将空间腾给最近更常用的“热点数据”。
算法很简单,只需要将所有数据按使用时间排序,在需要筛选出LRU数据时,取排名靠后的即可。
根据LRU算法,在Java中实现需要这些条件:
底层数据使用双向链表,方便在链表的任意位置进行删除,在链表尾进行添加,这一点用单链表比较费劲,当然用数组等结构也都很费劲,当然双向链表在查找时也麻烦,但下述可以结合HashMap使用。需要将链表按照访问(使用)顺序排序。数据量超过一定阈值后,需要删除Least Recently Used数据。对于上述的实现思路,java.util.LinkedHashMap已经实现了其中的99%,因此直接基于LinkedHashMap实现LRUCache非常简单。
LinkedHashMap为LRUCache铺垫了什么
构造方法提供了accessOrder选项,开启后会get方法会有额外操作保证链表顺序按访问顺序逆序排列;
底层结构使用双向链表,查找可以使用HashMap的特点;
覆盖了父类HashMap的newNode方法和newTreeNode方法,这两个方法在HashMap中只是创建Node用的,而在LinkedHashMap中不但创建Node,还将Node放在链表末尾。
父类HashMap提供了3个void的Hook方法,方法没做任何事:
afterNodeRemoval 父类在remove一个集合中存在的元素后调用;afterNodeInsertion 父类在put、compute、merge后调用;afterNodeAccess 父类在replace、compute、merge等替换值后会调用,LinkedHashMap在get中开启accessOrder时调用,究其根本是在对数据有操作时会调用;LinkedHashMap本质上还是复用HashMap的绝大部分功能,包括底层的Node<K, V>[],因此能支持原本HashMap的功能。
但是LinkedHashMap实现了父类HashMap的3个Hook方法:
afterNodeRemoval 实现链表的删除操作;afterNodeInsertion 并没有实现链表的插入操作,但新添加了一个Hook方法boolean removeEldestEntry,当这个Hook方法返回true时,删除链表头的节点;afterNodeAccess 如前所述,开启accessOrder后会将被操作的节点放在链表末尾,保证链表顺序按访问顺序逆序排列;上一条3个方法是用来构建双向链表的,LinkedHashMap还覆盖了父类的3个方法:
newNode 在创建一个Node的同时,将Node添加到链表末尾;newTreeNode 创建TreeNode的同时,将Node添加到链表末尾;get 完成get功能的同时,如果accessOrder开启,会调afterNodeAccess将Node移动到链表末尾,覆盖newNode和newTreeNode方法后,在put方法中调用的newNode和newTreeNode方法也就连带实现了链表的插入操作综上,我们可以了解到LinkedHashMap为什么能够轻松实现LRUCache。
继承父类HashMap,拥有HashMap的功能,因此在查找一个节点时时间复杂度为O(1),再加上链表是双向,做链表任意节点的删除工作就非常简单。 通过HashMap提供的3个Hook方法并覆盖了2个创建Node的方法,实现了自身链表的添加、删除工作,保证在不影响原本Array功能的前提下,正确完成自身的链表构建;这个过程实际上均是通过Hook方式增强原有功能的,因为原本的HashMap中创建节点其实也是使用的Hook方法。 提供属性accessOrder并实现了afterNodeAccess方法,因此能够根据访问或操作顺序将最近使用或最近插入的数据放在链表尾,越久没被使用的数据就越靠近链表头,实现了整个链表按照LRU的要求排序。 提供了一个Hook方法boolean removeEldestEntry,这个方法返回true时将会删除表头节点,即LRU中应当淘汰的节点,但是这个方法在LinkedHashMap中的实现永远返回false。到这为止,实现一个LRUCache就很简单了:实现这个removeEldestEntryHook方法,给LinkedHashMap设置一个阈值,那么超过这个阈值时就会进行LRU淘汰。
示例:
// 继承LinkedHashMap public class LRUCache<K, V> extends LinkedHashMap<K, V> { private final int MAX_CACHE_SIZE; public LRUCache(int cacheSize) { // 使用构造方法 public LinkedHashMap(int initialCapacity, float loadFactor, boolean accessOrder) // initialCapacity、loadFactor都不重要 // accessOrder要设置为true,按访问排序 super((int) Math.ceil(cacheSize / 0.75) + 1, 0.75f, true); MAX_CACHE_SIZE = cacheSize; } @Override protected boolean removeEldestEntry(Map.Entry eldest) { // 超过阈值时返回true,进行LRU淘汰 return size() > MAX_CACHE_SIZE; } }注:LinkedHashMap是线程不安全的,可以参考Dubbo中com.alibaba.dubbo.common.utils.LRUCache的实现。
当存在热点数据时,LRU的效率很好,但偶发性的、周期性的批量操作会导致LRU命中率急剧下降,缓存污染情况比较严重。
分析: LRU只适合缓存热点数据,偶发性、周期性的批量操作会将LRU的热点缓存污染,于是像LRU-K、URL-Two queues原理、Multi Queue原理等都是将热点数据识别出来再放入LRU缓存队列,但是热点数据识别都是有一个识别窗口的,比如最近10000次内操作过两次的认为是热点数据会放入LRU缓存,避免LRU缓存的热点数据被污染掉,降低缓存命中率。
具体的解决方案大家可以参考:https://www.jianshu.com/p/d533d8a66795