• 解读JVM级别本地缓存Caffeine青出于蓝的要诀3


    Caffeine的异步淘汰清理机制

    在惰性删除实现机制这边,Caffeine做了一些改进优化以提升在并发场景下的性能表现。我们可以和Guava Cache的基于容量大小的淘汰处理做个对比。

    当限制了Guava Cache最大容量之后,有新的记录写入超过了总大小,会理解触发数据淘汰策略,然后腾出空间给新的记录写入。比如下面这段逻辑:

    public static void main(String[] args) {
        Cache cache = CacheBuilder.newBuilder()
                .maximumSize(1)
                .removalListener(notification -> System.out.println(notification.getKey() + "被移除,原因:" + notification.getCause()))
                .build();
        cache.put("key1", "value1");
        System.out.println("key1写入后,当前缓存内的keys:" + cache.asMap().keySet());
        cache.put("key2", "value1");
        System.out.println("key2写入后,当前缓存内的keys:" + cache.asMap().keySet());
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    其运行后的结果显示如下,可以很明显的看出,超出容量之后继续写入,会在写入前先执行缓存移除操作。

    key1写入后,当前缓存内的keys:[key1]
    key1被移除,原因:SIZE
    key2写入后,当前缓存内的keys:[key2]
    
    • 1
    • 2
    • 3

    同样地,我们看下使用Caffeine实现一个限制容量大小的缓存对象的处理表现,代码如下:

    public static void main(String[] args) {
        Cache cache = Caffeine.newBuilder()
                .maximumSize(1)
                .removalListener((key, value, cause) -> System.out.println(key + "被移除,原因:" + cause))
                .build();
        cache.put("key1", "value1");
        System.out.println("key1写入后,当前缓存内的keys:" + cache.asMap().keySet());
        cache.put("key2", "value1");
        System.out.println("key2写入后,当前缓存内的keys:" + cache.asMap().keySet());
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    运行这段代码,会发现Caffeine的容量限制功能似乎“失灵”了!从输出结果看并没有限制住

    key1写入后,当前缓存内的keys:[key1]
    key2写入后,当前缓存内的keys:[key1, key2]
    
    • 1
    • 2

    什么原因呢?

    Caffeine为了提升读写操作的并发效率而将数据淘汰清理操作改为了异步处理,而异步处理时会有微小的延时,由此导致了上述看到的容量控制“失灵”现象。为了证实这一点,我们对上述的测试代码稍作修改,打印下调用线程与数据淘汰清理线程的线程ID,并且最后添加一个sleep等待操作:

    public static void main(String[] args) throws Exception {
        System.out.println("当前主线程:" + Thread.currentThread().getId());
        Cache cache = Caffeine.newBuilder()
                .maximumSize(1)
                .removalListener((key, value, cause) ->
                        System.out.println("数据淘汰执行线程:" + Thread.currentThread().getId()
                                + "," + key + "被移除,原因:" + cause))
                .build();
        cache.put("key1", "value1");
        System.out.println("key1写入后,当前缓存内的keys:" + cache.asMap().keySe());
        cache.put("key2", "value1");
        Thread.sleep(1000L); // 等待一段时间时间,等待异步清理操作完成
        System.out.println("key2写入后,当前缓存内的keys:" + cache.asMap().keySet());
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14

    再次执行上述测试代码,发现结果变的符合预期了,也可以看出Caffeine的确是另起了独立线程去执行数据淘汰操作的。

    当前主线程:1
    key1写入后,当前缓存内的keys:[key1]
    数据淘汰执行线程:13,key1被移除,原因:SIZE
    key2写入后,当前缓存内的keys:[key2]
    
    • 1
    • 2
    • 3
    • 4

    深扒一下源码的实现,可以发现Caffeine在读写操作时会使用独立线程池执行对应的清理任务,如下图中的调用链执行链路 —— 这也证实了上面我们的分析。

    所以,严格意义来说,Caffeine的大小容量限制并不能够保证完全精准的小于设定的值,会存在短暂的误差,但是作为一个以高并发吞吐量为优先考量点的组件而言,这一点点的误差也是可以接受的。关于这一点,如果阅读源码仔细点的小伙伴其实也可以发现在很多场景的注释中,Caffeine也都会有明确的说明。比如看下面这段从源码中摘抄的描述,就清晰的写着“如果有同步执行的插入或者移除操作,实际的元素数量可能会出现差异”。

    public interface Cache {
        /**
         * Returns the approximate number of entries in this cache. The value returned is an estimate; the
         * actual count may differ if there are concurrent insertions or removals, or if some entries are
         * pending removal due to expiration or weak/soft reference collection. In the case of stale
         * entries this inaccuracy can be mitigated by performing a {@link #cleanUp()} first.
         *
         * @return the estimated number of mappings
         */
        @NonNegative
        long estimatedSize();
    
      // 省略其余内容...
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14

    同样道理,不管是基于大小、还是基于过期时间或基于引用的数据淘汰策略,由于数据淘汰处理是异步进行的,都会存在短暂不够精确的情况。

    Caffeine多种数据驱逐机制

    上面提到并演示了Caffeine基于整体容量进行的数据驱逐策略。除了基于容量大小之外,Caffeine还支持基于时间与基于引用等方式来进行数据驱逐处理。

    基于时间

    Caffine支持基于时间进行数据的淘汰驱逐处理。这部分的能力与Guava Cache相同,支持根据记录创建时间以及访问时间两个维度进行处理。

    数据的过期时间在创建缓存对象的时候进行指定,Caffeine在创建缓存对象的时候提供了3种设定过期策略的方法。

    方式具体说明
    expireAfterWrite基于创建时间进行过期处理
    expireAfterAccess基于最后访问时间进行过期处理
    expireAfter基于个性化定制的逻辑来实现过期处理(可以定制基于新增读取更新等场景的过期策略,甚至支持为不同记录指定不同过期时间

    下面逐个看下。

    expireAfterWrite

    expireAfterWrite用于指定数据创建之后多久会过期,使用方式举例如下:

    Cache userCache = 
        Caffeine.newBuilder()
            .expireAfterWrite(1, TimeUnit.SECONDS)
            .build();
    userCache.put("123", new User("123", "张三"));
    复制代码
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    当记录被写入缓存之后达到指定的时间之后,就会被过期淘汰(惰性删除,并不会立即从内存中移除,而是在下一次操作的时候触发清理操作)。

    expireAfterAccess

    expireAfterAccess用于指定缓存记录多久没有被访问之后就会过期。使用方式与expireAfterWrite类似:

    Cache userCache = 
        Caffeine.newBuilder()
            .expireAfterAccess(1, TimeUnit.SECONDS)
            .build();
        userCache.get("123", s -> userDao.getUser(s));
    复制代码
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    这种是基于最后一次访问时间来计算数据是否过期,如果一个数据一直被访问,则其就不会过期。比较适用于热点数据的存储场景,可以保证较高的缓存命中率。同样地,数据过期时也不会被立即从内存中移除,而是基于惰性删除机制进行处理。

    expireAfter

    上面两种设定过期时间的策略与Guava Cache是相似的。为了提供更为灵活的过期时间设定能力,Caffeine提供了一种全新的的过期时间设定方式,也即这里要介绍的expireAfter方法。其支持传入一个自定义的Expiry对象,自行实现数据的过期策略,甚至是针对不同的记录来定制不同的过期时间。

    先看下Expiry接口中需要实现的三个方法:

    方法名称含义说明
    expireAfterCreate指定一个过期时间,从记录创建的时候开始计时,超过指定的时间之后就过期淘汰,效果类似expireAfterWrite,但是支持更灵活的定制逻辑。
    expireAfterUpdate指定一个过期时间,从记录最后一次被更新的时候开始计时,超过指定的时间之后就过期。每次执行更新操作之后,都会重新计算过期时间。
    expireAfterRead指定一个过期时间,从记录最后一次被访问的时候开始计时,超过指定时间之后就过期。效果类似expireAfterAccess,但是支持更高级的定制逻辑。

    比如下面的代码中,定制了expireAfterCreate方法的逻辑,根据缓存key来决定过期时间,如果key以字母A开头则设定1s过期,否则设定2s过期:

    public static void main(String[] args) {
        try {
            LoadingCache userCache = Caffeine.newBuilder()
                    .removalListener((key, value, cause) -> {
                        System.out.println(key + "移除,原因:" + cause);
                    })
                    .expireAfter(new Expiry() {
                        @Override
                        public long expireAfterCreate(@NonNull String key, @NonNullUser value, long currentTime) {
                            if (key.startsWith("A")) {
                                return TimeUnit.SECONDS.toNanos(1);
                            } else {
                                return TimeUnit.SECONDS.toNanos(2);
                            }
                        }
                        @Override
                        public long expireAfterUpdate(@NonNull String key, @NonNullUser value, long currentTime,
                                                      @NonNegative longcurrentDuration) {
                            return Long.MAX_VALUE;
                        }
                        @Override
                        public long expireAfterRead(@NonNull String key, @NonNull Uservalue, long currentTime,
                                                    @NonNegative long currentDuration){
                            return Long.MAX_VALUE;
                        }
                    })
                    .build(key -> userDao.getUser(key));
            userCache.put("123", new User("123", "123"));
            userCache.put("A123", new User("A123", "A123"));
            Thread.sleep(1100L);
            System.out.println(userCache.get("123"));
            System.out.println(userCache.get("A123"));
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36

    执行代码进行测试,可以发现,不同的key拥有了不同的过期时间

    User(userName=123, userId=123, departmentId=null)
    A123移除,原因:EXPIRED
    User(userName=A123, userId=A123, departmentId=null)
    
    • 1
    • 2
    • 3

    除了根据key来定制不同的过期时间,也可以根据value的内容来指定不同的过期时间策略。也可以同时定制上述三个方法,搭配来实现更复杂的过期策略。

    按照这种方式来定时过期时间的时候需要注意一点,如果不需要设定某一维度的过期策略的时候,需要将对应实现方法的返回值设置为一个非常大的数值,比如可以像上述示例代码中一样,指定为Long.MAX_VALUE值。

    基于大小

    除了前面提到的基于访问时间或者创建时间来执行数据过期淘汰的方式之外,Caffeine还支持针对缓存总体容量大小进行限制,如果容量满的时候,基于W-TinyLFU算法,淘汰最不常被使用的数据,腾出空间给新的记录写入。

    maximumSize

    在创建Caffeine缓存对象的时候,可以通过maximumSize来指定允许缓存的最大条数。

    比如下面这段代码:

    Cache cache = Caffeine.newBuilder()
            .maximumSize(1000L) // 限制最大缓存条数
            .build();
    复制代码
    
    • 1
    • 2
    • 3
    • 4
    maximumWeight

    在创建Caffeine缓存对象的时候,可以通过maximumWeightweighter组合的方式,指定按照权重进行限制缓存总容量。比如一个字符串value值的缓存场景下,我们可以根据字符串的长度来计算权重值,最后根据总权重大小来限制容量。

    代码示意如下:

    Cache cache = Caffeine.newBuilder()
            .maximumWeight(1000L) // 限制最大权重值
            .weigher((key, value) -> (String.valueOf(value).length() / 1000) + 1)
            .build();
    复制代码
    
    • 1
    • 2
    • 3
    • 4
    • 5
    使用注意点

    需要注意一点:如果创建的时候指定了weighter,则必须同时指定maximumWeight值,如果不指定、或者指定了maximumSize,会报错(这一点与Guava Cache一致):

    java.lang.IllegalStateException: weigher requires maximumWeight
    	at com.github.benmanes.caffeine.cache.Caffeine.requireState(Caffeine.java:201)
    	at com.github.benmanes.caffeine.cache.Caffeine.requireWeightWithWeigher(Caffeine.java:1215)
    	at com.github.benmanes.caffeine.cache.Caffeine.build(Caffeine.java:1099)
    	at com.veezean.skills.cache.caffeine.CaffeineCacheService.main(CaffeineCacheService.java:254)
    复制代码
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    基于引用

    基于引用回收的策略,核心是利用JVM虚拟机的GC机制来达到数据清理的目的。当一个对象不再被引用的时候,JVM会选择在适当的时候将其回收。Caffeine支持三种不同的基于引用的回收方法:

    方法具体说明
    weakKeys采用弱引用方式存储key值内容,当key对象不再被引用的时候,由GC进行回收
    weakValues采用弱引用方式存储value值内容,当value对象不再被引用的时候,由GC进行回收
    softValues采用软引用方式存储value值内容,当内存容量满时基于LRU策略进行回收

    下面逐个介绍下。

    weakKeys

    默认情况下,我们创建出一个Caffeine缓存对象并写入key-value映射数据时,key和value都是以强引用的方式存储的。而使用weakKeys可以指定将缓存中的key值以弱引用(WeakReference)的方式进行存储,这样一来,如果程序运行时没有其它地方使用或者依赖此缓存值的时候,该条记录就可能会被GC回收掉。

     LoadingCache loadingCache = Caffeine.newBuilder()
                    .weakKeys()
                    .build(key -> userDao.getUser(key));
    复制代码
    
    • 1
    • 2
    • 3
    • 4

    小伙伴们应该都有个基本的认知,就是两个对象进行比较是否相等的时候,要使用equals方法而非==。而且很多时候我们会主动去覆写hashCode方法与equals方法来指定两个对象的相等判断逻辑。但是基于引用的数据淘汰策略,关注的是引用地址值而非实际内容值,也即一旦使用weakKeys指定了基于引用方式回收,那么查询的时候将只能是使用同一个key对象(内存地址相同)才能够查询到数据,因为这种情况下查询的时候,使用的是==判断是否为同一个key。

    看下面的例子:

    public static void main(String[] args) {
        Cache cache = Caffeine.newBuilder()
                .weakKeys()
                .build();
        String key1 = "123";
        cache.put(key1, "value1");
        System.out.println(cache.getIfPresent(key1));
        String key2 = new String("123");
        System.out.println("key1.equals(key2) : " + key1.equals(key2));
        System.out.println("key1==key2 : " + (key1==key2));
        System.out.println(cache.getIfPresent(key2));
    }
    复制代码
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13

    执行之后,会发现使用存入时的key1进行查询的时候是可以查询到数据的,而使用key2去查询的时候并没有查询到记录,虽然key1与key2的值都是字符串123!

    value1
    key1.equals(key2) : true
    key1==key2 : false
    null
    复制代码
    
    • 1
    • 2
    • 3
    • 4
    • 5

    在实际使用的时候,这一点务必需要注意,对于新手而言,很容易踩进坑里

    weakValues

    与weakKeys类似,我们可以在创建缓存对象的时候使用weakValues指定将value值以弱引用的方式存储到缓存中。这样当这条缓存记录的对象不再被引用依赖的时候,就会被JVM在适当的时候回收释放掉。

     LoadingCache loadingCache = Caffeine.newBuilder()
                    .weakValues()
                    .build(key -> userDao.getUser(key));
    
    • 1
    • 2
    • 3

    实际使用的时候需要注意weakValues不支持AsyncLoadingCache中使用。比如下面的代码:

    public static void main(String[] args) {
        AsyncLoadingCache cache = Caffeine.newBuilder()
                .weakValues()
                .buildAsync(key -> userDao.getUser(key));
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5

    启动运行的时候,就会报错:

    Exception in thread "main" java.lang.IllegalStateException: Weak or soft values cannot be combined with AsyncLoadingCache
    	at com.github.benmanes.caffeine.cache.Caffeine.requireState(Caffeine.java:201)
    	at com.github.benmanes.caffeine.cache.Caffeine.buildAsync(Caffeine.java:1192)
    	at com.github.benmanes.caffeine.cache.Caffeine.buildAsync(Caffeine.java:1167)
    	at com.veezean.skills.cache.caffeine.CaffeineCacheService.main(CaffeineCacheService.java:297)
    
    • 1
    • 2
    • 3
    • 4
    • 5

    当然咯,很多时候也可以将weakKeysweakValues组合起来使用,这样可以获得到两种能力的综合加成。

     LoadingCache loadingCache = Caffeine.newBuilder()
                    .weakKeys()
                    .weakValues()
                    .build(key -> userDao.getUser(key));
    
    • 1
    • 2
    • 3
    • 4
    softValues

    softValues是指将缓存内容值以软引用的方式存储在缓存容器中,当内存容量满的时候Caffeine会以LRU(least-recently-used,最近最少使用)顺序进行数据淘汰回收。对比下其与weakValues的差异:

    方式具体描述
    weakValues弱引用方式存储,一旦不再被引用,则会被GC回收
    softValues软引用方式存储,不会被GC回收,但是在内存容量满的时候,会基于LRU策略数据回收

    具体使用的时候,可以在创建缓存对象的时候进行指定基于软引用方式数据淘汰:

     LoadingCache loadingCache = Caffeine.newBuilder()
                    .softValues()
                    .build(key -> userDao.getUser(key));
    
    • 1
    • 2
    • 3

    与weakValues一样,需要注意softValues不支持AsyncLoadingCache中使用。此外,还需要注意softValuesweakValues两者也不可以一起使用。

    public static void main(String[] args) {
        LoadingCache cache = Caffeine.newBuilder()
                .weakKeys()
                .weakValues()
                .softValues()
                .build(key -> userDao.getUser(key));
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    启动运行的时候,也会报错:

    Exception in thread "main" java.lang.IllegalStateException: Value strength was already set to WEAK
    	at com.github.benmanes.caffeine.cache.Caffeine.requireState(Caffeine.java:201)
    	at com.github.benmanes.caffeine.cache.Caffeine.softValues(Caffeine.java:572)
    	at com.veezean.skills.cache.caffeine.CaffeineCacheService.main(CaffeineCacheService.java:297)
    
    • 1
    • 2
    • 3
    • 4

    小结回顾

    好啦,关于Caffeine Cache数据淘汰驱逐策略的实现原理与使用方式的阐述,就介绍到这里了。至此呢,关于Caffeine相关的内容就全部结束了,通过与Caffeine相关的这三篇文章,我们介绍完了Caffeine的整体情况、与Guava Cache相比的改进点、Caffeine的项目中使用,以及Caffeine在数据回源、数据驱逐等方面的展开探讨。关于Caffeine Cache,你是否有自己的一些想法与见解呢?欢迎评论区一起交流下,期待和各位小伙伴们一起切磋、共同成长。

  • 相关阅读:
    位运算符在SQL中的使用场景
    Hyperf微服务——五、JsonRpc远程调用
    Android图形系统之X11、Weston、Wayland、Mesa3D、ANGLE、SwiftShader介绍(十五)
    蛋白结构合理性评估软件-PROCHECK的安装与使用
    关于安卓实现通用权限库的封装
    基于Web技术的优秀电影片段赏析与交流系统
    Java笔记(3)
    关于解决前后端分离开发——跨域问题
    PHP代码审计DVWA命令注入通关流程
    医院项目-预约挂号-第三部分
  • 原文地址:https://blog.csdn.net/Huangjiazhen711/article/details/127900732