当前位置:   article > 正文

Redis使用规范及优化

Redis使用规范及优化

缓存设计

缓存方案

  • 普通缓存

查询数据时,先查找缓存,如果有延长缓存时间并返回。如果没有,再去查找数据库,将查询的数据再写到缓存,同时设置过期时间。如果是静态热点数据,可以不设置缓存失效时间。

  • 冷热分离

服务降级时,根据冷热数据做不同的处理。

  • 多级缓存

比如在redis前再加一级缓存JVM,一般是通过map存储数据。可以类似redis方案更新缓存,也可以使用redis的发布订阅功能、MQ、canal来实现与数据库的同步。也可以单独部署热点缓存系统,监测到热点数据主动同步到分布式系统中。
多级缓存时,就不要考虑绝对一致了,否则会增加更大的维护成本。

  • 缓存预热

热点重建缓存时,通过双重锁检查重建缓存:先查询,不存在需要重建缓存,重建缓存逻辑加入分布式锁,仅有一个请求能重建缓存,重建完成后,后面的请求都能获取到数据了;

缓存问题

缓存穿透

  • 什么是缓存穿透

访问大量不存在的key,缓存和数据库都没有,从而导致大量的请求打到数据库,可能导致数据库抖动甚至挂掉。

  • 导致缓存穿透的原因

通常处于容错的考虑,存储层找不到数据不会写入都缓存层。正常情况是没问题的,可能导致缓存穿透的的情况如下:
1)自身业务代码或数据出现问题;
2)一些恶意攻击、爬虫等造成大量空命中;

  • 如何解决

1)缓存空值且设置过期时间;
2)布隆过滤器
布隆过滤器有个特性:能判断一个值是否一定不存在,但是不能判断一个值是否存在。
使用布隆过滤器需要把所有数据提前放入布隆过滤器,并且在增加数据时也要往布隆过滤器里放。通过布隆过滤器判断key是否存在,如果不存在则直接返回空。
注意:布隆过滤器不能删除数据,如果要删除得重新初始化数据。

具体布隆过滤器的工作原理,请参考单独介绍布隆过滤器的文章。
传送门:https://blog.csdn.net/u010355502/article/details/132271795

缓存击穿(失效)

  • 什么是缓存击穿

也叫缓存失效,大量key同时失效导致大量请求同时访问到数据库,可能造成数据库抖动甚至挂掉。

  • 导致缓存击穿的原因

大量已存在的key同时失效。

  • 如何解决

批量添加缓存时,分散缓存过期时间,避免相同时间段大量缓存失效。

缓存雪崩

  • 什么是缓存雪崩

缓存雪崩指的是缓存层支撑不住或宕掉后,流量会像奔逃的野牛一样,打向后端存储层。由于缓存层承载着大量请求,有效地保护了存储层,但是如果缓存层由于某些原因不能提供服务(比如超大并发过来,缓存层支撑不住,或者由于缓存设计不好,类似大量请求访问bigkey,导致缓存能支撑的并发急剧下降),于是大量请求都会打到存储层,存储层的调用量会暴增,造成存储层也会级联宕机的情况。

  • 导致缓存雪崩的原因

缓存层没有起到缓存作用,或者缓存作用没有达到预期。

  • 如何解决

1)保证缓存服务的高可用,比如搭建redis集群。
2)使用隔离组件为后端应用限流、降级。比如使用Sentinel或Hystrix组件,区分非核心数据和核心数据的处理方式。
3)提前演练。在项目上线前, 演练缓存层宕掉后, 应用以及后端的负载情况以及可能出现的问题, 在此基 础上做一些预案设定。

热点缓存key重建优化

开发人员使用“缓存+过期时间”的策略既可以加速数据读写,又保证数据的定期更新,这种模式基本能够满足绝大部分需求。但是有两个问题如果同时出现,可能就会对应用造成致命的危害:
1)当前key是一个热点key(例如一个热门的娱乐新闻),突发性并发量非常大。
2)重建缓存不能在短时间完成,可能是一个复杂计算,例如复杂的SQL、多次IO、多个依赖等。
在缓存失效的瞬间,有大量线程来重建缓存,造成后端负载加大,甚至可能会让应用崩溃。要解决这个问题主要就是要避免大量线程同时重建缓存。我们可以利用互斥锁来解决,此方法只允许一个线程重建缓存,其他线程等待重建缓存的线程执行完,重新从缓存获取数据即可。
伪代码示例:

String get(String key) {
    // 从Redis中获取数据
    String value = redis.get(key);
    // 如果value为空,则开始重构缓存
    if (value == null) {
        // 只允许一个线程重建缓存,使用nx,并设置过期时间ex
        String mutexKey = "mutext:key:" + key;
        if (redis.set(mutexKey, "1", "ex 180", "nx")) {
             // 从数据源获取数据
            value = db.get(key);
            // 回写Redis,并设置过期时间
            redis.setex(key, timeout, value);
            // 删除key_mutex
            redis.delete(mutexKey);
        } else {
            // 其他线程休息50毫秒后重试
            Thread.sleep(50);
            get(key);
        }
    }
    return value;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22

缓存与数据库双写不一致

在大并发下,同时操作数据库与缓存会存在数据不一致性问题。

  • 不一致场景

1)双写不一致情况:写数据库后更新缓存。线程A将数值10写数据库并开始执行更新缓存,此时B将最新数值11写数据库并更新了缓存(在线程A更新缓存之前执行完),此时线程A将数值10更新到缓存。那么就有问题了,最新的数值11被历史数值10覆盖了,导致数据库数据与缓存数据不一致。
2)读写并发不一致:写数据库后删除缓存,读数据库后更新缓存。线程A写数值10到数据库后删除缓存,线程C查询缓存为空于是查询数据库数值为10,再线程C更新缓存之前线程B将数值11(最新值)写入数据库并更新缓存成功,此时线程B才将之前查询到的数值10写入换存。那么问题来了,最新的数值11被历史数值10覆盖了,导致数据库数据与缓存数据不一致。

  • 解决方案

1)对于并发几率很小的数据(如个人维度的订单数据、用户数据等),这种几乎不用考虑这个问题,很少会发生缓存不一致,可以给缓存数据加上过期时间,每隔一段时间触发读的主动更新即可。
2)就算并发很高,如果业务上能容忍短时间的缓存数据不一致(如商品名称,商品分类菜单等),缓存加上过期时间依然可以解决大部分业务对于缓存的要求。
3)如果不能容忍缓存数据不一致,可以通过加分布式读写锁保证并发读写或写写的时候按顺序排好队,读读的 时候相当于无锁。
4)也可以用阿里开源的canal通过监听数据库的binlog日志及时的去修改缓存,但是引入了新的中间件,增加了系统的复杂度。

  • 总结

以上我们针对的都是读多写少的情况加入缓存提高性能,如果写多读多的情况又不能容忍缓存数据不一致,那就没必要加缓存了,可以直接操作数据库。当然,如果数据库抗不住压力,还可以把缓存作为数据读写的主存储,异步将数据同步到数据库,数据库只是作为数据的备份。放入缓存的数据应该是对实时性、一致性要求不是很高的数据。切记不要为了用缓存,同时又要保证绝对的一致性做大量的过度设计和控制,增加系统复杂性!

key名设计

  • 【建议】可读性和可管理性

以业务名(或数据库名)为前缀(防止key冲突),用冒号分隔,比如业务名:表名:id

trade:order:1 
  • 1
  • 【建议】简洁性

保证语义的前提下,控制key的长度,当key较多时,内存占用也不容忽视,例如:

user:{uid}:friends:messages:{mid} 
简化为
u:{uid}:fr:m:{mid}
  • 1
  • 2
  • 3
  • 【强制】不要包含特殊字符

反例:包含空格、换行、单双引号以及其他转义字符

value设计

  • 【强制】拒绝大key

什么是bigkey:
在Redis中,一个字符串最大512MB,一个二级数据结构(例如hash、list、set、zset)可以存储大约40亿个(2^32-1)个元素,但实际中如果下面两种情况,我就会认为它是bigkey。
1)字符串类型
它的big体现在单个value值很大,一般认为超过10KB就是bigkey。
2)非字符串类型
哈希、列表、集合、有序集合,它们的big体现在元素个数太多,元素个数大于5000就是bigkey。
反例:一个包含200万个元素的list。
非字符串的bigkey,不要使用del删除,使用hscan、sscan、zscan方式渐进式删除,同时要注意防止bigkey过期时间自动删除问题(例如一个200万的zset设置1小时过期,会触发del操作,造成阻塞)。

bigkey的危害:
1)导致redis阻塞
2)网络拥塞
bigkey也就意味着每次获取要产生的网络流量较大,假设一个bigkey为1MB,客户端每秒访问量为1000,那么每秒产生1000MB的流量,对于普通的千兆网卡(按照字节算是128MB/s)的服务器来说简直是灭顶之灾,而且一般服务器会采用单机多实例的方式来部署,也就是说一个bigkey可能会对其他实例也造成影响,其后果不堪设想。
3)过期删除
有个bigkey,它安分守己(只执行简单的命令,例如hget、lpop、zscore等),但它设置了过期时间,当它过期后,会被删除,如果没有使用Redis 4.0的过期异步删除lazyfree-lazy-expire yes,就会存在阻塞Redis的可能性。

bigkey的产生:
一般来说,bigkey的产生都是由于程序设计不当,或者对于数据规模预料不清楚造成的,来看几个例子:
1)社交类
粉丝列表,如果某些明星或者大v不精心设计,必是bigkey。
2)统计类
例如按天存储某项功能或者网站的用户集合,除非没几个人用,否则必是bigkey。
3)缓存类
将数据从数据库load出来序列化放到Redis里,这个方式非常常用,但有两个地方需要注意,第一,是不是有必要把所有字段都缓存;第二,有没有相关关联的数据,有的同学为了图方便把相关数据都存一个key下,产生bigkey。

bigkey优化:
1)拆
big list: list1、list2、…listN
big hash:可以讲数据分段存储,比如一个大的key,假设存了1百万的用户数据,可以拆分成200个key,每个key下面存放5000个用户数据。
2)不要一次性操作全部数据
如果bigkey不可避免,也要思考一下要不要每次把所有元素都取出来(例如有时候仅仅需要hmget,而不是hgetall),删除也是一样,尽量使用优雅的方式来处理。

  • 【推荐】选择合适的数据结构

比如存储一个对象及属性时,通过set而不是string设置多次,例如:

set user:1:name tom
set user:1:age 19
set user:1:favor football
改成:
hmset user:1 name tom age 19 favor football
  • 1
  • 2
  • 3
  • 4
  • 5
  • 【推荐】控制key的生命周期

redis不是垃圾桶,建议使用expire设置过期时间(条件允许可以打散过期时间,防止集中过期,从而导致缓存击穿)。

命令使用

  • 【推荐】 O(N)命令关注N的数量

例如hgetall、lrange、smembers、zrange、sinter等并非不能使用,但是需要明确N的值。有遍历的需求可以使用hscan、sscan、zscan代替。

  • 【推荐】禁用命令

禁止线上使用keys(一次性获取所有key)、flushall(清空整个redis实例数据)、flushdb(清空当前db的数据)等,通过redis的rename机制禁掉命令,或者使用scan的方式渐进式处理。

  • 【推荐】合理使用select

redis的多数据库较弱,使用数字进行区分,很多客户端支持较差,同时多业务用多数据库实际还是单线程处理,会有干扰。并发量大时,还是建议使用redis集群。

  • 【推荐】使用批量操作提高效率

注意控制一次批量操作的元素个数(例如500以内,实际也和元素字节数有关)。
1)原生命令
建议使用mget、mset,原生命令是原子操作。
2)非原生命令
可以使用pipeline提高效率,非原子操作。 pipeline需要客户端和服务端同时支持。

  • 【建议】Redis事务功能较弱,不建议过多使用,可以用lua替代

客户端使用

  • 【推荐】避免多个应用使用一个Redis实例

正例:不相干的业务拆分,公共数据做服务化。

  • 【推荐】使用带有连接池的数据库

使用带有连接池的数据库,可以有效控制连接,同时提高效率。
标准使用方式:

JedisPoolConfig jedisPoolConfig = new JedisPoolConfig();
jedisPoolConfig.setMaxTotal(5); // 最大连接数
jedisPoolConfig.setMaxIdle(2); // 最大存活数
jedisPoolConfig.setTestOnBorrow(true);

JedisPool jedisPool = new JedisPool(jedisPoolConfig, "127.0.0.1", 6379, 3000, null);

Jedis jedis = null;
try {
    jedis = jedisPool.getResource();
    // 具体的命令
    jedis.executeCommand()
} catch (Exception e) {
    logger.error("op key {} error: " + e.getMessage(), key, e);
} finally {
    // 注意这里不是关闭连接,在JedisPool模式下,Jedis会被归还给资源池。
    if (jedis != null) 
        jedis.close();
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19

连接池参数:

参数名含义默认值使用建议
maxTotal资源池中最大连接数8设置建议见下面
maxIdle资源池允许最大空闲的连接数8设置建议见下面
minIdle资源池确保最少空闲的连接数0设置建议见下面
blockWhenExhausted当资源池用尽后,调用者是否要等待。只有当为true时,下面的maxWaitMillis才会生效true建议使用默认值
maxWaitMillis当资源池连接用尽后,调用者的最大等待时间(单位为毫秒)-1:表示永不超时不建议使用默认值
testOnBorrow向资源池借用连接时是否做连接有效性检测(ping),无效连接会被移除false业务量很大时候建议设置为false(多一次ping的开销)。
testOnReturn向资源池归还连接时是否做连接有效性检测(ping),无效连接会被移除false业务量很大时候建议设置为false(多一次ping的开销)。
jmxEnabled是否开启jmx监控,可用于监控true建议开启,但应用本身也要开启

参数设置建议:

  1. maxTotal

最大连接数,早期的版本叫maxActive。
实际上这个是一个很难回答的问题,考虑的因素比较多:
1)业务希望Redis并发量
2)客户端执行命令时间
3)Redis资源:例如 nodes(例如应用个数) * maxTotal 是不能超过redis的最大连接数maxclients(单个redis实例允许的最大连接数)。
4)资源开销:例如虽然希望控制空闲连接(连接池此刻可马上使用的连接),但是不希望因为连接池的频繁释放创建连接造成不必靠开销。
以一个例子说明,假设:

一次命令时间(borrow|return resource + Jedis执行命令(含网络) )的平均耗时约为1ms,一个连接的QPS大约是1000;
业务期望的QPS是50000;

那么理论上需要的资源池大小是50000 / 1000 = 50个连接。但事实上这是个理论值,还要考虑到要比理论值预留一些资源,通常来讲maxTotal可以比理论值大一些。
但这个值不是越大越好,一方面连接太多占用客户端和服务端资源,另一方面对于Redis这种高QPS的服务器,一个大命令的阻塞即使设置再大资源池仍然会无济于事。

  1. maxIdle和minIdle

maxIdle实际上才是业务需要的最大连接数,maxTotal是为了给出余量,所以maxIdle不要设置过小,否则会有new Jedis(新连接)开销。
连接池的最佳性能是maxTotal = maxIdle,这样就避免连接池伸缩带来的性能干扰。但是如果并发量不大或者maxTotal设置过高,会导致不必要的连接资源浪费。一般推荐maxIdle可以设置为按上面的业务期望QPS计算出来的理论连接数,maxTotal可以再放大一倍。
minIdle(最小空闲连接数),与其说是最小空闲连接数,不如说是"至少需要保持的空闲连接数",在使用连接的过程中,如果连接数超过了minIdle,那么继续建立连接,如果超过了maxIdle,当超过的连接执行完业务后会慢慢被移出连接池释放掉。
如果系统启动完马上就会有很多的请求过来,那么可以给redis连接池做预热,比如快速的创建一些redis连接,执行简单命令,类似ping(),快速的将连接池里的空闲连接提升到minIdle的数量。
代码示例:

List<Jedis> minIdleJedisList = new ArrayList<Jedis>(jedisPoolConfig.getMinIdle());

for (int i = 0; i < jedisPoolConfig.getMinIdle(); i++) {
    Jedis jedis = null;
    try {
        jedis = pool.getResource();
        minIdleJedisList.add(jedis);
        jedis.ping();
    } catch (Exception e) {
        logger.error(e.getMessage(), e);
    } finally {
        // 注意,这里不能马上close将连接还回连接池,否则最后连接池里只会建立1个连接。
        // jedis.close();
    }
}
// 统一将预热的连接还回连接池
for (int i = 0; i < jedisPoolConfig.getMinIdle(); i++) {
    Jedis jedis = null;
    try {
        jedis = minIdleJedisList.get(i);
        // 将连接归还回连接池
        jedis.close();
    } catch (Exception e) {
        logger.error(e.getMessage(), e);
    } finally {
    }
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27

总之,要根据实际系统的QPS和调用redis客户端的规模整体评估每个节点所使用的连接池大小。

  • 【建议】高并发下建议客户端添加熔断功能(例如sentinel、hystrix)

  • 【推荐】设置合理的密码,如有必要可以使用SSL加密访问

  • 【建议】合理配置key过期清除策略,参考key过期清除策略详细说明

key过期清除策略

Redis对于过期键有三种清除策略:

  • 被动删除

当读/写一个已经过期的key时,会触发惰性删除策略,直接删除掉这个过期key。

  • 定期主动删除

由于惰性删除策略无法保证冷数据被及时删掉,所以Redis会定期(默认每100ms)主动淘汰一批已过期的key,这里的一批只是部分过期key,所以可能会出现部分key已经过期但还没有被清理掉的情况,导致内存并没有被释放。

  • 当前已用内存超过maxmemory限定时,触发主动清理策略

主动清理策略在Redis 4.0之前一共实现了6种内存淘汰策略,在4.0之后,又增加了2种策略,总共8种:
a) 针对设置了过期时间的key做处理:

volatile-ttl:在筛选时,会针对设置了过期时间的键值对,根据过期时间的先后进行删除,越早过期的越先被删除。
volatile-random:就像它的名称一样,在设置了过期时间的键值对中,进行随机删除。
volatile-lru:会使用 LRU 算法筛选设置了过期时间的键值对删除。
volatile-lfu:会使用 LFU 算法筛选设置了过期时间的键值对删除。

b) 针对所有的key做处理:

allkeys-random:从所有键值对中随机选择并删除数据。
allkeys-lru:使用 LRU 算法在所有数据中进行筛选删除。
allkeys-lfu:使用 LFU 算法在所有数据中进行筛选删除。

c) 不处理:

noeviction:不会剔除任何数据,拒绝所有写入操作并返回客户端错误信息(error) OOM command not allowed when used memory,此时Redis只响应读操作。

LRU 算法(Least Recently Used,最近最少使用):
强调时效。淘汰很久没被访问过的数据,以最近一次访问时间作为参考。

LFU 算法(Least Frequently Used,最不经常使用):
强调使用频率。淘汰最近一段时间被访问次数最少的数据,以次数作为参考。

当存在热点数据时,LRU的效率很好,但偶发性的、周期性的批量操作会导致LRU命中率急剧下降,缓存污染情况比较严重。这时使用LFU可能更好点。

根据自身业务类型,配置好maxmemory-policy(默认是noeviction),推荐使用volatile-lru。如果不设置最大内存,当 Redis 内存超出物理内存限制时,内存的数据会开始和磁盘产生频繁的交换 (swap),会让 Redis 的性能急剧下降。
当Redis运行在主从模式时,只有主结点才会执行过期删除策略,然后把删除操作”del key”同步到从结点删除数据。

系统内核参数优化

  • vm.swapiness

swap对于操作系统来说比较重要,当物理内存不足时,可以将一部分内存页进行swap到硬盘上,以解燃眉之急。但世界上没有免费午餐,swap空间由硬盘提供,对于需要高并发、高吞吐的应用来说,磁盘IO通常会成为系统瓶颈。在Linux中,并不是要等到所有物理内存都使用完才会使用到swap,系统参数swppiness会决定操作系统使用swap的倾向程度。swappiness的取值范围是0~100,swappiness的值越大,说明操作系统可能使用swap的概率越高,swappiness值越低,表示操作系统更加倾向于使用物理内存。swappiness的取值越大,说明操作系统可能使用swap的概率越高,越低则越倾向于使用物理内存。

如果linux内核版本<3.5,那么swapiness设置为0,这样系统宁愿swap也不会oom killer(杀掉进程)
如果linux内核版本>=3.5,那么swapiness设置为1,这样系统宁愿swap也不会oom killer

一般需要保证redis不会被kill掉:

cat /proc/version  # 查看linux内核版本
echo 1 > /proc/sys/vm/swappiness
echo vm.swapiness=1 >> /etc/sysctl.conf
  • 1
  • 2
  • 3

OOM killer 机制是指Linux操作系统发现可用内存不足时,强制杀死一些用户进程(非内核进程),来保证系统有足够的可用内存进行分配。

  • vm.overcommit_memory(默认0)

0:表示内核将检查是否有足够的可用物理内存(实际不一定用满)供应用进程使用。如果有足够的可用物理内存,内存申请允许。否则,内存申请失败,并把错误返回给应用进程 。
1:表示内核允许分配所有的物理内存,而不管当前的内存状态如何。

如果是0的话,可能导致类似fork等操作执行失败,申请不到足够的内存空间。
Redis建议把这个值设置为1,就是为了让fork操作能够在低内存下也执行成功。

cat /proc/sys/vm/overcommit_memory
echo "vm.overcommit_memory=1" >> /etc/sysctl.conf
sysctl vm.overcommit_memory=1
  • 1
  • 2
  • 3

合理设置文件句柄数

操作系统进程试图打开一个文件(或者叫句柄),但是现在进程打开的句柄数已经达到了上限,继续打开会报错:Too many open files

ulimit -a  # 查看系统文件句柄数,看open files那项
ulimit -n 65535  # 设置系统文件句柄数
  • 1
  • 2

Redis慢日志

Redis慢日志命令说明:
config get slow* # 查询有关慢日志的配置信息
config set slowlog-log-slower-than 20000  # 设置慢日志使时间阈值,单位微秒,此处为20毫秒,即超过20毫秒的操作都会记录下来,生产环境建议设置1000,也就是1ms,这样理论上redis并发至少达到1000,如果要求单机并发达到1万以上,这个值可以设置为100
config set slowlog-max-len 1024  # 设置慢日志记录保存数量,如果保存数量已满,会删除最早的记录,最新的记录追加进来。记录慢查询日志时Redis会对长命令做截断操作,并不会占用大量内存,建议设置稍大些,防止丢失日志
config rewrite # 将服务器当前所使用的配置保存到redis.conf
slowlog len # 获取慢查询日志列表的当前长度
slowlog get 5 # 获取最新的5条慢查询日志。慢查询日志由四个属性组成:标识ID,发生时间戳,命令耗时,执行命令和参数
slowlog reset # 重置慢查询日志
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

Redis高性能

redis单线程理解

Redis 的单线程主要是指 Redis 的网络 IO 和键值对读写是由一个线程来完成的,这也是 Redis 对外提供键值存储服务的主要流程。但 Redis 的其他功能,比如持久化、异步删除、集群数据同步等,其实是由额外的线程执行的。

  • Redis 单线程为什么还能这么快?

因为它所有的数据都在内存中,所有的运算都是内存级别的运算,而且单线程避免了多线程的切换性能损耗问题。正因为 Redis 是单线程,所以要小心使用 Redis 指令,对于那些耗时的指令(比如keys),一定要谨慎使用,一不小心就可能会导致 Redis 卡顿。

  • Redis 单线程如何处理那么多的并发客户端连接?

Redis的IO多路复用:redis利用epoll来实现IO多路复用,将连接信息和事件放到队列中,依次放到文件事件分派器,事件分派器将事件分发给事件处理器。

# 查看redis支持的最大连接数,在redis.conf文件中可修改,# maxclients 10000
127.0.0.1:6379> CONFIG GET maxclients
1) "maxclients"
2) "10000"
  • 1
  • 2
  • 3
  • 4

Redis与Memcached比较

redismemcached
是否基于内存
值类型string set hash list …string
数据持久
过期策略
性能
是否支持虚拟内存
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小丑西瓜9/article/detail/389633
推荐阅读
相关标签
  

闽ICP备14008679号