赞
踩
有时候需要从 Redis 实例成千上万的 key 中找出特定前缀的 key 列表来手动处理数据,可能是修改它的值,也可能是删除 key。这里就有一个问题,如何从海量的 key 中找出满足特定前缀的 key 列表来?
Redis 提供了一个简单暴力的指令 keys 用来列出所有满足特定正则字符串规则的 key。
!redis-cli keys key67*
1) "key6764"
2) "key6738"
3) "key6774"
4) "key673"
5) "key6710"
6) "key6759"
7) "key6715"
8) "key6746"
9) "key6796"
这个指令使用非常简单,提供一个简单的正则字符串即可,但是有很明显的两个缺点。 没有 offset、limit 参数,一次性吐出所有满足条件的 key,万一实例中有几百 w 个 key 满足条件, 当你看到满屏的字符串刷的没有尽头时,你就知道难受了。
keys 算法是遍历算法,复杂度是 O(n),如果实例中有千万级以上的 key,这个指令就会导致 Redis 服务卡顿, 所有读写 Redis 的其它的指令都会被延后甚至会超时报错, 因为 Redis 是单线程程序,顺序执行所有指令,其它指令必须等到当前的 keys 指令执行完了才可以继续。
建议生产环境屏蔽 keys 命令
Redis 为了解决这个问题,它在 2.8 版本中加入了指令——scan。
scan 相比 keys 具备有以下特点:
SCAN cursor [MATCH pattern] [COUNT count]
初始执行 scan 命令例如 scan 0。SCAN 命令是一个基于游标的迭代器。 这意味着命令每次被调用都需要使用上一次这个调用返回的游标作为该次调用的游标参数,以此来延续之前的迭代过程。
当 SCAN 命令的游标参数被设置为 0 时,服务器将开始一次新的迭代,而当 redis 服务器向用户返回值为 0 的游标时, 表示迭代已结束,这是唯一迭代结束的判定方式,而不能通过返回结果集是否为空判断迭代结束。
scan 参数提供了三个参数,第一个是 cursor 整数值,第二个是 key 的正则模式,第三个是遍历的 limit hint。
第一次遍历时,cursor 值为 0,然后将返回结果中第一个整数值作为下一次遍历的 cursor。 一直遍历到返回的 cursor 值为 0 时结束。
!redis-cli scan 0 match key99* count 1000
1) "13912" # 返回的游标
2) 1) "key997"
2) "key9906"
3) "key9957"
4) "key9902"
5) "key9971"
6) "key9935"
7) "key9958"
8) "key9928"
9) "key9931"
10) "key9961"
11) "key9948"
12) "key9965"
13) "key9937"
!redis-cli scan 13912 match key99* count 1000
1) "5292" # 返回的游标
2) 1) "key996"
2) "key9960"
3) "key9973"
4) "key9978"
5) "key9927"
6) "key995"
7) "key9992"
8) "key9993"
9) "key9964"
10) "key9934"
返回结果分为两个部分:第一部分即 1) 就是下一次迭代游标,第二部分即 2) 就是本次迭代结果集。
从上面的过程可以看到虽然提供的 limit 是 1000,但是返回的结果只有 10 个左右。 因为这个 limit 不是限定返回结果的数量,而是限定服务器单次遍历的字典槽位数量(约等于)。 如果将 limit 设置为 10,你会发现返回结果是空的,但是游标值不为零,意味着遍历还没结束。
如下:
!redis-cli scan 0 match key99* count 10
1) "15360"
2) (empty list or set)
!redis-cli scan 15360 match key99* count 10
1) "2304"
2) (empty list or set)
注意点:
SSCAN 命令、 HSCAN 命令和 ZSCAN 命令的第一个参数总是一个数据库键。 而 SCAN 命令则不需要在第一个参数提供任何数据库键 —— 因为它迭代的是当前数据库中的所有数据库键。
有时候会因为业务人员使用不当,在 Redis 实例中会形成很大的对象,比如一个很大的 hash,一个很大的 zset 这都是经常出现的。
这样的对象对 Redis 的集群数据迁移带来了很大的问题,因为在集群环境下,如果某个 key 太大,会让数据导致迁移卡顿。 另外在内存分配上,如果一个 key 太大,那么当它需要扩容时,会一次性申请更大的一块内存,这也会导致卡顿。 如果这个大 key 被删除,内存会一次性回收,卡顿现象会再一次产生。
在平时的业务开发中,要尽量避免大 key 的产生。 如果你观察到 Redis 的内存大起大落,这极有可能是因为大 key 导致的,这时候你就需要定位出具体是那个 key, 进一步定位出具体的业务来源,然后再改进相关业务代码设计。
为了避免对线上 Redis 带来卡顿,这就要用到 scan 指令,对于扫描出来的每一个 key,使用 type 指令获得 key 的类型, 然后使用相应数据结构的 size 或者 len 方法来得到它的大小,对于每一种类型,保留大小的前 N 名作为扫描结果展示出来。
上面这样的过程需要编写脚本,比较繁琐,不过 Redis 官方已经在 redis-cli 指令中提供了这样的扫描功能,我们可以直接拿来即用。
!redis-cli --bigkeys
# Scanning the entire keyspace to find biggest keys as well as
# average sizes per key type. You can use -i 0.1 to sleep 0.1 sec
# per 100 SCAN commands (not usually needed).
[00.00%] Biggest string found so far 'key316' with 3 bytes
[00.00%] Biggest string found so far 'key7806' with 4 bytes
[12.79%] Biggest zset found so far 'salary' with 1 members
[13.19%] Biggest string found so far 'counter:__rand_int__' with 6 bytes
[13.50%] Biggest hash found so far 'websit' with 2 fields
[14.37%] Biggest set found so far 'bbs' with 3 members
[14.67%] Biggest hash found so far 'website' with 3 fields
[30.41%] Biggest list found so far 'mylist' with 100000 items
[95.53%] Biggest zset found so far 'page_rank' with 3 members
-------- summary -------
Sampled 10019 keys in the keyspace!
Total key length in bytes is 68990 (avg len 6.89)
Biggest string found 'counter:__rand_int__' has 6 bytes
Biggest list found 'mylist' has 100000 items
Biggest set found 'bbs' has 3 members
Biggest hash found 'website' has 3 fields
Biggest zset found 'page_rank' has 3 members
10011 strings with 38919 bytes (99.92% of keys, avg size 3.89)
3 lists with 100003 items (00.03% of keys, avg size 33334.33)
1 sets with 3 members (00.01% of keys, avg size 3.00)
2 hashs with 5 fields (00.02% of keys, avg size 2.50)
2 zsets with 4 members (00.02% of keys, avg size 2.00)
如果你担心这个指令会大幅抬升 Redis 的 ops 导致线上报警,还可以增加一个休眠参数。
!redis-cli --bigkeys -i 0.1
# Scanning the entire keyspace to find biggest keys as well as
# average sizes per key type. You can use -i 0.1 to sleep 0.1 sec
# per 100 SCAN commands (not usually needed).
[00.00%] Biggest string found so far 'key316' with 3 bytes
[00.00%] Biggest string found so far 'key7806' with 4 bytes
[12.79%] Biggest zset found so far 'salary' with 1 members
[13.19%] Biggest string found so far 'counter:__rand_int__' with 6 bytes
[13.50%] Biggest hash found so far 'websit' with 2 fields
[14.37%] Biggest set found so far 'bbs' with 3 members
[14.67%] Biggest hash found so far 'website' with 3 fields
[30.41%] Biggest list found so far 'mylist' with 100000 items
[95.53%] Biggest zset found so far 'page_rank' with 3 members
-------- summary -------
Sampled 10019 keys in the keyspace!
Total key length in bytes is 68990 (avg len 6.89)
Biggest string found 'counter:__rand_int__' has 6 bytes
Biggest list found 'mylist' has 100000 items
Biggest set found 'bbs' has 3 members
Biggest hash found 'website' has 3 fields
Biggest zset found 'page_rank' has 3 members
10011 strings with 38919 bytes (99.92% of keys, avg size 3.89)
3 lists with 100003 items (00.03% of keys, avg size 33334.33)
1 sets with 3 members (00.01% of keys, avg size 3.00)
2 hashs with 5 fields (00.02% of keys, avg size 2.50)
2 zsets with 4 members (00.02% of keys, avg size 2.00)
上面这个指令每隔 100 条 scan 指令就会休眠 0.1s,ops 就不会剧烈抬升,但是扫描的时间会变长。
需要注意的是,这个 bigkeys 得到的最大,不一定是最大。
说明原因前,首先说明 bigkeys 的原理,非常简单,通过 scan 命令遍历,各种不同数据结构的 key,分别通过不同的命令得到最大的 key:
如果是 string 结构,通过 strlen 判断;
如果是 list 结构,通过 llen 判断;
如果是 hash 结构,通过 hlen 判断;
如果是 set 结构,通过 scard 判断;
如果是 sorted set 结构,通过 zcard 判断。
正因为这样的判断方式,虽然 string 结构肯定可以正确的筛选出最占用缓存,也可以说最大的 key。
但是 list 不一定,例如,现在有两个 list 类型的 key,分别是:numberlist–[0,1,2]
,stringlist–[“123456789123456789”]
, 由于通过 llen 判断,所以 numberlist 要大于 stringlist。 而事实上 stringlist 更占用内存。其他三种数据结构 hash,set,sorted set 都会存在这个问题。 使用 bigkeys 一定要注意这一点。
上面提到不能使用 keys 命令,如果就有开发这么做了呢,我们如何得知? 与其他任意存储系统例如 mysql,mongodb 可以查看慢日志一样,redis 也可以,即通过命令 slowlog。
用法如下
SLOWLOG subcommand [argument]
subcommand 主要有:
get,用法:slowlog get [argument],获取 argument 参数指定数量的慢日志。
len,用法:slowlog len,总慢日志数量。
reset,用法:slowlog reset,清空慢日志。
!redis-cli slowlog get 5
1) 1) (integer) 2
2) (integer) 1537786953
3) (integer) 17980
4) 1) "scan"
2) "0"
3) "match"
4) "key99*"
5) "count"
6) "1000"
5) "127.0.0.1:50129"
6) ""
2) 1) (integer) 1
2) (integer) 1537785886
3) (integer) 39537
4) 1) "keys"
2) "*"
5) "127.0.0.1:49701"
6) ""
3) 1) (integer) 0
2) (integer) 1537681701
3) (integer) 18276
4) 1) "ZADD"
2) "page_rank"
3) "10"
4) "google.com"
5) "127.0.0.1:52334"
6) ""
命令耗时超过多少才会保存到 slowlog 中,可以通过命令 config set slowlog-log-slower-than 2000
配置并且不需要重启 redis。 注意:单位是微妙,2000 微妙即 2 毫秒。
为了防止把问题带到生产环境,我们可以通过配置文件重命名一些危险命令,
例如 keys 等一些高危命令。操作非常简单,
只需要在 conf 配置文件增加如下所示配置即可:
rename-command flushdb flushddbb
rename-command flushall flushallall
rename-command keys keysys
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。