赞
踩
目录
1.使用redis-trib.rb工具准备加入新节点并加入集群
分布式数据库首先要解决把整个数据集按照分区规则映射到多个节点的问题,即把数据划分到多个节点上,每个节点负责整体数据的一个子集。重点关注与解决的主要是数据分区规则,常见的分区规则则有哈希分区和顺序分区两种,分布式存储数据分区如下图:
哈希分区与顺序分区的主要对比如下表:
分区方式 | 特点 | 代表产品 |
哈希分区 | 离散度好 | Redis Cluster |
数据分区与业务无关 | Cassandra | |
无法顺序访问 | Dynamo | |
顺序分区 | 离散度容易倾斜 | Bigtable |
数据分布业务相关 | HBase | |
可顺序访问 | Hypertable |
由表可见Redis Cluster采用的是哈希分区,可行方法主要有以下三种方案,综合考虑,Redis Cluster采用的是虚拟槽分区方案。
实现思路
使用特定的数据(Redis的健或用户ID),根据节点数量N使用公式计算哈希值:hash(key)%N,决定数据映射到某一节点。
优点
简单,常用于数据库的分库分表规则,一般采用预分区的方式,提前根据数据量规划好分区数(eg划分为512或1024张表),保证可支撑未来一段时间的数据量,在根据负载情况将表迁移到其他数据库中。要求扩容时采用范培扩容,避免数据映射全部被打乱导致全量迁移的情况。
缺点
当节点数量变化时,即扩容或缩容节点时,数据节点映射关系需要重新计算,会导致数据的重新迁移。
具体分析案例如下图:
解决方案:翻倍扩容可以使数据迁移从80%降到50%
实现思路
为系统的每个节点分配一个token,范围一般在0 ~ ,这些toke构成一个哈希环,数据读写执行节点查找操作时,先根据key计算hash值,然后顺时针找到第一个大于等于该哈希值的token节点。
优点
加入和删除节点只影响哈希环中相邻的节点。
缺点
实现思路
虚拟分槽使用良好的哈希函数把所有数据映射到一个固定范围(这个范围远远大于节点数,比如redisCluster槽的范围是0~16383)的整数集合中,整数定义为槽(slot)。槽是集群内数据管理和迁移的基本单位。使用大范围槽的主要目的是为了方便数据拆分和集群扩展,要求每一个节点负责维护一部分槽以及所映射的键值数据。
基本计算公式为:slot=CRC16(key)&16383,具体如下图:
优点
缺点:也就是集群功能限制的地方
在分布式存储中需要提供维护节点元数据信息的机制,所谓元数据是指:节点负责哪些数据,是否出现故障等状态信息。
常见的元数据维护方式分为:集中式和P2P方式。
Redis集群采用P2P的Gossip(流言)协议,Gossip协议工作原理就是节点彼此不断通信交换信息,一段时间后所有的节点都会知道集群完整的信息,这种方式类似流言传播。
Gossip协议的主要职责就是信息交换。信息交换的载体就是节点彼此发送的Gossip消息,常用的Gossip消息可分为:ping消息、pong消息、meet消息、fail消息。
消息格式划分:(具体源码可自行查看)
接收节点收到ping/meet消息时,执行解析消息头和消息体流程:
消息头包含了发送节点的信息,如果发送节点是新 节点且消息是meet类型,则加入到本地节点列表;如果是已知节点,则尝试更新发送节点的状态,如槽映射关系、主从角色等状态。
如果消息体的clusterMsgDataGossip数组包含的节点是新节点,则尝试发起与新节点的meet握手流程;如果是已知节点,则根据 cluster MsgDataGossip中的flags字段判断该节点是否下线,用于故障转移。
消息处理完后回复pong消息,内容同样包含消息头和消息体,发送节点接收到回复的pong消息后,采用类似的流程解析处理消息并更新与接收节点最后通信时间,完成一次消息通信。
Redis集群的Gossip协议需要兼顾信息交换实时性和成本开销,通信节点选择的规则如图所示:
根据通信节点选择的流程可以看出消息交换的成本主要体现在单位时间选择发送消息的节点数量和每个消息携带的数据量。
选择发送消息的节点数量:
消息数据量:
集群中每个节点通过一定规则挑选要通信的节点,每个节点可能知道全部节点,也可能仅知道部分节点,只要这些节点彼此可以正常通信,最终它们会达到一致的状态。当节点出故障、新节点加入、主从角色变化、槽信息变更等事件发生时,通过不断的ping/pong消息通信,经过一段时间后所有的节点都会知道整个集群全部节点的最新状态,从而达到集群状态同步的目的。
搭建集群工作需要基本的三步:准备节点--节点握手--分配槽。其基本的手动搭建可自行了解
采用的Vmware pro 12虚拟机,创建一个centos7最小化版本节点,在上面安装redis-4.0.6,再复制两个redis实例。然后通过vmware克隆一个新的节点。从而保证三主三从共6个redis实例。
1.在每台centos机器的/usr/local文件夹下创建redis-cluster文件夹作为redis集群根目录
#cd /usr/local && mkdir redis-cluster
2.在redis-cluster文件夹下安装3个redis实例,主要是将源码包里的redis.conf拷贝过来,修改几个参数,如下
- port 7000 //自定义每个redis实例端口如7000~7006
- protected-mode no //默认保护模式yes,修改为no
- #bind 127.0.0.1 //默认安全保护,只能访问本机
- daemonize yes //redis后台运行
- cluster-enabled yes //开启集群 把注释#去掉
- #下面项实验时未进行设置
- pidfile ./redis_7000.pid //pidfile文件对应7000,7001,7002
- cluster-config-file nodes_7000.conf //集群的配置 配置文件首次启动自动生成 7000,7001,7002
- cluster-node-timeout 15000 //请求超时 默认15秒,可自行设置
- appendonly yes //aof日志开启 有需要就开启,它会每次写操作都记录一条日志
3.将源码包里的ruby脚本redis-trib.rb拷贝到redis-cluster文件夹下
#cp redis-trib.rb /usr/local/redis-cluster/
4.安装ruby环境
- #yum -y install ruby ruby-devel rubygems rpm-build
- #gem install redis
5.启动每个redis实例
- #redis-server redis.conf
- ps 检查进程: ps -ef|grep redis
6.执行ruby脚本
#redis-trib.rb create --replicas 1 192.168.1.80:7000 192.168.1.80:7001 192.168.1.80:7002 192.168.1.81:7003 192.168.1.81:7004 192.168.1.81:7005
Redis 集群中内置了 16384 个哈希槽,当需要在 Redis 集群中放置一个 key-value 时,redis 先对 key 使用 crc16 算法算出一个结果,然后把结果对 16384 求余数,这样每个 key 都会对应一个编号在 0-16383 之间的哈希槽,redis 会根据节点数量大致均等的将哈希槽映射到不同的节点。
1.创建集群
- #redis-trib.rb create --replicas 1 192.168.1.80:7000 192.168.1.80:7001 192.168.1.80:7002 192.168.1.81:7003 192.168.1.81:7004 192.168.1.81:7005
- 其中:create //表示创建集群功能
- --replicas 1 //表示为每个主节点自动分配一个从节点.也就是自动分配三个主节点和三个从节点.
2.查看集群状态 :登录客户端 redis-cli -p 7002(可以任意一个)
#cluster info
3.查看集群节点信息 :登录客户端 redis-cli -p 7002(可以任意一个)
#cluster nodes
4.检查集群状态
#redis-cli -c -p 7002 cluster nodes
5.增加redis节点
1) 创建两个实例目录,一个实例做为新节点的主实例,一个实例做为新节点的从实例
2)修改相应的redis.conf,修改端口等信息
3)启动这两个实例
4)增加节点
- #redis-trib.rb add-node 192.168.1.81:7007 192.168.1.80:7001
- PS:这个IP:PORT可以是集群里边儿任意一个主节点的IP和端口
-
- #redis-cli -c -p 7002 cluster nodes
- 36d53c7f1896838249c0b4afdcf680bac2f4ec2e 192.168.1.81:7007 master - 0 1463476564369 0 connected
发现7007这个实例已经做为主节点加到集群里边儿来了.
5)7008做为7007的从节点也加入到集群里边儿来, 注意记住7007这个主节点的节点id.从节点加入到集群的时候要用到.
#redis-trib.rb add-node --slave --master-id 36d53c7f1896838249c0b4afdcf680bac2f4ec2e 192.168.1.81:7008 192.168.1.80:7001
6)重新分片
- #redis-trib.rb reshard 192.168.1.80:7001
- //PS: 这条命令是交互的,按照提示操作即可.
- How many slots do you want to move (from 1 to 16384)?4096 //输入一个数,这个4096表示迁移多少个slots数
- What is the receiving node ID? 36d53c7f1896838249c0b4afdcf680bac2f4ec2e //输入目标节点ID,表示迁移到哪个目标节点
- Please enter all the source node IDs.
- Type 'all' to use all the nodes as source nodes for the hash slots.
- Type 'done' once you entered all the source nodes IDs.
- Source node #1:all //输入all表示从老的所有节点进行重分配,凑够4096个slots给到新节点.
- 也可以输入源节点id, 可以输入多个源节点id,最后输入done.就开始从你输入的源节点id的节点进行迁移了.
6.删除redis节点(主节点 7001)
首先必须确保这个节点没有拥有任何一个slots
1)查看集群节点信息
- #redis-cli -c -p 7002 cluster nodes
- a2eee0ea546f2c3701b08981737c07938039857c 192.168.1.80:7001 master - 0 1463477001334 1 connected 1365-5460
2)重新分片
- #redis-trib.rb reshard 192.168.1.80:7001
- How many slots do you want to move (from 1 to 16384)?16384 //输入一个大于或等于7001节点所拥有的slots数的数即可.
- What is the receiving node ID? 8ab3d14eba181c06dc8826bea0db1becdead2533 //接收这些slots的目标节点,这里是7002节点
- Please enter all the source node IDs.
- Type 'all' to use all the nodes as source nodes for the hash slots.
- Type 'done' once you entered all the source nodes IDs.
- Source node #1:a2eee0ea546f2c3701b08981737c07938039857c //因为我们要删除7001这个节点,所以源节点的id就是7001的节点ID
- Source node #2:done //输入done,回车,就会开始从7001 这个节点迁移16384个slot(没有这么多就迁移拥有的全部)到7002节点中去.
再看各个节点的状态
- #redis-cli -c -p 7002 cluster nodes
- a2eee0ea546f2c3701b08981737c07938039857c 192.168.1.80:7001 master - 0 1463477349186 1 connected
-
- #redis-trib.rb del-node 192.168.1.80:7002 a2eee0ea546f2c3701b08981737c07938039857c
- ps: 这个主节点被删除之后,它之前拥有的从节点会自动成为其他主节点的从节点
理解集群的水平伸缩的上层原理:集群伸缩=槽和数据在节点之间的移动。
Redis 集群提供了灵活的节点扩容和收缩方案。在不影响集群对外服务的情况下,可以为集群添加节点进行扩容也可以下线部分节点进行缩容,对节点进行灵活上下线控制,原理可抽象为槽和对应数据在不同节点之间灵活移动。
以下图为例,三个主节点分别维护自己负责的槽和对应的数据,如果希望加入1个节点实现集群扩容时,需要通过相关命令把一部分槽和数据迁移给新节点,图中每个节点把一部分槽和数据迁移到新的节点6385,每个节点负责的槽和数据相比之前变少了从而达到了集群扩容的目的。
Redis 集群扩容操作可分为以下步骤:准备新节点-->加入集群-->迁移槽和数据。
redis-trib.rb工具也实现了为现有集群添加新节点的命令,还实现了直接添加为从节点的支持,命令如下:
- #redis-trib.rb add-node new_host:new_port existing_host:existing_port --slave
- --master-id <arg>
其内部同样采用cluster meet命令实现加入集群功能。加入集群操作可以采用如下命令实现新节点加入:
- #redis-trib.rb add-node 127.0.0.1:6385 127.0.0.1:6379
- #redis-trib.rb add-node 127.0.0.1:6386 127.0.0.1:6379
其原理基本如下:
加入集群后需要为新节点迁移槽和相关数据,槽在迁移过程中集群可以正常提供读写服务,迁移过程是集群扩容最核心的环节,下面详细讲解。
槽迁移计划
槽是Redis集群管理数据的基本单位,首先需要为新节点制定槽的迁移计划,确定原有节点的哪些槽需要迁移到新节点。迁移计划需要确保每个节点负责相似数量的槽,从而保证各节点的数据均匀。
例如,在集群中加入6385节点,如下图所示(新节点加入的槽迁移计划)。加入6385节点后,原有节点负责的槽数量从6380变为4096个。槽迁移计划确定后开始逐个把槽内数据从源节点迁移到目标节点,如下图所示(槽和数据迁移到6385节点)。
迁移数据
数据迁移过程是逐个槽进行的,其槽和数据迁移流程及伪代码模拟迁移过程如下图:
每个槽数据迁移的流程如下:
redis-trib提供了槽重分片功能,命令如下:
- redis-trib.rb reshard host:port --from <arg> --to <arg> --slots <arg> --yes --timeout
- <arg> --pipeline <arg>
参数说明:
reshard命令简化了数据迁移的工作量,其内部针对每个槽的数据迁移同样使用之前的流程。我们已经为新节点6395迁移了一个槽4096,剩下的槽数据迁移使用redis-trib.rb完成,命令如下:
- #redis-trib.rb reshard 127.0.0.1:6379
- >>> Performing Cluster Check (using node 127.0.0.1:6379)
- M: cfb28ef1deee4e0fa78da86abe5d24566744411e 127.0.0.1:6379
- slots:0-4095,4097-5461 (5461 slots) master
- 1 additional replica(s)
- M: 40b8d09d44294d2e23c7c768efc8fcd153446746 127.0.0.1:6381
- slots:10923-16383 (5461 slots) master
- 1 additional replica(s)
- M: 8e41673d59c9568aa9d29fb174ce733345b3e8f1 127.0.0.1:6380
- slots:5462-10922 (5461 slots) master
- 1 additional replica(s)
- M: 1a205dd8b2819a00dd1e8b6be40a8e2abe77b756 127.0.0.1:6385
- slots:4096 (1 slots) master
- 0 additional replica(s)
- // ...
- [OK] All nodes agree about slots configuration.
- >>> Check for open slots...
- >>> Check slots coverage...
- [OK] All 16384 slots covered.
打印出集群每个节点信息后,reshard命令需要确认迁移的槽数量,这里我们输入4096个:
How many slots do you want to move (from 1 to 16384)4096
输入6385的节点ID作为目标节点,目标节点只能指定一个:
What is the receiving node ID 1a205dd8b2819a00dd1e8b6be40a8e2abe77b756
之后输入源节点的ID,这里分别输入节点6379、6380、6381三个节点ID最后用done表示结束:
- Please enter all the source node IDs.
- Type 'all' to use all the nodes as source nodes for the hash slots.
- Type 'done' once you entered all the source nodes IDs.
- Source node #1:cfb28ef1deee4e0fa78da86abe5d24566744411e
- Source node #2:8e41673d59c9568aa9d29fb174ce733345b3e8f1
- Source node #3:40b8d09d44294d2e23c7c768efc8fcd153446746
- Source node #4:done
数据迁移之前会打印出所有的槽从源节点到目标节点的计划,确认计划无误后输入yes执行迁移工作:
- Moving slot 0 from cfb28ef1deee4e0fa78da86abe5d24566744411e
- ....
- Moving slot 1365 from cfb28ef1deee4e0fa78da86abe5d24566744411e
- Moving slot 5462 from 8e41673d59c9568aa9d29fb174ce733345b3e8f1
- ...
- Moving slot 6826 from 8e41673d59c9568aa9d29fb174ce733345b3e8f1
- Moving slot 10923 from 40b8d09d44294d2e23c7c768efc8fcd153446746
- ...
- Moving slot 12287 from 40b8d09d44294d2e23c7c768efc8fcd153446746
- Do you want to proceed with the proposed reshard plan (yes/no) yes
redis-trib工具会打印出每个槽迁移的进度,如下:
- Moving slot 0 from 127.0.0.1:6379 to 127.0.0.1:6385 ....
- ....
- Moving slot 1365 from 127.0.0.1:6379 to 127.0.0.1:6385 ..
- Moving slot 5462 from 127.0.0.1:6380 to 127.0.0.1:6385: ....
- ....
- Moving slot 6826 from 127.0.0.1:6380 to 127.0.0.1:6385 ..
- Moving slot 10923 from 127.0.0.1:6381 to 127.0.0.1:6385 ..
- ...
- Moving slot 10923 from 127.0.0.1:6381 to 127.0.0.1:6385 ..
当所有的槽迁移完成后,reshard命令自动退出,执行cluster nodes命令检查节点和槽映射的变化,如下所示:
- 127.0.0.1:6379>cluster nodes
- 40622f9e7adc8ebd77fca0de9edfe691cb8a74fb 127.0.0.1:6382 slave cfb28ef1deee4e0fa
- 78da86abe5d24566744411e 0 1469779084518 3 connected
- 40b8d09d44294d2e23c7c768efc8fcd153446746 127.0.0.1:6381 master - 0
- 1469779085528 2 connected 12288-16383
- 4fa7eac4080f0b667ffeab9b87841da49b84a6e4 127.0.0.1:6384 slave 40b8d09d44294d2e2
- 3c7c768efc8fcd153446746 0 1469779087544 5 connected
- be9485a6a729fc98c5151374bc30277e89a461d8 127.0.0.1:6383 slave 8e41673d59c9568aa
- 9d29fb174ce733345b3e8f1 0 1469779088552 4 connected
- cfb28ef1deee4e0fa78da86abe5d24566744411e 127.0.0.1:6379 myself,master - 0 0 0
- connected 1366-4095 4097-5461
- 475528b1bcf8e74d227104a6cf1bf70f00c24aae 127.0.0.1:6386 master - 0
- 1469779086536 8 connected
- 8e41673d59c9568aa9d29fb174ce733345b3e8f1 127.0.0.1:6380 master - 0
- 1469779085528 1 connected 6827-10922
- 1a205dd8b2819a00dd1e8b6be40a8e2abe77b756 127.0.0.1:6385 master - 0
- 1469779083513 9 connected 0-1365 4096 5462-6826 10923-12287
点6385负责的槽变为:0-136540965462-682610923-12287。由于槽用于hash 运算本身顺序没有意义,因此无须强制要求节点负责槽的顺序性。迁移之后建议使用redis-trib.rb rebalance命令检查节点之间槽的均衡性。命令如下:
- # redis-trib.rb rebalance 127.0.0.1:6380
- >>> Performing Cluster Check (using node 127.0.0.1:6380)
- [OK] All nodes agree about slots configuration.
- >>> Check for open slots...
- >>> Check slots coverage...
- [OK] All 16384 slots covered.
- *** No rebalancing needed! All nodes are within the 2.0% threshold.
可以看出迁移之后所有主节点负责的槽数量差异在2%以内,因此集群节点数据相对均匀,无需调整。
扩容之初我们把6385、6386节点加入到集群,节点6385迁移了部分槽和数据作为主节点,但相比其他主节点目前还没有从节点,因此该节点不具备故障转移的能力。
这时需要把节点6386作为6385的从节点,从而保证整个集群的高可用。使用cluster replicate {masterNodeId}命令为主节点添加对应从节点,注意在集群模式下slaveof添加从节点操作不再支持。如下所示:
127.0.0.1:6386>cluster replicate 1a205dd8b2819a00dd1e8b6be40a8e2abe77b756
从节点内部除了对主节点发起全量复制之外,还需要更新本地节点的集群相关状态,查看节点6386状态确认已经变成6385节点的从节点:
- 127.0.0.1:6386>cluster nodes
- 475528b1bcf8e74d227104a6cf1bf70f00c24aae 127.0.0.1:6386 myself,slave 1a205dd8b2
- 819a00dd1e8b6be40a8e2abe77b756 0 0 8 connected
- 1a205dd8b2819a00dd1e8b6be40a8e2abe77b756 127.0.0.1:6385 master - 0 1469779083513 9
- connected 0-1365 4096 5462-6826 10923-12287
- ...
到此整个集群扩容完成,集群关系结构如下图所示(扩容后集群结构)。
收缩集群意味着缩减规模,需要从现有集群中安全下线部分节点。安全下线节点流程如下图所示(节点安全下线流程):
下线节点需要把自己负责的槽迁移到其他节点,原理与之前节点扩容的迁移槽过程一致。例如我们把6381和6384节点下线,节点信息如下:
- 127.0.0.1:6381> cluster nodes
- 40b8d09d44294d2e23c7c768efc8fcd153446746 127.0.0.1:6381 myself,master - 0 0 2 connected
- 12288-16383
- 4fa7eac4080f0b667ffeab9b87841da49b84a6e4 127.0.0.1:6384 slave 40b8d09d44294d2e2
- 3c7c768efc8fcd153446746 0 1469894180780 5 connected
- ...
6381是主节点,负责槽(12288-16383),6384是它的从节点,如上图所示(迁移下线节点6381的槽和数据)。下线6381之前需要把负责的槽迁移到其他节点。
收缩正好和扩容迁移方向相反,6381变为源节点,其他主节点变为目标节点,源节点需要把自身负责的4096个槽均匀地迁移到其他主节点上。这里直接使用redis-trib.rb reshard命令完成槽迁移。由于每次执行reshard命令只能有一个目标节点,因此需要执行3次reshard命令,分别迁移1365、1365、1366个槽,如下所示:
- #redis-trib.rb reshard 127.0.0.1:6381
- >>> Performing Cluster Check (using node 127.0.0.1:6381)
- ...
- [OK] All 16384 slots covered.
- How many slots do you want to move (from 1 to 16384)1365
- What is the receiving node ID cfb28ef1deee4e0fa78da86abe5d24566744411e /*输入6379
- 节点id作为目标节点.*/
- Please enter all the source node IDs.
- Type 'all' to use all the nodes as source nodes for the hash slots.
- Type 'done' once you entered all the source nodes IDs.
- Source node #1:40b8d09d44294d2e23c7c768efc8fcd153446746 /*源节点6381 id*/
- Source node #2:done /* 输入done确认 */
- ...
- Do you want to proceed with the proposed reshard plan (yes/no) yes
- ...
槽迁移完成后,6379节点接管了1365个槽12288~13652,如下所示:
- 127.0.0.1:6379> cluster nodes
- cfb28ef1deee4e0fa78da86abe5d24566744411e 127.0.0.1:6379 myself,master - 0 0 10 connected
- 1366-4095 4097-5461 12288-13652
- 40b8d09d44294d2e23c7c768efc8fcd153446746 127.0.0.1:6381 master - 0 1469895725227 2
- connected 13653-16383
- ...
继续把1365个槽迁移到节点6380:
- #redis-trib.rb reshard 127.0.0.1:6381
- >>> Performing Cluster Check (using node 127.0.0.1:6381)
- ...
- How many slots do you want to move (from 1 to 16384) 1365
- What is the receiving node ID 8e41673d59c9568aa9d29fb174ce733345b3e8f1 /*6380节点
- 作为目标节点.*/
- Please enter all the source node IDs.
- Type 'all' to use all the nodes as source nodes for the hash slots.
- Type 'done' once you entered all the source nodes IDs.
- Source node #1:40b8d09d44294d2e23c7c768efc8fcd153446746
- Source node #2:done
- ...
- Do you want to proceed with the proposed reshard plan (yes/no)yes
- ...
完成后,6380节点接管了1365个槽13653~15017,如下所示:
- 127.0.0.1:6379> cluster nodes
- 40b8d09d44294d2e23c7c768efc8fcd153446746 127.0.0.1:6381 master - 0 1469896123295 2
- connected 15018-16383
- 8e41673d59c9568aa9d29fb174ce733345b3e8f1 127.0.0.1:6380 master - 0 1469896125311 11
- connected 6827-10922 13653-15017
- ...
把最后的1366个槽迁移到节点6385中,如下所示:
- #redis-trib.rb reshard 127.0.0.1:6381
- ...
- How many slots do you want to move (from 1 to 16384) 1366
- What is the receiving node ID 1a205dd8b2819a00dd1e8b6be40a8e2abe77b756 /*6385
- 节点id作为目标节点.*/
- Please enter all the source node IDs.
- Type 'all' to use all the nodes as source nodes for the hash slots.
- Type 'done' once you entered all the source nodes IDs.
- Source node #1:40b8d09d44294d2e23c7c768efc8fcd153446746
- Source node #2:done
- ...
- Do you want to proceed with the proposed reshard plan (yes/no) yes
- ...
到目前为止,节点6381所有的槽全部迁出完成,6381不再负责任何槽。状态如下所示:
- 127.0.0.1:6379> cluster nodes
- 40b8d09d44294d2e23c7c768efc8fcd153446746 127.0.0.1:6381 master - 0 1469896444768 2
- connected
- 8e41673d59c9568aa9d29fb174ce733345b3e8f1 127.0.0.1:6380 master - 0 1469896443760 11
- connected 6827-10922 13653-15017
- 1a205dd8b2819a00dd1e8b6be40a8e2abe77b756 127.0.0.1:6385 master - 0 1469896445777 12
- connected 0-1365 4096 5462-6826 10923-12287 15018-16383
- cfb28ef1deee4e0fa78da86abe5d24566744411e 127.0.0.1:6379 myself,master - 0 0 10 connected
- 1366-4095 4097-5461 12288-13652
- be9485a6a729fc98c5151374bc30277e89a461d8 127.0.0.1:6383 slave 8e41673d59c9568aa9d29fb17
- 4ce733345b3e8f1 0 1469896444264 11 connected
- ...
下线节点槽迁出完成后,剩下的步骤需要让集群忘记该节点。
由于集群内的节点不停地通过Gossip消息彼此交换节点状态,因此需要通过一种健壮的机制让集群内所有节点忘记下线的节点。也就是说让其他节点不再与要下线节点进行Gossip消息交换。Redis提供了cluster forget {downNodeId}命令实现该功能,如下图所示(在有效期60秒内对所有节点执行cluster forget操作)。
当节点接收到cluster forget {downNodeId}命令后,会把n odeId指定的节点加入到禁用列表中,在禁用列表内的节点不再发送Gossip消息。禁用列表有效期是60秒,超过60秒节点会再次参与消息交换。也就是说当第一次forget命令发出后,我们有60秒的时间让集群内的所有节点忘记下线节点。
线上操作不建议直接使用cluster forget命令下线节点,需要跟大量节点命令交互,实际操作起来过于繁琐并且容易遗漏forget节点。建议使用redist rib.rb del-node {host:port} {downNodeId}命令,内部实现的伪代码如下:
- def delnode_cluster_cmd(downNode):
- # 下线节点不允许包含slots
- if downNode.slots.length != 0
- exit 1
- end
- # 向集群内节点发送cluster forget
- for n in nodes:
- if n.id == downNode.id:
- # 不能对自己做forget操作
- continue;
- # 如果下线节点有从节点则把从节点指向其他主节点
- if n.replicate && n.replicate.nodeId == downNode.id :
- # 指向拥有最少从节点的主节点
- master = get_master_with_least_replicas();
- n.cluster("replicate",master.nodeId);
- #发送忘记节点命令
- n.cluster('forget',downNode.id)
- # 节点关闭
- downNode.shutdown();
从伪代码看出del -node命令帮我们实现了安全下线的后续操作。当下线主节点具有从节点时需要把该从节点指向到其他主节点,因此对于主从节点都下线的情况,建议先下线从节点再下线主节点,防止不必要的全量复制。对于6381和6384节点下线操作,命令如下:
- redis-trib.rb del-node 127.0.0.1:6379 4fa7eac4080f0b667ffeab9b87841da49b84a6e4 #
- 从节点6384 id
- redis-trib.rb del-node 127.0.0.1:6379 40b8d09d44294d2e23c7c768efc8fcd153446746 #
- 主节点6381 id
节点下线后确认节点状态:
- 127.0.0.1:6379> cluster nodes
- cfb28ef1deee4e0fa78da86abe5d24566744411e 127.0.0.1:6379 myself,master - 0 0 10
- connected 1366-4095 4097-5461 12288-13652
- be9485a6a729fc98c5151374bc30277e89a461d8 127.0.0.1:6383 slave 8e41673d59c9568aa
- 9d29fb174ce733345b3e8f1 0 1470048035624 11 connected
- 475528b1bcf8e74d227104a6cf1bf70f00c24aae 127.0.0.1:6386 slave 1a205dd8b2819a00d
- d1e8b6be40a8e2abe77b756 0 1470048032604 12 connected
- 40622f9e7adc8ebd77fca0de9edfe691cb8a74fb 127.0.0.1:6382 slave cfb28ef1deee4e0fa
- 78da86abe5d24566744411e 0 1470048035120 10 connected
- 8e41673d59c9568aa9d29fb174ce733345b3e8f1 127.0.0.1:6380 master - 0 1470048034617
- 11 connected 6827-10922 13653-15017
- 1a205dd8b2819a00dd1e8b6be40a8e2abe77b756 127.0.0.1:6385 master - 0 1470048033614 12
- connected 0-1365 4096 5462-6826 10923-12287 15018-16383
集群节点状态中已经不包含6384和6381节点,到目前为止,我们完成了节点的安全下线。Redis集群伸缩的原理和操作方式是Redis集群化之后最重要的功能,熟练掌握集群伸缩技巧后,可以针对线上的数据规模和并发量做到从容应对。
Redis集群对客户端通信协议做了比较大的修改,为了追求性能最大化,并没有采用代理的方式而是采用客户端直连节点的方式。因此对于希望从单机切换到集群环境的应用需要修改客户端代码。本节我们关注集群请求路由的细节,以及客户端如何高效地操作集群。
在集群模式下,Redis接收任何键相关命令时首先计算键对应的槽,再根据槽找出所对应的节点,如果节点是自身,则处理键命令;否则回复MOVED重定向错误,通知客户端请求正确的节点。这个过程称为MOVED重定向。
重定向信息包含了键所对应的槽以及负责该槽的节点地址,根据这些信息客户端就可以向正确的节点发起请求。节点对于不属于它的键命令只回复重定向响应,并不负责转发。熟悉Cassandra的用户希望在这里做好区分,不要混淆。正因为集群模式下把解析发起重定向的过程放到客户端完成,所以集群客户端协议相对于单机有了很大的变化。
键命令执行步骤主要分两步:计算槽,查找槽所对应的节点。
Redis首先需要计算键所对应的槽。根据键的有效部分使用CRC16函数计算出散列值,再取对16383的余数,使每个键都可以映射到0~16383槽范围内。伪代码如下:
- def key_hash_slot(key):
- int keylen = key.length();
- for (s = 0; s < keylen; s++):
- if (key[s] == '{'):
- break;
- if (s == keylen) return crc16(key,keylen) & 16383;
- for (e = s+1; e < keylen; e++):
- if (key[e] == '}') break;
- if (e == keylen || e == s+1) return crc16(key,keylen) & 16383;
- /* 使用{和}之间的有效部分计算槽 */
- return crc16(key+s+1,e-s-1) & 16383;
根据伪代码, 如果键内容包含{和}大括号字符, 则计算槽的有效部分是括号内的内容;否则采用键的全内容计算槽。
技巧:键内部使用大括号包含的内容又叫做hash_tag,它提供不同的键可以具备相同slot的功能,常用于Redis IO优化。
例如:
在集群模式下使用mget等命令优化批量调用时,键列表必须具有相同的slot,否则会报错。这时可以利用hash_tag让不同的键具有相同的slot达到优化的目的。
Pipeline同样可以受益于hash_tag,由于Pipeline只能向一个节点批量发送执行命令,而相同slot必然会对应到唯一的节点,降低了集群使用Pipeline的门槛。
Redis计算得到键对应的槽后,需要查找槽所对应的节点。集群内通过消息交换每个节点都会知道所有节点的槽信息,内部保存在clusterState结构中,结构所示:
- typedef struct clusterState {
- clusterNode *myself; /* 自身节点,clusterNode代表节点结构体 */
- clusterNode *slots[CLUSTER_SLOTS]; /* 16384个槽和节点映射数组, 数组下标代表对应的槽 */
- ...
- } clusterState;
slots数组表示槽和节点对应关系,实现请求重定向伪代码如下:
- def execute_or_redirect(key):
- int slot = key_hash_slot(key);
- ClusterNode node = slots[slot];
- if(node == clusterState.myself):
- return executeCommand(key);
- else:
- return '(error) MOVED {slot} {node.ip}:{node.port}';
根据伪代码看出节点对于判定键命令是执行还是MOVED重定向, 都是借助slots[CLUSTER_SLOTS]数组实现。根据MOVED重定向机制,客户端可以随机连接集群内任一Redis获取键所在节点,这种客户端又叫Dummy(傀儡)客户端,它优点是代码实现简单,对客户端协议影响较小,只需要根据重定向信息再次发送请求即可。但是它的弊端很明显,每次执行键命令前都要到Redis上进行重定向才能找到要执行命令的节点,额外增加了IO开销,这不是Redis集群高效的使用方式。正因为如此通常集群客户端都采用另一种实现:Smart(智能)客户端。
Smart客户端通过在内部维护slot→node的映射关系,本地就可实现键到节点的查找,从而保证IO效率的最大化,而MOVED重定向负责协助Smart客户端更新slot→node映射。
以Java的Jedis为例,说明Smart客户端操作集群的流程如下图:
客户端需要结合异常和重试机制时刻保证跟Redis集群的slots同步,因此Smart客户端相比单机客户端有了很大的变化和实现难度。但在Jedis2.8.2之前存在cluster slots风暴和写锁阻塞问题(这个可以查看相关源码,针对于高并发的场景,这里是绝对的热点代码),建议升级到Jedis2.8.2以上版本,并且还可以进一步优化,如下所示:
集群协议通过Smart客户端全面高效的支持需要一个过程,因此用户在选择Smart客户端时要重点审核集群交互代码,防止线上踩坑。必要时可以自行优化修改客户端源码。
Jedis为Redis Cluster提供了Smart客户端,对应的类是JedisCluster,它的初始化方法如下:
- public JedisCluster(Set<HostAndPort> jedisClusterNode, int connectionTimeout,
- int soTimeout, int maxAttempts, final GenericObjectPoolConfig poolConfig) {
- ... }
其中包含了5个参数:
下面代码展示了一次JedisCluster的初始化过程和基本操作过程:
- // 初始化所有节点(例如6个节点)
- Set<HostAndPort> jedisClusterNode = new HashSet<HostAndPort>();
- jedisClusterNode.add(new HostAndPort("10.10.xx.1", 6379));
- jedisClusterNode.add(new HostAndPort("10.10.xx.2", 6379));
- jedisClusterNode.add(new HostAndPort("10.10.xx.3", 6379));
- jedisClusterNode.add(new HostAndPort("10.10.xx.4", 6379));
- jedisClusterNode.add(new HostAndPort("10.10.xx.5", 6379));
- jedisClusterNode.add(new HostAndPort("10.10.xx.6", 6379));
- // 初始化commnon-pool连接池, 并设置相关参数
- GenericObjectPoolConfig poolConfig = new GenericObjectPoolConfig();
- // 初始化JedisCluster
- JedisCluster jedisCluster = new JedisCluster(jedisClusterNode, 1000, 1000, 5, poolConfig);
- jedisCluster.set("hello", "world");
- System.out.println("reids get key=hello,and value=" + jedisCluster.get("hello"));
对于JedisCluster的使用需要注意以下几点:
Redis Cluster虽然提供了分布式的特性,但是有些命令或者操作, 诸如keys、 flushall、 删除指定模式的键,需要遍历所有节点才可以完成。实现了从Redis Cluster删除指定模式键的功能:
- // 从RedisCluster批量删除指定pattern的数据
- public void delRedisClusterByPattern(JedisCluster jedisCluster, String pattern, int scanCounter)
- {
- // 获取所有节点的JedisPool
- Map<String, JedisPool> jedisPoolMap = jedisCluster.getClusterNodes();
- for (Entry<String, JedisPool> entry : jedisPoolMap.entrySet())
- {
- // 获取每个节点的Jedis连接
- Jedis jedis = entry.getValue().getResource();
- // 只删除主节点数据
- if (!isMaster(jedis))
- {
- continue;
- }
- // 使用Pipeline每次删除指定前缀的数据
- Pipeline pipeline = jedis.pipelined();
- // 使用scan扫描指定前缀的数据
- String cursor = "0";
- // 指定扫描参数: 每次扫描个数和pattern
- ScanParams params = new ScanParams().count(scanCounter).match(pattern);
- while (true)
- {
- // 执行扫描
- ScanResult<String> scanResult = jedis.scan(cursor, params);
- // 删除的key列表
- List<String> keyList = scanResult.getResult();
- if (keyList != null && keyList.size() > 0)
- {
- for (String key : keyList)
- {
- pipeline.del(key);
- }
- // 批量删除
- pipeline.syncAndReturnAll();
- }
- cursor = scanResult.getStringCursor();
- // 如果游标变为0, 说明扫描完毕
- if ("0".equals(cursor))
- {
- break;
- }
- }
- }
- }
-
- // 判断当前Redis是否为master节点
- private boolean isMaster(Jedis jedis)
- {
- String[] data = jedis.info("Replication").split("\r\n");
- for (String line : data)
- {
- if ("role:master".equals(line.trim()))
- {
- return true;
- }
- }
- return false;
- }
具体分为如下几个步骤:
例如下面操作每次遍历1000个key,将Redis Cluster中以user开头的key全部删除。
- String pattern = "user*";
- int scanCounter = 1000;
- delRedisClusterByPattern(jedisCluster, pattern, scanCounter);
所以对于keys、flushall等需要遍历所有节点的命令,同样可以参照上面的方法进行相应功能的实现。
Redis Cluster中,由于key分布到各个节点上,会造成无法实现mget、mset等功能。但是可以利用CRC16算法计算出key对应的slot,以及Smart客户端保存了slot和节点对应关系的特性,将属于同一个Redis节点的key进行归档,然后分别对每个节点对应的子key列表执行mget或者pipeline操作具体见相关代码,后续博客提供。
Lua和事务需要所操作的key,必须在一个节点上,不过Redis Cluster提供了hashtag,如果确实要使用Lua或者事务,可以将所要操作的key使用一个hashtag,如下所示:
- // hashtag
- String hastag = "{user}";
- // 用户A的关注表
- String userAFollowKey = hastag + ":a:follow";
- // 用户B的粉丝表
- String userBFanKey = hastag + ":b:fans";
- // 计算hashtag对应的slot
- int slot = JedisClusterCRC16.getSlot(hastag);
- // 获取指定slot的JedisPool
- JedisPool jedisPool = jedisCluster.getConnectionHandler().getJedisPoolFromSlot(slot);
- // 在当个节点上执行事务
- Jedis jedis = null;
- try
- {
- jedis = jedisPool.getResource();
- // 用户A的关注表加入用户B, 用户B的粉丝列表加入用户A
- Transaction transaction = jedis.multi();
- transaction.sadd(userAFollowKey, "user:b");
- transaction.sadd(userBFanKey, "user:a");
- transaction.exec();
- }
- catch (Exception e)
- {
- logger.error(e.getMessage(), e);
- }
- finally
- {
- if (jedis != null)
- jedis.close();
- }
具体步骤如下:
Redis集群支持在线迁移槽(slot)和数据来完成水平伸缩,当slot对应的数据从源节点到目标节点迁移过程中,客户端需要做到智能识别,保证键命令可正常执行。
例如当一个slot数据从源节点迁移到目标节点时,期间可能出现一部分数据在源节点,而另一部分在目标节点,当出现该情况时,客户端键命令执行流程将发生变化,如下所示:
ASK重定向整体流程如图所示:
ASK与MOVED虽然都是对客户端的重定向控制,但是有着本质区别。ASK重定向说明集群正在进行slot数据迁移,客户端无法知道什么时候迁移完成,因此只能是临时性的重定向,客户端不会更新slots缓存。但是MOVED重定向说明键对应的槽已经明确指定到新的节点,因此需要更新slots缓存。
为了支持ASK重定向,源节点和目标节点在内部的clusterState结构中维护当前正在迁移的槽信息,用于识别槽迁移情况,结构如下:
- typedef struct clusterState {
- clusterNode *myself; /* 自身节点 */
- clusterNode *slots[CLUSTER_SLOTS]; /* 槽和节点映射数组 */
- clusterNode *migrating_slots_to[CLUSTER_SLOTS];/* 正在迁出的槽节点数组 */
- clusterNode *importing_slots_from[CLUSTER_SLOTS];/* 正在迁入的槽节点数组*/
- ...
- } clusterState;
节点每次接收到键命令时,都会根据clusterState内的迁移属性进行命令处理,如下所示:
使用smart客户端批量操作集群时,需要评估mget/mset、Pipeline等方式在slot迁移场景下的容错性,防止集群迁移造成大量错误和数据丢失的情况。集群环境下对于使用批量操作的场景,建议优先使用Pipeline方式,在客户端实现对ASK重定向的正确处理,这样既可以受益于批量操作的IO优化,又可以兼容slot迁移场景。
高可用首先需要解决集群部分失败的场景:当集群内少量节点出现故障时通过自动故障转移保证集群可以正常对外提供服务。
redis的各个节点通过ping/pong进行消息通信,不需要Sentinel,转播槽的信息和节点状态信息,故障发现也是通过这个动作发现的,跟Sentinel一样,有主观下线和客观下线。
某个节点认为另一个节点不可用,“偏见”,但不是最终的故障判断。
标志着一个节点真正的下线,即半数以上持有槽的主节点都标记某节点主观下线,如果是持有槽的主节点故障,需要为该节点进行故障转移。
以上三个主要流程主要如下图所示:
故障节点变为客观下线后,如果下线节点是持有槽的主节点则需要在它的从节点中选出一个替换它,从而保证集群的高可用。下线主节点的所有从节点承担故障恢复的义务,当从节点通过内部定时任务发现自身复制的主节 点进入客观下线时,将会触发故障恢复流程:资格检查-->准备选举时间-->发起选举-->选举投票-->替换主节点。
主节点b进入客观下线后,它的三个从节点根据自身复制偏移量设置延 迟选举时间,如复制偏移量最大的节点slave b-1延迟1秒执行,保证复制延迟低的从节点优先发起选举。
当从节点定时任务检测到达故障选举时间(failover_auth_time)到达后,发起选举流程如下:
(1).更新配置纪元:配置纪元是一个只增不减的整数,每个主节点自身维护一个配置纪元 (clusterNode.configEpoch)标示当前主节点的版本,所有主节点的配置纪元都不相等,从节点会复制主节点的配置纪元。整个集群又维护一个全局的配 置纪元(clusterState.current Epoch),用于记录集群内所有主节点配置纪元 的最大版本。执行cluster info命令可以查看配置纪元信息。只要集群发生重要的关键事件,纪元数就会增加,所以在选从的时候需要选择一个纪元数最大的从。
(2).广播选举消息:在集群内广播选举消息(FAILOVER_AUTH_REQUEST),并记录已发送过消息的状态,保证该从节点在一个配置纪元内只能发起一次选举。消息 内容如同ping消息只是将type类型变为FAILOVER_AUTH_REQUEST。
Ps.故障主节点也算在投票数内,假设集群内节点规模是3主3从,其中有2个主节点部署在一台机器上,当这台机器宕机时,由于从节点无法收集到 3/2+1个主节点选票将导致故障转移失败。这个问题也适用于故障发现环 节。因此部署集群时所有主节点最少需要部署在3台物理机上才能避免单点问题。
cluster-require-full-coverage 默认yes ,大部分业务无法容忍,需改为no,当主节点故障时只影响它负责槽的相关命令执行,不会影响其他主节点的可用性。
集群带宽消耗主要分为:读写命令消耗+Gossip消息消耗。因此搭建Redis集群时需要根据业务数据规模和消息通信成本做出合理规划:
Redis Cluster模式下publish广播问题,当频繁应用pub/sub功能时应该避免在大量节点的集群内使用,否则会严重消耗集群内网络带宽。
针对这种情况建议使用sentinel结构专门用于pub/sub功能。
集群内特定节点请求量/流量过大将导致节点之间负载不均,影响集群均衡和运维成本,常出现在热点建场景。
对于热点key: 避免bigkey ,不要使用hash_tag,本地缓存+MQ
主要涉及到的故障包括:
具体见相关博客。
【1】付磊、张益军. Redis开发与运维. 北京:机械工业出版社,2018.05.
【2】https://my.oschina.net/u/2313177/blog/1608239.
【3】redis集群(一)数据分布理论_黎明De烬的博客-CSDN博客.
【4】企业级Redis开发运维从入门到实践 (32)— Redis Cluster(集群)的节点通信 —— 通讯流程、Gossip消息、节点选择_redis32节点_迷途码界的博客-CSDN博客
【5】Redis集群的节点通信原理_redis通信原理指的是什么_外星人的程序生涯的博客-CSDN博客.
【6】https://www.cnblogs.com/wuxl360/p/5920330.html.
【7】redis cluster集群搭建_李丛阳的博客-CSDN博客.
【8】企业级Redis开发运维从入门到实践 (33)— Redis Cluster(集群)的集群伸缩 —— 伸缩原理、扩容集群、收缩集群_redis分片集群为什么可以动态伸缩_迷途码界的博客-CSDN博客
【9】Redis——10集群——10.5请求路由(集群客户端)_计算槽_HoldBelief的博客-CSDN博客.
【10】【redis】cluster集群的故障转移机制实验_王啸tr1912的博客-CSDN博客.
【11】Redis Cluster 故障发现和恢复总结 - moon888的个人空间 - OSCHINA - 中文开源技术交流社区.
【12】https://www.cnblogs.com/huanxiyun/articles/6405030.html.
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。