赞
踩
Redis 的切片集群使用多个实例保存数据,能很好的应对大数据量的场景。在《4.Redis 切片集群》中,介绍了 Redis 官方提供的切片集群方法 Redis Cluster。本章,再来学习下,在 Redis Cluster
方案正式发布前,业界广泛使用的 Codis
。
Codis
集群中包含了 4 类关键组件。
先了解下 Codis 是如何处理请求的。
一旦使用了切片集群,就需要先了解,数据是怎么在多个实例上分布的。
在 Codis 集群中,一个数据应该保持在哪个 codis server 上,是通过逻辑槽(Slot)映射来完成的。具体来说,分为两步:
下图显示的就是数据、Solt 和 codis server 的映射保存关系。其中,Solt0 和 1 被分配到了 server1,Solt2 被分配到了 server2,Solt1022 和 1023 被分配到了 server8。当客户端访问 key1 和 key2 时,这两个数据的 CRC32 值对 1024 取模后,分别是 1 和 1022.因此,它们会被保存在 Solt1 和 Solt1022 上,而 Solt1 和 Solt1022 已经被分配到了 codis server1 和 8 上了。这样一来,key1 和 key2 的保存位置就很清楚了。
数据 key 和 Solt 的映射关系是客户端在读写数据前直接通过 CRC32 计算得到的,而 Solt 和 codis server 的映射关系是通过分配完成的,所以就需要用一个存储系统保存下来,否则,如果集群有故障了,映射关系就丢失了。
我们把 Solt 和 codis server 的映射关系称为数据路由表(简称路由表)。我们在 codis dashboard 上分配好路由表后,dashboard 会把路由表发送给 codis proxy,通时 dashboard 也会把路由表保存在 Zookeeper 中。codis proxy 会把路由表缓存在本地,当它接收到客户端请求后,直接查询本地的路由表,就可以完成正确的额请求转发了。
在数据分布的实现方法上,Codis 和 Redis Cluster 很相似,都采用了 key 映射到 Solt、Solt 再分配到实例上的机制。但是它们有明细的区别:
Codis 集群包括增加 codis server 和增加 codis proxy。
我们先来看下增加 codis server,这个过程主要涉及到两步操作:
需要注意的是,这里的数据迁移是一个重要的机制,接下来我来重点介绍下。
Codis 集群按照 Slot 的粒度进行数据迁移,我们来看下迁移的基本流程。
同步迁移是指,在数据从源 server 发送给目的 server 的过程中,源 server 是阻塞的,无法处理新的请求操作。这种模式很容易实现,但是迁移过程中会涉及多个操作(包括数据在源 server 的序列化、网络传输、在目的 server 反序列化,以及在源 server 删除),如果迁移的数据是一个 bigkey,源 server 就会阻塞较长时间,无法及时处理用户请求。
为避免数据迁移阻塞源 server,Codis 实现的第二种迁移模式就是异步迁移。异步迁移有两个关键特点:
第一个特点是当源 server 把数据发送给目的 server 后,就可以处理其他请求操作了,不用等到目的 server 的命令执行完。而目的 server 会在收到数据并反序列化保存到本地后,给源 server 发送一个 ACK 消息表明迁移完成。此时,源 server 在本地把刚才迁移的数据删除。
在这个过程中,迁移的数据被设置为只读,所以,源 server 上的数据不会给修改,自然就不会出现“和目的 Server 上的数据不一致”问题了。
第二个特点是,对于 bigkey ,异步迁移采用了拆分指令的方式进行迁移。具体来说就是,对bigkey 中的每个元素,用一条指令进行迁移,而不是把整个 bigkey 进行反序列化后再整体传输。这种化整为零的方式,就避免了 bigkey 迁移时,因为要序列化大量数据而阻塞 源 server 的问题。
此外,当 bigkey 迁移了一部分数据后,如果 Codis 发生故障,就会导致 bigkey 的一部分元素在源 server,而另一部分元素在目的 server,这就破坏了迁移的原子性。
所以,Codis 会在目标 server 上,给 bigkey 的元素设置一个临时过期时间。如果迁移过程中发生故障,那么目标 server 上的 key 会在过期后被删除,不会影响迁移的原子性。当正常迁移完成后,bigkey 元素的临时过期时间会被删除。
假设我们有一个 1 万个元素的List 类型数据,当使用异步迁移时,源 server 就会给目的 server 传输 1 万条 RPUSH 命令,每条命令对应了一个 List 中的元素的插入。在目的 server 上,这一万条命令再次被依次执行,就可以完成数据迁移。
这里,有个地方需要注意下,为了提升迁移的效率,Codis 在异步迁移 Solt 时,允许每次迁移多个 key。你可以通过异步迁移命令 SLOTSMGRTTAGSLOT-ASYNC 的参数 numkeys 设置每次迁移的 key 数量。
上面学习的是 codis server 的扩容和数据迁移机制,现在学习下增加 codis proxy 机制。
因为在 Codis 集群中,客户端是和 codis proxy 直接连接的,所以当客户端增加时,一个 codis proxy 无法支撑大量的请求操作,此时,我们就需要增加 proxy。
增加 codis proxy 比较容易,我们直接启动 proxy,在通过 codis dashboard 把 proxy 加入集群就行。
此时,codis proxy 的访问连接信息都会被保存在 Zookeeper。所以,当新增了 proxy 后,Zookeeper 上会有最新的访问列表,客户端也就可以从 Zookeeper 上读取 proxy 访问列表,把请求发送给新增的 proxy。这样一来,客户端的访问压力就可以在多个 proxy 上分担处理了。
好了,通过上面的学习,我们了解了 Codis 集群中的数据分布、集群扩容和数据迁移的方法,这都是切片集群中的关键机制。
使用 Redis 单实例时,客户端只要符合 RESP 协议,就可以直接和实例进行交互和读写数据。但是,在使用切片集群时,有些功能和单实例是不一样的,比如集群中的数据迁移操作,在单实例上是没有的,而在数据迁移过程中,数据访问请求可能要被重定向(例如 Redis Cluster 中的 MOVE 命令)。
所以,客户端需要增加和集群功能相关命令操作的支持。如果原来使用单实例的客户端,想要扩容使用集群,就需要使用新客户端,这对于业务的兼容性来说,并不是也被友好。
Codis 集群在设计时,就充分考虑了对现有单实例客户端的兼容性。
Codis 使用 codis proxy 直接和客户端连接,codis proxy 是和单实例客户端兼容的。而且和集群相关的管理工作(例如,请求转发、数据迁移等),都是由 codis proxy 、codis dashboard 这些组件来完成,不需要客户端参与。
这样一来业务使用 Codis 集群时,就不用修改客户端了,可以复用和单实例连接的客户端,技能保证利用集群读写大容量数据,又能避免修改客户端增加复杂的操作逻辑,保证了业务代码的稳定性和兼容性。
集群可靠性是一个核心的要求。对于一个分布式系统来说,它的可靠性和系统中的组件个数有关:组件越多,潜在的风险点也就越多。和 Redis Cluster 只包含 Redis 实例不一样,Codis 集群包含的组件有 4 类,这么多组件会降低 Codis 集群的可靠性吗?
codis server 其实就是 Redis 实例,只不过增加了和集群操作的相关命令。Redis 的主从复制机制和哨兵机制在 Codis 上都是可以使用的,所以,Codis 就使用主从集群来保证 Codis Server 的可靠性。简单来说,Codis 给每个 Server 配置从库,并使用哨兵机制进行监控,当发生故障时,主从库就可以进行切换,从而保证了可靠性。
在这种情况下,每个 Server 就称为了一个 Server Group,每个 group 中是一主多从的 server。数据分布使用的 Solt ,也是按照 group 粒度进行分配的。同时 codis proxy 在转发请求时,也是按照数据所在的 Solt 和 group 的对应关系,把写请求发送到相应的 group 的主库,读请求发到 group 的主库或从库上。
因为 codis proxy 和 Zookeeper 这两个组件是搭配在一起使用的,所以接下来,我们看下这两个组件的可靠性。
在 Codis 集群设计时,proxy 上的信息源头都是来自 Zookeeper (如路由表)。而 Zookeeper 集群使用多个实例来保持数据,只要有超过半数的 Zookeeper 实例可以正常工作,Zookeeper 集群就可以提供服务,也可以保证这些数据的可靠性。
所以,codis proxy 使用 Zookeeper 集群保存路由表信息,可以充分利用 Zookeeper 的好可靠性来确保 codis proxy 的可靠性,不用再做额外的工作了。当 codis proxy 发生故障后,直接重启 codis proxy 就行。重启后的 codis proxy 的可靠性,可以通过 codis dashboard 从 Zookeeper 集群上获取路由表,然后,就可以接收客户端请求进行转发了。这样的设计,也降低了 Codis 集群本身的开发复杂度。
对于 codis dashboard 和 codis fe 来说,它们主要提供配置管理和管理员手工操作,负载压力不大,所以它们的可靠性可以不用额外进行保证了。
到这里,Codis 和 Redis Cluster 这两种切片方案我们就学完了,我们把它们的区别总结在了一张表里面。
对比维度 | Codis | Redis Cluster |
---|---|---|
数据路由信息 | 中心化保存在 Zookeeper,proxy 在本地缓存 | 每个实例都保存一份 |
集群扩容 | 增加 codis server 和 codis proxy | 增加 Redis 实例 |
数据迁移 | 支持同步异步迁移 | 支持同步迁移 |
客户端兼容性 | 兼容单实例客户端 | 需要开发支持Cluster功能的客户端 |
可靠性 | codis server 主从集群机制保证可靠性 codis proxy 无状态设计,故障后重启就行 Zookeeper 可靠性高,只要有半数以上结点存在就能继续服务 | 实例使用主从集群保证可靠性 |
在实际应用时,对应这两种方案,该如何选择?有 4 条建议:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。