当前位置:   article > 正文

redis高可用、redis集群、redis缓存优化

redis高可用、redis集群、redis缓存优化

转载自:
https://www.cnblogs.com/jgx0/p/16302627.html

今日内容概要

  • redis高可用
  • redis集群
  • redis缓存优化

内容详细

1、redis高可用

  1. # 主从复制存在的问题:
  2. 1 主从复制,主节点发生故障,需要做故障转移,可以手动转移:让其中一个slave变成master--->哨兵
  3. 2 主从复制,只能主写数据,所以写能力和存储能力有限----》集群
  4. # 案例
  5. -一主两从,主写数据,从读数据
  6. -如果主库挂掉,从库只能读,redis就不能对外提供服务了,它就不高可用
  7. -即便主挂掉,选一个从库作为主库,继续对外提供服务 就是高可用
  8. -原来的主库,又启动起来了,它现在作为从库
  9. # 使用哨兵完成上面的事情 sentinel--》哨兵
  10. ##### 搭建步骤
  11. # 搭建一主两从
  12. # 配置3个哨兵
  13. # 主一
  14. daemonize yes
  15. dir ./data3
  16. protected-mode no
  17. bind 0.0.0.0
  18. logfile "redis_sentinel3.log"
  19. sentinel monitor mymaster 127.0.0.1 6379 2
  20. sentinel down-after-milliseconds mymaster 30000
  21. sentinel parallel-syncs mymaster 1
  22. sentinel failover-timeout mymaster 180000
  23. # 从一
  24. port 26380
  25. daemonize yes
  26. dir ./data2
  27. protected-mode no
  28. bind 0.0.0.0
  29. logfile "redis_sentinel3.log"
  30. sentinel monitor mymaster 127.0.0.1 6379 2
  31. sentinel down-after-milliseconds mymaster 30000
  32. sentinel parallel-syncs mymaster 1
  33. sentinel failover-timeout mymaster 180000
  34. # 从二
  35. port 26381
  36. daemonize yes
  37. dir ./data
  38. protected-mode no
  39. bind 0.0.0.0
  40. logfile "redis_sentinel1.log"
  41. sentinel monitor mymaster 127.0.0.1 6379 2
  42. sentinel down-after-milliseconds mymaster 30000
  43. sentinel parallel-syncs mymaster 1
  44. sentinel failover-timeout mymaster 180000
  45. # 启动三个哨兵
  46. ./src/redis-sentinel sentinel_26379.conf
  47. ./src/redis-sentinel sentinel_26378.conf
  48. ./src/redis-sentinel sentinel_26377.conf
  49. # 客户端连接到某一个redis上
  50. info # 查看主从信息
  51. # 客户端连到某个 sentinel上(一个sentinel类似于一个redis-server,客户端可以连接)
  52. redis-cli -p 26379 # 连到这个哨兵上
  53. info
  54. '''
  55. # Sentinel
  56. sentinel_masters:1
  57. sentinel_tilt:0
  58. sentinel_running_scripts:0
  59. sentinel_scripts_queue_length:0
  60. sentinel_simulate_failure_flags:0
  61. master0:name=mymaster,status=ok,address=127.0.0.1:6379,slaves=2,sentinels=3
  62. '''
  63. # 演示故障切换
  64. # 停掉主库---》6379
  65. shutdown
  66. # 哨兵认为主挂了,会自动选一个从库当主库
  67. info
  68. 选择了6380作为主了
  69. # 把6379启动,6379现在变成从库

哨兵搭建后的python连接

  1. # python连接redis---》写写到主库,读从从库中读---》一旦用了高可用(主库会变)---》python连接哨兵---》通过哨兵返回主,去写,返回从,去读
  2. import redis
  3. from redis.sentinel import Sentinel
  4. # 连接哨兵服务器(主机名也可以用域名)
  5. # 127.0.0.1:26379
  6. sentinel = Sentinel([('127.0.0.1', 26379),
  7. ('127.0.0.1', 26380),
  8. ('127.0.0.1', 26381)
  9. ],
  10. socket_timeout=5)
  11. print(sentinel)
  12. # 获取主服务器地址
  13. master = sentinel.discover_master('mymaster')
  14. print(master) # 返回所有主
  15. # 获取从服务器地址
  16. slave = sentinel.discover_slaves('mymaster')
  17. print(slave) # 返回所有从
  18. ##### 读写分离
  19. # 获取主服务器进行写入
  20. master = sentinel.master_for('mymaster', socket_timeout=0.5)
  21. w_ret = master.set('foo', 'bar')
  22. slave = sentinel.slave_for('mymaster', socket_timeout=0.5)
  23. r_ret = slave.get('foo')
  24. print(r_ret)

2、redis集群

  1. # 主从复制,只能主写数据,所以写能力和存储能力有限----》集群
  2. # 存在问题
  3. 1 并发量:单机redis qps为10w/s,但是我们可能需要百万级别的并发量
  4. 2 数据量:机器内存16g--256g,如果存500g数据呢?
  5. # 解决:加机器,分布式
  6. redis cluster 在2015年的 3.0 版本加入了,满足分布式的需求
  7. # 分布式数据库
  8. 假设全量的数据非常大,500g,单机已经无法满足,我们需要进行分区,分到若干个子集中
  9. # 分区方式
  10. -哈希分布
  11. 原理:hash分区: 节点取余 ,假设3台机器, hash(key)%3,落到不同节点上
  12. 优点:热点数据分散
  13. 缺点:不利于批量查询
  14. -顺序分布
  15. 原理:100个数据分到3个节点上 1--33第一个节点;34--66第二个节点;67--100第三个节点(很多关系型数据库使用此种方式,mysql通常用它)
  16. 缺点:热点数据太集中
  17. # mysql 官方没有集群方案---》第三方解决方案---》顺序,哈希
  18. # 哈希分区
  19. -节点取余:后期扩容--》迁移数据总量大---》推荐翻倍库容
  20. -一致性 hash
  21. 每个节点负责一部分数据,对key进行hash,得到结果在node1和node2之间,就放到node2中,顺时针查找
  22. 扩容迁移数据迁移少,数据不均衡
  23. -虚拟槽分区(redis集群)
  24. 预设虚拟槽:每个槽映射一个数据子集,一般比节点数大
  25. 良好的哈希函数:如CRC16
  26. 服务端管理节点、槽、数据:如redis cluster(槽的范围016383

2.1 搭建

  1. # 6台机器,3个节点的集群,另外三台做副本库(从库)
  2. # 自动故障转移,3个主节点,如果有一个挂了,另外一个从库就会升级为主库
  3. # redis的端口7000
  4. # redis的端口7001
  5. # redis的端口7002
  6. # redis的端口7003
  7. # redis的端口7004
  8. # redis的端口7005
  9. # 只要集群中有一个故障了,整个就不对外提供服务了,这个实际不合理,假设有50个节点,一个节点故障了,所有不提供服务了
  10. # 配置文件
  11. port 7000
  12. daemonize yes
  13. dir "/root/s20/redis-5.0.7/data"
  14. logfile "7000.log"
  15. dbfilename "dump-7000.rdb"
  16. cluster-enabled yes
  17. cluster-config-file nodes-7000.conf
  18. cluster-require-full-coverage yes
  19. # 快速生成其他配置
  20. sed 's/7000/7001/g' redis-7000.conf > redis-7001.conf
  21. sed 's/7000/7002/g' redis-7000.conf > redis-7002.conf
  22. sed 's/7000/7003/g' redis-7000.conf > redis-7003.conf
  23. sed 's/7000/7004/g' redis-7000.conf > redis-7004.conf
  24. sed 's/7000/7005/g' redis-7000.conf > redis-7005.conf
  25. # 启动6个节点
  26. ./src/redis-server ./redis-7000.conf
  27. ps -ef |grep redis
  28. ./src/redis-server ./redis-7001.conf
  29. ./src/redis-server ./redis-7002.conf
  30. ./src/redis-server ./redis-7003.conf
  31. ./src/redis-server ./redis-7004.conf
  32. ./src/redis-server ./redis-7005.conf
  33. ### 客户端连上---》放数据--->想搭建集群---》集群模式没有分槽---》放的这个数据不知道放到哪个节点--》放不进去----》搭建完成才能写入数据
  34. ## 客户端链接上的命令:
  35. cluster nodes # 如果没有搭建完成,只能看到自己
  36. cluster info # 集群状态是成功\失败的
  37. # 搭建集群 4.x以前版本,比较麻烦
  38. -先meet
  39. -指派槽
  40. -建立主从
  41. # 快速搭建集群 4.x以后,只需要这一条,自动meet,自动指派槽,自动建主从
  42. # 注意这个数字 cluster-replicas 1 ---》指的是每个主节点有几个从节点
  43. redis-cli --cluster create --cluster-replicas 1 127.0.0.1:7000 127.0.0.1:7001 127.0.0.1:7002 127.0.0.1:7003 127.0.0.1:7004 127.0.0.1:7005
  44. ### 演示写入数据
  45. -在7001上写入 name lqz
  46. -去7002上查不到name
  47. -对name crc16哈希运算完---》算完的槽--->知道哪个节点管了哪些槽---》告诉你去哪个节点存
  48. # 以集群模式登陆,
  49. -无论在哪个主节点,都能写入数据,获取数据
  50. redis-cli -c -p 端口 # 以集群模式登陆,如果操作不到,自动重定向过去
  51. # 演示故障转移
  52. -7001 是个主库---》主库停掉--》7005从库会自动升级为主库

2.2 集群扩容/缩容

  1. ## 集群扩容
  2. sed 's/7000/7006/g' redis-7000.conf > redis-7006.conf
  3. sed 's/7000/7007/g' redis-7000.conf > redis-7007.conf
  4. ./src/redis-server ./redis-7006.conf
  5. ./src/redis-server ./redis-7007.conf
  6. ### 方式一
  7. 7000上执行
  8. redis-cli -p 7000 cluster meet 127.0.0.1 7006
  9. redis-cli -p 7000 cluster meet 127.0.0.1 7007
  10. ### 方式二
  11. redis-cli --cluster add-node 127.0.0.1:7006 127.0.0.1:7000
  12. redis-cli --cluster add-node 127.0.0.1:7007 127.0.0.1:7000
  13. # 让7007做为7006的从
  14. redis-cli -p 7007 cluster replicate 2d657119470fd7c65c366698f20cc104295b7555
  15. ##### 分槽
  16. redis-cli --cluster reshard 127.0.0.1:7000
  17. # 16384总共平均分配到4个节点,每个节点需要有:4096
  18. 4096 指定到7006节点上
  19. 自动从三个节点中的每个节点拿一部分槽放到7006身上,凑够4096
  20. ###### 缩容
  21. # 下线迁槽(把70061366个槽迁移到7000上)--->把槽迁走
  22. # 从谁那里迁到谁身上
  23. redis-cli --cluster reshard --cluster-from 2d657119470fd7c65c366698f20cc104295b7555 --cluster-to 997257c78c2995372c8cde228850b4b101d2a03b --cluster-slots 1365 127.0.0.1:7000
  24. yes
  25. redis-cli --cluster reshard --cluster-from 2d657119470fd7c65c366698f20cc104295b7555 --cluster-to c763786ad7fa9c65fb9182a8cfe0be4825ee96a0 --cluster-slots 1366 127.0.0.1:7005
  26. yes
  27. redis-cli --cluster reshard --cluster-from 2d657119470fd7c65c366698f20cc104295b7555 --cluster-to 1993efb87276df5986bdca56930aaa8ec3e78287 --cluster-slots 1366 127.0.0.1:7002
  28. yes
  29. # 忘记节点,关闭节点
  30. redis-cli --cluster del-node 127.0.0.1:7000 1cddf0889d525516ad38a714ad5d38bead74dbcb(从库id) # 先下从,再下主,因为先下主会触发故障转移
  31. redis-cli --cluster del-node 127.0.0.1:7000 2d657119470fd7c65c366698f20cc104295b7555(主库id)
  32. # 关掉其中一个主,另一个从立马变成主顶上, 重启停止的主,发现变成了从

3、redis缓存优化

  1. # 双写一致性
  2. -定时更新
  3. -增数据删缓存
  4. -增数据改缓存
  5. # redis自身有缓存更新策略---》redis占内存不能无限大,可以控制,内存就是满了
  6. # 缓存更新策略
  7. 1. LRU -Least Recently Used,没有被使用时间最长的
  8. # LRU配置
  9. maxmemory-policy:volatile-lru
  10. 1)noeviction: 如果内存使用达到了maxmemory,client还要继续写入数据,那么就直接报错给客户端
  11. 2)allkeys-lru: 就是我们常说的LRU算法,移除掉最近最少使用的那些keys对应的数据,ps最长用的策略
  12. 3)volatile-lru: 也是采取LRU算法,但是仅仅针对那些设置了指定存活时间(TTL)的key才会清理掉
  13. 4)allkeys-random: 随机选择一些key来删除掉
  14. 5)volatile-random: 随机选择一些设置了TTL的key来删除掉
  15. 6)volatile-ttl: 移除掉部分keys,选择那些TTL时间比较短的keys
  16. 2. LFU -Least Frequenty User,一定时间段内使用次数最少的
  17. # LFU配置 Redis4.0之后为maxmemory_policy淘汰策略添加了两个LFU模式:
  18. volatile-lfu:对有过期时间的key采用LFU淘汰算法
  19. allkeys-lfu:对全部key采用LFU淘汰算法
  20. # 还有2个配置可以调整LFU算法:
  21. lfu-log-factor 10
  22. lfu-decay-time 1
  23. # lfu-log-factor可以调整计数器counter的增长速度,lfu-log-factor越大,counter增长的越慢。
  24. # lfu-decay-time是一个以分钟为单位的数值,可以调整counter的减少速度
  25. 3. FIFO -First In First Out
  26. ### 缓存穿透--(缓存中没有,数据中也没有---》基本是恶意攻击)
  27. # 描述:
  28. 缓存穿透是指缓存和数据库中都没有的数据,而用户不断发起请求,如发起为id为“-1”的数据或id为特别大不存在的数据。这时的用户很可能是攻击者,攻击会导致数据库压力过大
  29. # 解决方案:
  30. 1 接口层增加校验,如用户鉴权校验,id做基础校验,id<=0的直接拦截
  31. 2 从缓存取不到的数据,在数据库中也没有取到,这时也可以将key-value对写为key-null,缓存有效时间可以设置短点,如30秒(设置太长会导致正常情况也没法使用)。这样可以防止攻击用户反复用同一个id暴力攻击
  32. 3 通过布隆过滤器实现---》把数据库中存在的数据,放到布隆过滤器中--》查的时候,去布隆过滤器查一下在不在---》在的话,继续往后走,不在的话直接给前端错误
  33. ### 缓存击穿(缓存中没有,数据库中有)
  34. # 描述:
  35. 缓存击穿是指缓存中没有但数据库中有的数据(一般是缓存时间到期),这时由于并发用户特别多,同时读缓存没读到数据,又同时去数据库去取数据,引起数据库压力瞬间增大,造成过大压力
  36. # 解决方案:
  37. 设置热点数据永远不过期。
  38. ### 缓存雪崩
  39. # 描述:
  40. 缓存雪崩是指缓存中数据大批量到过期时间,而查询数据量巨大,引起数据库压力过大甚至down机。和缓存击穿不同的是,缓存击穿指并发查同一条数据,缓存雪崩是不同数据都过期了,很多数据都查不到从而查数据库
  41. # 解决方案:
  42. 1 缓存数据的过期时间设置随机,防止同一时间大量数据过期现象发生。
  43. 2 如果缓存数据库是分布式部署,将热点数据均匀分布在不同搞得缓存数据库中
  44. 3 设置热点数据永远不过期。
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/685107
推荐阅读
相关标签
  

闽ICP备14008679号