当前位置:   article > 正文

RabbitMQ高可用集群部署

rabbitmq高可用集群

目录

 

1 、集群方案的原理

2、RabbitMQ高可用集群相关概念

3 、一般模式集群

3.1 准备工作

3.2 配置DNS域名解析

3.3 配置集群启动

4 、集群管理

5 、RabbitMQ镜像集群配置

6、负载均衡-HAProxy

6.1 安装HAProxy

6.2 配置HAProxy

6.3 启动HAproxy负载

7、Java代码测试负载均衡代理

8、开启rabbitmq日志监控插件

9、Keppalive虚拟IP漂移


实际生产应用中都会采用消息队列的集群方案,如果选择RabbitMQ那么有必要了解下它的集群方案原理

一般来说,如果只是为了学习RabbitMQ或者验证业务工程的正确性那么在本地环境或者测试环境上使用其单实例部署就可以了,但是出于MQ中间件本身的可靠性、并发性、吞吐量和消息堆积能力等问题的考虑,在生产环境上一般都会考虑使用RabbitMQ的集群方案。

1 、集群方案的原理

RabbitMQ这款消息队列中间件产品本身是基于Erlang编写,Erlang语言天生具备分布式特性(通过同步Erlang集群各节点的Erlang Cookie来实现)。因此,RabbitMQ天然支持Cluster。这使得RabbitMQ本身不需要像ActiveMQ、Kafka那样通过ZooKeeper分别来实现HA方案和保存集群的元数据。集群是保证可靠性的一种方式,同时可以通过水平扩展以达到增加消息吞吐量能力的目的。

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2h1eGlhbmcxOTg1MTExNA==,size_16,color_FFFFFF,t_70

2、RabbitMQ高可用集群相关概念

2.1 设计集群的目的

  • 允许消费者和生产者在 RabbitMQ 个别

  • 节点崩溃的情况下继续运行。

  • 通过增加更多的节点来扩展消息通信的吞吐量。

2.2 集群配置方式

  • cluster:不支持跨网段,用于同一个网段内的局域网;可以随意的动态增加或者减少;节点之间需要运行相同版本的 RabbitMQ 和 Erlang。

  • federation:应用于广域网,允许单台服务器上的交换机或队列接收发布到另一台服务器上交换机或队列的消息,可以是单独机器或集群。federation 队列类似于单向点对点连接,消息会在联盟队列之间转发任意次,直到被消费者接受。通常使用 federation 来连接 internet 上的中间服务器,用作订阅分发消息或工作队列。

  • shovel:连接方式与 federation 的连接方式类似,但它工作在更低层次。可以应用于广域网。

2.3 节点类型

  • RAM node:内存节点将所有的队列、交换机、绑定、用户、权限和 vhost 的元数据定义存储在内存中,好处是可以使得像交换机和队列声明等操作更加的快速。

  • Disk node:将元数据存储在磁盘中,单节点系统只允许磁盘类型的节点,防止重启 RabbitMQ 的时候,丢失系统的配置信息。

问题说明:RabbitMQ 要求在集群中至少有一个磁盘节点,所有其他节点可以是内存节点,当节点加入或者离开集群时,必须要将该变更通知到至少一个磁盘节点。如果集群中唯一的一个磁盘节点崩溃的话,集群仍然可以保持运行,但是无法进行其他操作(增删改查),直到节点恢复。 解决方案:设置两个磁盘节点,至少有一个是可用的,可以保存元数据的更改。

2.4 Erlang Cookie

Erlang Cookie 是保证不同节点可以相互通信的密钥,要保证集群中的不同节点相互通信必须共享相同的 Erlang Cookie。具体的目录存放在/var/lib/rabbitmq/.erlang.cookie

RabbitMQ 底层是通过 Erlang 架构来实现的,所以 rabbitmqctl 会启动 Erlang 节点,并基于 Erlang 节点来使用 Erlang 系统连接 RabbitMQ 节点,在连接过程中需要正确的 Erlang Cookie 和节点名称,Erlang 节点通过交换 Erlang Cookie 以获得认证。

3 、一般模式集群

3.1 准备工作

准备三台虚拟机

192.168.223.128

192.168.223.129

192.168.223.130

首先确保RabbitMQ运行没有问题

  1. [root@super ~]# rabbitmqctl status
  2. Status of node rabbit@super ...
  3. [{pid,10232},
  4. {running_applications,
  5.     [{rabbitmq_management,"RabbitMQ Management Console","3.6.5"},
  6.     {rabbitmq_web_dispatch,"RabbitMQ Web Dispatcher","3.6.5"},
  7.     {webmachine,"webmachine","1.10.3"},
  8.     {mochiweb,"MochiMedia Web Server","2.13.1"},
  9.     {rabbitmq_management_agent,"RabbitMQ Management Agent","3.6.5"},
  10.     {rabbit,"RabbitMQ","3.6.5"},
  11.     {os_mon,"CPO CXC 138 46","2.4"},
  12.     {syntax_tools,"Syntax tools","1.7"},
  13.     {inets,"INETS CXC 138 49","6.2"},
  14.     {amqp_client,"RabbitMQ AMQP Client","3.6.5"},
  15.     {rabbit_common,[],"3.6.5"},
  16.     {ssl,"Erlang/OTP SSL application","7.3"},
  17.     {public_key,"Public key infrastructure","1.1.1"},
  18.     {asn1,"The Erlang ASN1 compiler version 4.0.2","4.0.2"},
  19.     {ranch,"Socket acceptor pool for TCP protocols.","1.2.1"},
  20.     {mnesia,"MNESIA CXC 138 12","4.13.3"},
  21.     {compiler,"ERTS CXC 138 10","6.0.3"},
  22.     {crypto,"CRYPTO","3.6.3"},
  23.     {xmerl,"XML parser","1.3.10"},
  24.     {sasl,"SASL CXC 138 11","2.7"},
  25.     {stdlib,"ERTS CXC 138 10","2.8"},
  26.     {kernel,"ERTS CXC 138 10","4.2"}]},
  27. {os,{unix,linux}},
  28. {erlang_version,
  29.     "Erlang/OTP 18 [erts-7.3] [source] [64-bit] [async-threads:64] [hipe] [kernel-poll:true]\n"},
  30. {memory,
  31.     [{total,56066752},
  32.     {connection_readers,0},
  33.     {connection_writers,0},
  34.     {connection_channels,0},
  35.     {connection_other,2680},
  36.     {queue_procs,268248},
  37.     {queue_slave_procs,0},
  38.     {plugins,1131936},
  39.     {other_proc,18144280},
  40.     {mnesia,125304},
  41.     {mgmt_db,921312},
  42.     {msg_index,69440},
  43.     {other_ets,1413664},
  44.     {binary,755736},
  45.     {code,27824046},
  46.     {atom,1000601},
  47.     {other_system,4409505}]},
  48. {alarms,[]},
  49. {listeners,[{clustering,25672,"::"},{amqp,5672,"::"}]},
  50. {vm_memory_high_watermark,0.4},
  51. {vm_memory_limit,411294105},
  52. {disk_free_limit,50000000},
  53. {disk_free,13270233088},
  54. {file_descriptors,
  55.     [{total_limit,924},{total_used,6},{sockets_limit,829},{sockets_used,0}]},
  56. {processes,[{limit,1048576},{used,262}]},
  57. {run_queue,0},
  58. {uptime,43651},
  59. {kernel,{net_ticktime,60}}]

RabbitMQ的集群是依赖erlang集群,而erlang集群是通过这个cookie进行通信认证的,因此我们搭集群的第一步就是处理cookie。怎么办?必须使集群中也就是这3台机器的.erlang.cookie文件中cookie值一致,且权限为owner只读。rpm安装的erlang,直接去/var/lib/rabbitmq目录看!建议直接scp其中一个节点的.erlang.cookie文件到另外两个节点即可!

机器192.168.223.128中的Cookie:20210203230538849.png

机器192.168.223.129中的Cookie20210203230547112.png

机器192.168.223.130中的Cookie:20210203230554849.png

修改文件权限如下:

  1. cd /var/lib/rabbitmq
  2. chmod 600 .erlang.cookie  #这个文件是隐藏的哦

停止rabbitmq服务

service rabbitmq-server stop

 

3.2 配置DNS域名解析

为了方便,不需要写一长串的ip地址,配置域名解析,vim /etc/hosts

  1. 192.168.223.128 ydt1
  2. 192.168.223.129 ydt2
  3. 192.168.223.130 ydt3

保证相互之间能够ping通

20210203230603767.png

3.3 配置集群启动

先把三台机器的防火墙先关了,如果你不想关,可以关闭各自的4369集群通信端口

  1. #关闭防火墙
  2. systemctl stop firewalld
  3. -----------------------------------------------------------------------------
  4. #开启端口,其他端口照做
  5. firewall-cmd --zone=public --add-port=4369/tcp --permanent    
  6. #重启防火墙
  7. firewall-cmd --reload
  8. #查看端口号是否开启
  9. firewall-cmd --query-port=4369/tcp
  10. #测试是否可以访问虚拟机端口
  11. telnet 192.168.223.128 4369

集群模式启动三个节点,并设置节点名(如果集群关系已经建立,后面不用操作了):

  1. #当然,你也可以使用后台启动:RABBITMQ_NODENAME=rabbit1 rabbitmq-server -detached
  2. RABBITMQ_NODENAME=rabbit1 rabbitmq-server start
  3. RABBITMQ_NODENAME=rabbit2 rabbitmq-server start
  4. RABBITMQ_NODENAME=rabbit3 rabbitmq-server start
  5. #如果启动失败如下,需要删掉原始集群记录,注意生产环境不要删单独disc节点的(磁盘持久化)节点:rm -rf /var/lib/rabbitmq/mnesia
  6. BOOT FAILED
  7. ===========
  8. Error description:
  9.   {could_not_start,mnesia,
  10.       {{shutdown,{failed_to_start_child,mnesia_kernel_sup,killed}},
  11.       {mnesia_sup,start,[normal,[]]}}}
  12. Log files (may contain more information):
  13.   /var/log/rabbitmq/rabbit3.log
  14.   /var/log/rabbitmq/rabbit3-sasl.log
  15. {"init terminating in do_boot",{could_not_start,mnesia,{{shutdown,{failed_to_start_child,mnesia_kernel_sup,killed}},{mnesia_sup,start,[normal,[]]}}}}

分别启动后并没有建立集群关系,只是单机启动,只是取了个节点名称而已,如:

20210203230616879.png

关闭命令

  1. rabbitmqctl -n rabbit1 stop
  2. rabbitmqctl -n rabbit2 stop
  3. rabbitmqctl -n rabbit3 stop

PS: 以下操作如果集群关系已经建立的情况下就不需要再执行了

rabbit1操作作为主节点,如果该节点是唯一的disk节点,则不能重置,防止数据丢失:

  1. rabbitmqctl -n rabbit1 stop_app  
  2. rabbitmqctl -n rabbit1 reset
  3. rabbitmqctl -n rabbit1 start_app

rabbit2/rabbit3操作为从节点:

  1. #rabbit2
  2. rabbitmqctl -n rabbit2 stop_app
  3. rabbitmqctl -n rabbit2 reset
  4. rabbitmqctl -n rabbit2 join_cluster rabbit1@ydt1 --ram #主机名换成自己的,如果不加--ram表示为磁盘持久化节点
  5. rabbitmqctl -n rabbit2 start_app #应用启动
  6. #rabbit3
  7. rabbitmqctl -n rabbit3 stop_app
  8. rabbitmqctl -n rabbit3 reset
  9. rabbitmqctl -n rabbit3 join_cluster rabbit1@ydt1 --ram #主机名换成自己的,如果不加--ram表示为磁盘持久化节点
  10. rabbitmqctl -n rabbit3 start_app  #应用启动

查看集群状态:

  1. [root@ydt1 ~]# rabbitmqctl cluster_status -n rabbit1
  2. Cluster status of node rabbit1@ydt1 ...
  3. [{nodes,[{disc,[rabbit1@ydt1,rabbit2@ydt2,rabbit3@ydt3]}]},
  4. {running_nodes,[rabbit3@ydt3,rabbit2@ydt2,rabbit1@ydt1]},
  5. {cluster_name,<<"rabbit1@ydt1">>},
  6. {partitions,[]},
  7. {alarms,[{rabbit3@ydt3,[]},{rabbit2@ydt2,[]},{rabbit1@ydt1,[]}]}]

登录任意节点管理控制台查看

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2h1eGlhbmcxOTg1MTExNA==,size_16,color_FFFFFF,t_70

 

4 、集群管理

官网地址:https://www.rabbitmq.com/clustering.html

rabbitmqctl join_cluster {cluster_node} [--disc/--ram] 将节点加入指定集群中。在这个命令执行前需要停止RabbitMQ应用并重置节点。

rabbitmqctl cluster_status 显示集群的状态。

  1. [root@ydt1 ~]# rabbitmqctl cluster_status -n rabbit1
  2. Cluster status of node rabbit1@ydt1 ...
  3. [{nodes,[{disc,[rabbit1@ydt1]},{ram,[rabbit3@ydt3,rabbit2@ydt2]}]},
  4. {running_nodes,[rabbit2@ydt2,rabbit3@ydt3,rabbit1@ydt1]},
  5. {cluster_name,<<"rabbit1@ydt1">>},
  6. {partitions,[]},
  7. {alarms,[{rabbit2@ydt2,[]},{rabbit3@ydt3,[]},{rabbit1@ydt1,[]}]}]

rabbitmqctl change_cluster_node_type {disc|ram} 修改集群节点的类型(磁盘还是内存)。在这个命令执行前需要停止RabbitMQ应用。

  1. [root@ydt2 ~]# rabbitmqctl -n rabbit2 stop_app
  2. Stopping node rabbit2@ydt2 ...
  3. [root@ydt2 ~]# rabbitmqctl -n rabbit2 change_cluster_node_type ram
  4. Turning rabbit2@ydt2 into a ram node ...
  5. [root@ydt2 ~]# rabbitmqctl -n rabbit2 start_app
  6. Starting node rabbit2@ydt2 ...

节点类型 集群中的节点一般有两种,一种是内存节点,一种是磁盘节点,内存节点由于没有磁盘读写,性能比磁盘节点好,磁盘节点可以将状态持久化到磁盘,可用性比内存节点好,需要权衡考虑.本次用的一台作为磁盘节点,做数据备份,两台内存节点,用于提高性能.

Rabbitmq要求在集群中至少有一个磁盘节点,所有其他节点可以是内存节点,当节点加入或者离开集群时,必须要将该变更通知到至少一个磁盘节点.如果集群中唯一的磁盘节点崩溃的话,集群仍然可以保持运行,但是无法进行其他的操作(增删改查),直到节点恢复.

rabbitmqctl forget_cluster_node [--offline] 将节点从集群中删除,允许离线执行(停机后执行)。

  1. rabbitmqctl -n rabbit3 stop_app #在rabbit3节点停掉rabbitmq服务
  2. rabbitmqctl -n rabbit1 forget_cluster_node rabbit3@ydt3 #在rabbit1节点移除集群中的rabbit3节点
  3. #当rabbit3再次启动时会报错如下:
  4. [root@ydt3 ~]# rabbitmqctl -n rabbit3 start_app
  5. Starting node rabbit3@ydt3 ...
  6. BOOT FAILED
  7. ===========
  8. Error description:
  9.   {error,{inconsistent_cluster,"Node rabbit3@ydt3 thinks it's clustered with node rabbit2@ydt2, but rabbit2@ydt2 disagrees"}}
  10. Log files (may contain more information):
  11.   /var/log/rabbitmq/rabbit3.log
  12.   /var/log/rabbitmq/rabbit3-sasl.log
  13. Stack trace:
  14.   [{rabbit_mnesia,check_cluster_consistency,0,
  15.                   [{file,"src/rabbit_mnesia.erl"},{line,598}]},
  16.   {rabbit,'-start/0-fun-0-',0,[{file,"src/rabbit.erl"},{line,260}]},
  17.   {rabbit,start_it,1,[{file,"src/rabbit.erl"},{line,403}]},
  18.   {rpc,'-handle_call_call/6-fun-0-',5,[{file,"rpc.erl"},{line,206}]}]
  19. Error: {error,{inconsistent_cluster,"Node rabbit3@ydt3 thinks it's clustered with node rabbit2@ydt2, but rabbit2@ydt2 disagrees"}}
  20. #再次加入集群需如下执行命令
  21. rabbitmqctl -n rabbit3 stop_app
  22. rabbitmqctl -n rabbit3 reset #等同于:rm -rf /var/lib/rabbitmq/mnesia/
  23. rabbitmqctl -n rabbit3 join_cluster rabbit1@ydt1 --ram #主机名换成自己的
  24. rabbitmqctl -n rabbit3 start_app  #应用启动

rabbitmqctl update_cluster_nodes {clusternode}

在集群中的节点应用启动前咨询clusternode节点的最新信息,并更新相应的集群信息。这个和join_cluster不同,它不加入集群。考虑这样一种情况,节点A和节点B都在集群中,当节点A离线了,节点C又和节点B组成了一个集群,然后节点B又离开了集群,当A醒来的时候,它会尝试联系节点B,但是这样会失败,因为节点B已经不在集群中了。

执行步骤:

1)、A+B

2)、B

3)、B+C

4)、C

5)、C+A ---------在这一步需要先执行如下命令然后再重启

  1. [root@ydt1 ~]# rabbitmqctl -n rabbit1 stop_app
  2. Stopping node rabbit1@ydt1 ...
  3. [root@ydt1 ~]# rabbitmqctl -n rabbit1 update_cluster_nodes rabbit3@ydt3 #从存活节点rabbit3更新集群信息
  4. Updating cluster nodes for rabbit1@ydt1 from rabbit3@ydt3 ...
  5. [root@ydt1 ~]# rabbitmqctl -n rabbit1 start_app
  6. Starting node rabbit1@ydt1 ...

否则rabbit1启动报错如下:watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2h1eGlhbmcxOTg1MTExNA==,size_16,color_FFFFFF,t_70

rabbitmqctl cancel_sync_queue [-p vhost] {queue}取消镜像队列queue同步的操作

  1. [root@ydt3 ~]# rabbitmqctl -n rabbit3 cancel_sync_queue -p cluster cluster_queue
  2. Stopping synchronising queue 'cluster_queue' in vhost 'cluster' ...
  3. {"init terminating in do_boot",{function_clause,[{rabbit_control_misc,print_cmd_result,[cancel_sync_queue,not_syncing],[{file,"src/rabbit_control_misc.erl"},{line,92}]},{rabbit_cli,main,3,[{file,"src/rabbit_cli.erl"},{line,89}]},{init,start_it,1,[]},{init,start_em,1,[]}]}}
  4. init terminating in do_boot ()

PS:注意是镜像队列才有意义,因为普通队列就只有一个节点持久化了

rabbitmqctl set_cluster_name {name} 设置集群名称。集群名称在客户端连接时会通报给客户端。Federation和Shovel插件也会有用到集群名称的地方。集群名称默认是集群中第一个节点的名称,通过这个命令可以重新设置。

20210203230702682.png

5 、RabbitMQ镜像集群配置

默认的集群模式,queue创建之后,如果没有其它policy,则queue就会按照普通模式集群。对于Queue来说,消息实体只存在于其中一个节点,A、B两个节点仅有相同的元数据,即队列结构,但队列的元数据仅保存有一份,即创建该队列的rabbitmq节点(A节点),当A节点宕机,你可以去其B节点查看,发现该队列已经丢失。

当消息进入A节点的Queue中后,consumer从B节点拉取时,RabbitMQ会临时在A、B间进行消息传输,把A中的消息实体取出并经过B发送给consumer,所以consumer应平均连接每一个节点,从中取消息。该模式存在一个问题就是当A节点故障后,B节点无法取到A节点中还未消费的消息实体。如果做了队列持久化或消息持久化,那么得等A节点恢复,然后才可被消费,并且在A节点恢复之前其它节点不能再创建A节点已经创建过的持久队列;如果没有持久化的话,消息就会失丢。这种模式更适合非持久化队列,只有该队列是非持久的,客户端才能重新连接到集群里的其他节点,并重新创建队列。假如该队列是持久化的,那么唯一办法是将故障节点恢复起来。

镜像队列是基于普通的集群模式的,然后再添加一些策略,所以你还是得先配置普通集群,然后才能设置镜像队列,我们就以上面的集群接着做。

镜像模式:把需要的队列做成镜像队列,存在于多个节点,属于RabbitMQ的HA方案

该模式解决了上述问题,其实质和普通模式不同之处在于,消息实体会主动在镜像节点间同步,而不是在consumer取数据时临时拉取。该模式带来的副作用也很明显,除了降低系统性能外,如果镜像队列数量过多,加之大量的消息进入,集群内部的网络带宽将会被这种同步通讯大大消耗掉。所以在对可靠性要求较高的场合中适用,一个队列想做成镜像队列,需要先设置policy,然后客户端创建队列的时候,rabbitmq集群根据“队列名称”自动设置是普通集群模式或镜像队列。

设置的镜像队列可以通过开启的网页的管理端Admin->Policies,也可以通过命令。

rabbitmqctl set_policy my_ha "^" '{"ha-mode":"all"}'

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2h1eGlhbmcxOTg1MTExNA==,size_16,color_FFFFFF,t_70

Virtual host: 可选参数,针对指定vhost下的queue进行设置 Name: policy的名称 Pattern: queue的匹配模式(正则表达式) Definition:镜像定义,包括三个部分ha-mode, ha-params, ha-sync-mode ha-mode:指明镜像队列的模式,有效值为 all/exactly/nodes all:表示在集群中所有的节点上进行镜像 exactly:表示在指定个数的节点上进行镜像,节点的个数由ha-params指定 nodes:表示在指定的节点上进行镜像,节点名称通过ha-params指定

ha-params:ha-mode模式需要用到的参数 ha-sync-mode:进行队列中消息的同步方式,有效值为automatic和manual priority:可选参数,policy的优先级

创建完后可以同步到集群各节点:

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2h1eGlhbmcxOTg1MTExNA==,size_16,color_FFFFFF,t_70

6、负载均衡-HAProxy

HAProxy提供高可用性、负载均衡以及基于TCP和HTTP应用的代理,支持虚拟主机,它是免费、快速并且可靠的一种解决方案,包括Twitter,Reddit,StackOverflow,GitHub在内的多家知名互联网公司在使用。HAProxy实现了一种事件驱动、单一进程模型,此模型支持非常大的并发连接数。

6.1 安装HAProxy

  1. #下载依赖包,有就不用装了
  2. yum install gcc vim wget
  3. #上传haproxy源码包 haproxy-1.6.5.tar.gz,已提供,你高兴自己下载也行
  4. wget http://www.haproxy.org/download/1.5/src/haproxy-1.6.5.tar.gz
  5. #解压
  6. tar -zxvf haproxy-1.6.5.tar.gz -C /usr/local
  7. #进入目录、进行编译、安装
  8. cd /usr/local/haproxy-1.6.5
  9. make TARGET=linux31 PREFIX=/usr/local/haproxy
  10. make install PREFIX=/usr/local/haproxy
  11. mkdir /etc/haproxy
  12. #赋权
  13. groupadd -r -g 149 haproxy
  14. useradd -g haproxy -r -s /sbin/nologin -u 149 haproxy
  15. #创建haproxy配置文件
  16. touch /etc/haproxy/haproxy.cfg

 

6.2 配置HAProxy

配置文件路径:/etc/haproxy/haproxy.cfg

  1. vim /etc/haproxy/haproxy.cfg
  2. #logging options
  3. global
  4.       log 127.0.0.1 local0 info
  5.       maxconn 5120 #最大连接数,默认4000
  6.        chroot /usr/local/haproxy
  7.       uid 99
  8.       gid 99
  9.       daemon
  10.       quiet
  11.       nbproc 20
  12.       pidfile /var/run/haproxy.pid #haproxy的pid存放路径,启动进程的用户必须有权限访问此文件
  13. defaults
  14.       log global
  15.       mode tcp
  16.       option tcplog
  17.       option dontlognull
  18.       retries 3
  19.       option redispatch
  20.       maxconn 2000
  21.       contimeout 5s
  22.     clitimeout 60s
  23.     srvtimeout 15s
  24. #front-end IP for consumers and producters
  25. listen rabbitmq_cluster
  26.       bind *:5672 #监听端口,当然你也可以写你HaProxy所在的服务器IP
  27.       mode tcp
  28.        #balance url_param userid
  29.        #balance url_param session_id check_post 64
  30.        #balance hdr(User-Agent)
  31.        #balance hdr(host)
  32.        #balance hdr(Host) use_domain_only
  33.        #balance rdp-cookie
  34.        #balance leastconn
  35.        #balance source //ip
  36. #负载均衡算法
  37. #1.balance roundrobin # 轮询,负载均衡基本都具备这种算法
  38. #2.balance static-rr # 根据权重
  39. #3.balance leastconn # 最少连接者先处理
  40. #4.balance source # 根据请求源IP
  41. #5.balance uri # 根据请求的URI
  42. #6.balance url_param,# 根据请求的URl参数'balance url_param' requires an URL parameter name
  43. #7.balance hdr(name) # 根据HTTP请求头来锁定每一次HTTP请求
  44. #8.balance rdp-cookie(name) # 根据据cookie(name)来锁定并哈希每一次TCP请求
  45.       balance static-rr
  46.       server node3 192.168.223.130:5672 weight 1
  47.       server node2 192.168.223.129:5672 weight 10
  48.       server node1 192.168.223.128:5672 weight 1
  49. listen stats
  50.       bind *:8100 #监听端口,当然你也可以写你HaProxy所在的服务器IP
  51.       mode http
  52.       option httplog
  53.       stats enable
  54.       stats uri /rabbitmq-stats #统计页面url
  55.       stats refresh 5s #统计页面自动刷新时间

6.3 启动HAproxy负载

  1. /usr/local/haproxy/sbin/haproxy -f /etc/haproxy/haproxy.cfg
  2. //查看haproxy进程状态
  3. ps -ef | grep haproxy

访问如下地址对mq节点进行监控 http://192.168.223.131:8100/rabbitmq-stats

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2h1eGlhbmcxOTg1MTExNA==,size_16,color_FFFFFF,t_70

 

7、Java代码测试负载均衡代理

代码中访问mq集群地址,则变为访问haproxy地址:192.168.223.131:5672

  1. package com.ydt.rabbitmq.cluster;
  2. import java.io.IOException;
  3. import java.util.concurrent.TimeoutException;
  4. import com.rabbitmq.client.Channel;
  5. import com.rabbitmq.client.Connection;
  6. import com.rabbitmq.client.ConnectionFactory;
  7. public class Producer {
  8.    public static void main(String[] args) throws IOException, TimeoutException {
  9.        ConnectionFactory factory = new ConnectionFactory();
  10.        //配置连接属性
  11.        factory.setHost("192.168.223.131");
  12.        factory.setPort(5672);
  13.        factory.setVirtualHost("ydt");
  14.        factory.setUsername("guest");
  15.        factory.setPassword("guest");
  16.        while (true) {
  17.            //得到连接
  18.            Connection connection = factory.newConnection();
  19.            //创建通道
  20.            Channel channel = connection.createChannel();
  21.            //声明(创建)队列
  22.            String queueName = "queue.aaa";
  23.            channel.queueDeclare(queueName, true, false, false, null);
  24.            //发送消息
  25.            String message = "Hello, RabbitMQ Cluster";
  26.            channel.basicPublish("", queueName, null, message.getBytes("UTF-8"));
  27.            try {
  28.                Thread.sleep(100);
  29.           } catch (InterruptedException e) {
  30.                e.printStackTrace();
  31.           }
  32.            System.out.println("Consumer: " + message);
  33.            channel.close();
  34.            connection.close();
  35.       }
  36.   }
  37. }

可以查看到对应的调度情况

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2h1eGlhbmcxOTg1MTExNA==,size_16,color_FFFFFF,t_70

 

8、开启rabbitmq日志监控插件

Trace 是Rabbitmq用于记录每一次发送的消息,方便使用Rabbitmq的开发者调试、排错。

1)、查看是否有trace插件:rabbitmq-plugins list

watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2h1eGlhbmcxOTg1MTExNA==,size_16,color_FFFFFF,t_70

2)、启动Trace插件:rabbitmqctl trace_on -n rabbit2@ydt2 -p ydt (-n 节点名称;-p MQ虚拟机名称,不写标识默认交换机)

20210203231004244.png

3)、启动日志插件命令:rabbitmq-plugins enable rabbitmq_tracing -n rabbit2@ydt2

20210203231017241.png

750a96f1213fde619ab85ab1c8d2e3e5.png转存失败重新上传取消

4)、管理页面添加Tracing

9、Keppalive虚拟IP漂移

家庭作业自己玩,参照之前章节:Redis高可用集群实现,MySQL高可用,Nginx高可用等,使用 keepalived 监听 haproxy 节点是否挂机,挂了启用备份的 haproxy 节点,从而达到高可用

 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/凡人多烦事01/article/detail/126801
推荐阅读
  

闽ICP备14008679号