赞
踩
https://www.jianshu.com/p/580c924a15ad
https://zhuanlan.zhihu.com/p/135901821
RabbitMQ这款消息队列中间件产品本身是基于Erlang
编写,Erlang语言天生具备分布式特性(通过同步Erlang集群各节点的magic cookie来实现)。因此,RabbitMQ天然支持Clustering。这使得RabbitMQ本身不需要像ActiveMQ、Kafka那样通过ZooKeeper分别来实现HA方案和保存集群的元数据。集群是保证可靠性的一种方式,同时可以通过水平扩展以达到增加消息吞吐量能力的目的。
在实际使用过程中多采取多机多实例部署方式,为了便于同学们练习搭建,有时候你不得不在一台机器上去搭建一个rabbitmq集群,本章主要针对单机多实例这种方式来进行开展。
主要参考官方文档:https://www.rabbitmq.com/clustering.html
配置的前提是你的rabbitmq可以运行起来,比如”ps aux|grep rabbitmq”你能看到相关进程,又比如运行“rabbitmqctl status”你可以看到类似如下信息,而不报错:
执行下面命令进行查看:
ps aux|grep rabbitmq
或者
systemctl status rabbitmq-server
注意:确保RabbitMQ可以运行的,确保完成之后,把单机版的RabbitMQ服务停止,后台看不到RabbitMQ的进程为止
**场景:**假设有两个rabbitmq节点,分别为rabbit-1, rabbit-2,rabbit-1作为主节点,rabbit-2作为从节点。
启动命令:RABBITMQ_NODE_PORT=5672 RABBITMQ_NODENAME=rabbit-1 rabbitmq-server -detached
结束命令:rabbitmqctl -n rabbit-1 stop
> sudo RABBITMQ_NODE_PORT=5672 RABBITMQ_NODENAME=rabbit-1 rabbitmq-server start &...............省略...................
########## Logs: /var/log/rabbitmq/rabbit-1.log
###### ## /var/log/rabbitmq/rabbit-1-sasl.log
##########
Starting broker...
completed with 7 plugins.
至此节点rabbit-1启动完成。
注意:web管理插件端口占用,所以还要指定其web插件占用的端口号
RABBITMQ_SERVER_START_ARGS=”-rabbitmq_management listener [{port,15673}]”
sudo RABBITMQ_NODE_PORT=5673 RABBITMQ_SERVER_START_ARGS="-rabbitmq_management listener [{port,15673}]" RABBITMQ_NODENAME=rabbit-2 rabbitmq-server start &
..............省略..................
########## Logs: /var/log/rabbitmq/rabbit-2.log
###### ## /var/log/rabbitmq/rabbit-2-sasl.log ##########
Starting broker...
completed with 7 plugins.
至此节点rabbit-2启动完成
rabbitmq 2022 2.7 0.4 5349380 77020 ? Sl 11:03 0:06 /usr/lib/erlang/erts-9.2/bin/beam.smp -W w -A 128 -P 1048576 -t 5000000 -stbt db -zdbbl 128000 -K true -B i -- -root /usr/lib/erlang -progname erl -- -home /var/lib/rabbitmq -- -pa /usr/lib/rabbitmq/lib/rabbitmq_server-3.6.15/ebin -noshell -noinput -s rabbit boot -sname rabbit-1 -boot start_sasl -kernel inet_default_connect_options [{nodelay,true}] -rabbit tcp_listeners [{"auto",5672}] -sasl errlog_type error -sasl sasl_error_logger false -rabbit error_logger {file,"/var/log/rabbitmq/rabbit-1.log"} -rabbit sasl_error_logger {file,"/var/log/rabbitmq/rabbit-1-sasl.log"} -rabbit enabled_plugins_file "/etc/rabbitmq/enabled_plugins" -rabbit plugins_dir "/usr/lib/rabbitmq/plugins:/usr/lib/rabbitmq/lib/rabbitmq_server-3.6.15/plugins" -rabbit plugins_expand_dir "/var/lib/rabbitmq/mnesia/rabbit-1-plugins-expand" -os_mon start_cpu_sup false -os_mon start_disksup false -os_mon start_memsup false -mnesia dir "/var/lib/rabbitmq/mnesia/rabbit-1" -kernel inet_dist_listen_min 25672 -kernel inet_dist_listen_max 25672 startrabbitmq 2402 4.2 0.4 5352196 77196 ? Sl 11:05 0:05 /usr/lib/erlang/erts-9.2/bin/beam.smp -W w -A 128 -P 1048576 -t 5000000 -stbt db -zdbbl 128000 -K true -B i -- -root /usr/lib/erlang -progname erl -- -home /var/lib/rabbitmq -- -pa /usr/lib/rabbitmq/lib/rabbitmq_server-3.6.15/ebin -noshell -noinput -s rabbit boot -sname rabbit-2 -boot start_sasl -kernel inet_default_connect_options [{nodelay,true}] -rabbit tcp_listeners [{"auto",5673}] -sasl errlog_type error -sasl sasl_error_logger false -rabbit error_logger {file,"/var/log/rabbitmq/rabbit-2.log"} -rabbit sasl_error_logger {file,"/var/log/rabbitmq/rabbit-2-sasl.log"} -rabbit enabled_plugins_file "/etc/rabbitmq/enabled_plugins" -rabbit plugins_dir "/usr/lib/rabbitmq/plugins:/usr/lib/rabbitmq/lib/rabbitmq_server-3.6.15/plugins" -rabbit plugins_expand_dir "/var/lib/rabbitmq/mnesia/rabbit-2-plugins-expand" -os_mon start_cpu_sup false -os_mon start_disksup false -os_mon start_memsup false -mnesia dir "/var/lib/rabbitmq/mnesia/rabbit-2" -rabbitmq_management listener [{port,15673}] -kernel inet_dist_listen_min 25673 -kernel inet_dist_listen_max 25673 start
#停止应用
> sudo rabbitmqctl -n rabbit-1 stop_app
#目的是清除节点上的历史数据(如果不清除,无法将节点加入到集群)
> sudo rabbitmqctl -n rabbit-1 reset
#启动应用
> sudo rabbitmqctl -n rabbit-1 start_app
# 停止应用
> sudo rabbitmqctl -n rabbit-2 stop_app
# 目的是清除节点上的历史数据(如果不清除,无法将节点加入到集群)
> sudo rabbitmqctl -n rabbit-2 reset
# 将rabbit2节点加入到rabbit1(主节点)集群当中【Server-node服务器的主机名】
> sudo rabbitmqctl -n rabbit-2 join_cluster rabbit-1@'Server-node'
# 启动应用
> sudo rabbitmqctl -n rabbit-2 start_app
> sudo rabbitmqctl cluster_status -n rabbit-1
//集群有两个节点:rabbit-1@Server-node、rabbit-2@Server-node[{nodes,[{disc,['rabbit-1@Server-node','rabbit-2@Server-node']}]}, {running_nodes,['rabbit-2@Server-node','rabbit-1@Server-node']}, {cluster_name,<<"rabbit-1@Server-node.localdomain">>}, {partitions,[]}, {alarms,[{'rabbit-2@Server-node',[]},{'rabbit-1@Server-node',[]}]}]
注意在访问的时候:web结面的管理需要给15672 node-1 和15673的node-2 设置用户名和密码。如下:
rabbitmqctl -n rabbit-1 add_user admin admin
rabbitmqctl -n rabbit-1 set_user_tags admin administrator
rabbitmqctl -n rabbit-1 set_permissions -p / admin ".*" ".*" ".*"
rabbitmqctl -n rabbit-2 add_user admin admin
rabbitmqctl -n rabbit-2 set_user_tags admin administrator
rabbitmqctl -n rabbit-2 set_permissions -p / admin ".*" ".*" ".*"
Tips:
如果采用多机部署方式,需读取其中一个节点的cookie, 并复制到其他节点(节点之间通过cookie确定相互是否可通信)。cookie存放在/var/lib/rabbitmq/.erlang.cookie。
例如:主机名分别为rabbit-1、rabbit-2
1、逐个启动各节点
2、配置各节点的hosts文件( vim /etc/hosts)
ip1:rabbit-1
ip2:rabbit-2
其它步骤雷同单机部署方式
分布式事务指事务的操作位于不同的节点上,需要保证事务的 AICD 特性。
例如在下单场景下,库存和订单如果不在同一个节点上,就涉及分布式事务。
在分布式系统中,要实现分布式事务,无外乎那几种解决方案。
两阶段提交(Two-phase Commit,2PC),通过引入协调者(Coordinator)来协调参与者的行为,并最终决定这些参与者是否要真正执行事务。
协调者询问参与者事务是否执行成功,参与者发回事务执行结果。
1.2 提交阶段
如果事务在每个参与者上都执行成功,事务协调者发送通知让参与者提交事务;否则,协调者发送通知让参与者回滚事务。
需要注意的是,在准备阶段,参与者执行了事务,但是还未提交。只有在提交阶段接收到协调者发来的通知后,才进行提交或者回滚。
TCC 其实就是采用的补偿机制,其核心思想是:针对每个操作,都要注册一个与其对应的确认和补偿(撤销)操作。它分为三个阶段:
举个例子,假入 Bob 要向 Smith 转账,思路大概是: 我们有一个本地方法,里面依次调用
1:首先在 Try 阶段,要先调用远程接口把 Smith 和 Bob 的钱给冻结起来。
2:在 Confirm 阶段,执行远程调用的转账的操作,转账成功进行解冻。
3:如果第2步执行成功,那么转账成功,如果第二步执行失败,则调用远程冻结接口对应的解冻方法 (Cancel)。
优点: 跟2PC比起来,实现以及流程相对简单了一些,但数据的一致性比2PC也要差一些
缺点: 缺点还是比较明显的,在2,3步中都有可能失败。TCC属于应用层的一种补偿方式,所以需要程序员在实现的时候多写很多补偿的代码,在一些场景中,一些业务流程可能用TCC不太好定义及处理。
本地消息表与业务数据表处于同一个数据库中,这样就能利用本地事务来保证在对这两个表的操作满足事务特性,并且使用了消息队列来保证最终一致性。
优点: 一种非常经典的实现,避免了分布式事务,实现了最终一致性。
缺点: 消息表会耦合到业务系统中,如果没有封装好的解决方案,会有很多杂活需要处理。
有一些第三方的MQ是支持事务消息的,比如RocketMQ,他们支持事务消息的方式也是类似于采用的二阶段提交,但是市面上一些主流的MQ都是不支持事务消息的,比如 Kafka 不支持。
以阿里的 RabbitMQ 中间件为例,其思路大致为:
第一阶段Prepared消息,会拿到消息的地址。 第二阶段执行本地事务,第三阶段通过第一阶段拿到的地址去访问消息,并修改状态。
也就是说在业务方法内要想消息队列提交两次请求,一次发送消息和一次确认消息。如果确认消息发送失败了RabbitMQ会定期扫描消息集群中的事务消息,这时候发现了Prepared消息,它会向消息发送者确认,所以生产方需要实现一个check接口,RabbitMQ会根据发送端设置的策略来决定是回滚还是继续发送确认消息。这样就保证了消息发送与本地事务同时成功或同时失败。
优点: 实现了最终一致性,不需要依赖本地数据库事务。
缺点: 实现难度大,主流MQ不支持,RocketMQ事务消息部分代码也未开源。
通过本文我们总结并对比了几种分布式分解方案的优缺点,分布式事务本身是一个技术难题,是没有一种完美的方案应对所有场景的,具体还是要根据业务场景去抉择吧。阿里RocketMQ去实现的分布式事务,现在也有除了很多分布式事务的协调器,比如LCN等,大家可以多去尝试。
分布式事务的完整架构图
package com.xuexiangban.rabbitmq.service; import com.xuexiangban.rabbitmq.dao.OrderDataBaseService; import com.xuexiangban.rabbitmq.pojo.Order; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.http.client.SimpleClientHttpRequestFactory; import org.springframework.stereotype.Service; import org.springframework.transaction.annotation.Transactional; import org.springframework.web.client.RestTemplate; @Service public class OrderService { @Autowired private OrderDataBaseService orderDataBaseService; // 创建订单 @Transactional(rollbackFor = Exception.class) // 订单创建整个方法添加事务 public void createOrder(Order orderInfo) throws Exception { // 1: 订单信息--插入丁订单系统,订单数据库事务 orderDataBaseService.saveOrder(orderInfo); // 2:通過Http接口发送订单信息到运单系统 String result = dispatchHttpApi(orderInfo.getOrderId()); if(!"success".equals(result)) { throw new Exception("订单创建失败,原因是运单接口调用失败!"); } } /** * 模拟http请求接口发送,运单系统,将订单号传过去 springcloud * @return */ private String dispatchHttpApi(String orderId) { SimpleClientHttpRequestFactory factory = new SimpleClientHttpRequestFactory(); // 链接超时 > 3秒 factory.setConnectTimeout(3000); // 处理超时 > 2秒 factory.setReadTimeout(2000); // 发送http请求 String url = "http://localhost:9000/dispatch/order?orderId="+orderId; RestTemplate restTemplate = new RestTemplate(factory);//异常 String result = restTemplate.getForObject(url, String.class); return result; } }
如果这个时候MQ服务器出现了异常和故障,那么消息是无法获取到回执信息。怎么解决呢?r
如果死信队列报错就进行人工处理
1、通用性强
2、拓展方便
3、耦合度低,方案也比较成熟
1、基于消息中间件,只适合异步场景
2、消息会延迟处理,需要业务上能够容忍
1、尽量去避免分布式事务
2、尽量将非核心业务做成异步
pringboot整合rabbitmq
集群创建方式这里省略
整合开始
1 引入starter
<parent>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-parent</artifactId>
<version>2.2.6.RELEASE</version>
<relativePath/> <!-- lookup parent from repository -->
</parent>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-amqp</artifactId>
</dependency>
2:详细配置如下
rabbitmq: addresses: 127.0.0.1:6605,127.0.0.1:6606,127.0.0.1:6705 #指定client连接到的server的地址,多个以逗号分隔(优先取addresses,然后再取host) # port: ##集群配置 addresses之间用逗号隔开 # addresses: ip:port,ip:port password: admin username: 123456 virtual-host: / # 连接到rabbitMQ的vhost requested-heartbeat: #指定心跳超时,单位秒,0为不指定;默认60s publisher-confirms: #是否启用 发布确认 publisher-reurns: # 是否启用发布返回 connection-timeout: #连接超时,单位毫秒,0表示无穷大,不超时 cache: channel.size: # 缓存中保持的channel数量 channel.checkout-timeout: # 当缓存数量被设置时,从缓存中获取一个channel的超时时间,单位毫秒;如果为0,则总是创建一个新channel connection.size: # 缓存的连接数,只有是CONNECTION模式时生效 connection.mode: # 连接工厂缓存模式:CHANNEL 和 CONNECTION listener: simple.auto-startup: # 是否启动时自动启动容器 simple.acknowledge-mode: # 表示消息确认方式,其有三种配置方式,分别是none、manual和auto;默认auto simple.concurrency: # 最小的消费者数量 simple.max-concurrency: # 最大的消费者数量 simple.prefetch: # 指定一个请求能处理多少个消息,如果有事务的话,必须大于等于transaction数量. simple.transaction-size: # 指定一个事务处理的消息数量,最好是小于等于prefetch的数量. simple.default-requeue-rejected: # 决定被拒绝的消息是否重新入队;默认是true(与参数acknowledge-mode有关系) simple.idle-event-interval: # 多少长时间发布空闲容器时间,单位毫秒 simple.retry.enabled: # 监听重试是否可用 simple.retry.max-attempts: # 最大重试次数 simple.retry.initial-interval: # 第一次和第二次尝试发布或传递消息之间的间隔 simple.retry.multiplier: # 应用于上一重试间隔的乘数 simple.retry.max-interval: # 最大重试时间间隔 simple.retry.stateless: # 重试是有状态or无状态 template: mandatory: # 启用强制信息;默认false receive-timeout: # receive() 操作的超时时间 reply-timeout: # sendAndReceive() 操作的超时时间 retry.enabled: # 发送重试是否可用 retry.max-attempts: # 最大重试次数 retry.initial-interval: # 第一次和第二次尝试发布或传递消息之间的间隔 retry.multiplier: # 应用于上一重试间隔的乘数 retry.max-interval: #最大重试时间间隔
注:相关配置很多,大家只需要关注一些常用的配置即可
对于发送方而言,需要做以下配置:
1 配置CachingConnectionFactory
2 配置Exchange/Queue/Binding
3 配置RabbitAdmin创建上一步的Exchange/Queue/Binding
4 配置RabbitTemplate用于发送消息,RabbitTemplate通过CachingConnectionFactory获取到Connection,然后想指定Exchange发送
对于消费方而言,需要做以下配置:
1 配置CachingConnectionFactory
2 配置Exchange/Queue/Binding
3 配置RabbitAdmin创建上一步的Exchange/Queue/Binding
4 配置RabbitListenerContainerFactory
5 配置@RabbitListener/@RabbitHandler用于接收消息
在默认情况下主要的配置如下:
3 Spring AMQP的主要对象
注:如果不了解AMQP请前往官网了解.
4 使用:
通过配置类加载的方式:
package com.yd.demo.config; import org.slf4j.Logger; import org.slf4j.LoggerFactory; import org.springframework.amqp.core.AcknowledgeMode; import org.springframework.amqp.core.Binding; import org.springframework.amqp.core.BindingBuilder; import org.springframework.amqp.core.DirectExchange; import org.springframework.amqp.core.Queue; import org.springframework.amqp.core.TopicExchange; import org.springframework.amqp.rabbit.config.SimpleRabbitListenerContainerFactory; import org.springframework.amqp.rabbit.connection.CachingConnectionFactory; import org.springframework.amqp.rabbit.connection.ConnectionFactory; import org.springframework.amqp.rabbit.core.RabbitAdmin; import org.springframework.amqp.rabbit.core.RabbitTemplate; import org.springframework.amqp.rabbit.listener.RabbitListenerContainerFactory; import org.springframework.amqp.support.converter.Jackson2JsonMessageConverter; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.beans.factory.annotation.Value; import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; import java.util.HashMap; import java.util.Map; @Configuration public class RabbitConfig { private static final Logger logger = LoggerFactory.getLogger(RabbitConfig.class); public static final String RECEIVEDLXEXCHANGE="spring-ex"; public static final String RECEIVEDLXQUEUE="spring-qu1"; public static final String RECEIVEDLXROUTINGKEY="aa"; public static final String DIRECTEXCHANGE="spring-ex"; public static final String MDMQUEUE="mdmQueue"; public static final String TOPICEXCHANGE="spring-top"; @Value("${spring.rabbitmq.addresses}") private String hosts; @Value("${spring.rabbitmq.username}") private String userName; @Value("${spring.rabbitmq.password}") private String password; @Value("${spring.rabbitmq.virtual-host}") private String virtualHost; /* @Value("${rabbit.channelCacheSize}") private int channelCacheSize;*/ // @Value("${rabbit.port}") // private int port; /* @Autowired private ConfirmCallBackListener confirmCallBackListener; @Autowired private ReturnCallBackListener returnCallBackListener;*/ @Bean public ConnectionFactory connectionFactory(){ CachingConnectionFactory cachingConnectionFactory = new CachingConnectionFactory(); cachingConnectionFactory.setAddresses(hosts); cachingConnectionFactory.setUsername(userName); cachingConnectionFactory.setPassword(password); // cachingConnectionFactory.setChannelCacheSize(channelCacheSize); //cachingConnectionFactory.setPort(port); cachingConnectionFactory.setVirtualHost(virtualHost); //设置连接工厂缓存模式: cachingConnectionFactory.setCacheMode(CachingConnectionFactory.CacheMode.CONNECTION); //缓存连接数 cachingConnectionFactory.setConnectionCacheSize(3); //设置连接限制 cachingConnectionFactory.setConnectionLimit(6); logger.info("连接工厂设置完成,连接地址{}"+hosts); logger.info("连接工厂设置完成,连接用户{}"+userName); return cachingConnectionFactory; } @Bean public RabbitAdmin rabbitAdmin(){ RabbitAdmin rabbitAdmin = new RabbitAdmin(connectionFactory()); rabbitAdmin.setAutoStartup(true); rabbitAdmin.setIgnoreDeclarationExceptions(true); rabbitAdmin.declareBinding(bindingMdmQueue()); //声明topic交换器 rabbitAdmin.declareExchange(directExchange()); logger.info("管理员设置完成"); return rabbitAdmin; } @Bean public RabbitListenerContainerFactory listenerContainerFactory() { SimpleRabbitListenerContainerFactory factory = new SimpleRabbitListenerContainerFactory(); factory.setConnectionFactory(connectionFactory()); factory.setMessageConverter(new Jackson2JsonMessageConverter()); //最小消费者数量 factory.setConcurrentConsumers(10); //最大消费者数量 factory.setMaxConcurrentConsumers(10); //一个请求最大处理的消息数量 factory.setPrefetchCount(10); // factory.setChannelTransacted(true); //默认不排队 factory.setDefaultRequeueRejected(true); //手动确认接收到了消息 factory.setAcknowledgeMode(AcknowledgeMode.MANUAL); logger.info("监听者设置完成"); return factory; } @Bean public DirectExchange directExchange(){ return new DirectExchange(DIRECTEXCHANGE,true,false); } @Bean public Queue mdmQueue(){ Map arguments = new HashMap<>(); // 绑定该队列到私信交换机 arguments.put("x-dead-letter-exchange",RECEIVEDLXEXCHANGE); arguments.put("x-dead-letter-routing-key",RECEIVEDLXROUTINGKEY); logger.info("队列交换机绑定完成"); return new Queue(RECEIVEDLXQUEUE,true,false,false,arguments); } @Bean Binding bindingMdmQueue() { return BindingBuilder.bind(mdmQueue()).to(directExchange()).with(""); } @Bean public RabbitTemplate rabbitTemplate(){ RabbitTemplate rabbitTemplate = new RabbitTemplate(connectionFactory()); rabbitTemplate.setMandatory(true); //发布确认 // rabbitTemplate.setConfirmCallback(confirmCallBackListener); // 启用发布返回 // rabbitTemplate.setReturnCallback(returnCallBackListener); logger.info("连接模板设置完成"); return rabbitTemplate; } /* @Bean public TopicExchange topicExchange(){ return new TopicExchange(TOPICEXCHANGE,true,false); }*/ /* *//** * @return DirectExchange *//* @Bean public DirectExchange dlxExchange() { return new DirectExchange(RECEIVEDLXEXCHANGE,true,false); } *//* * * @return Queue *//* @Bean public Queue dlxQueue() { return new Queue(RECEIVEDLXQUEUE,true); } *//* * @return Binding *//* @Bean public Binding binding() { return BindingBuilder.bind(dlxQueue()).to(dlxExchange()).with(RECEIVEDLXROUTINGKEY); }*/ }
通过两种方式加载
1 通过配置文件
2 通过配置类
说明:上面是通过配置文件与配置类的方式去加载,常用的配置如上所示。实际使用中要生产方与消费方要分开配置,相关配置也会有小变动,大体配置不变。更多信息可查看官网配置。
在广大的互联网行业中RabbitMQ几乎都会有集群,那么对于集群的监控就成了企业生态中必不可少的一环。接下来我们来将讲解主要的4种监控。
管理界面监控需要我们开启对应的插件(rabbitmq-plugins enable rabbitmq_management)
然后访问http://ip:15672
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-2XJtzbZO-1648893819431)(C:\Users\HONOR\Pictures\32-1.png)]
在管理控制台我们就可以直观的看到集群中的每一个节点是否正常,如果为红色则表示节点挂掉了,同时可以很方便的查看到各个节点的内存、磁盘等相关的信息,使用起来也是非常方便的。但是遗憾的该功能做的比较简陋,没有告警等一些列的个性化设置,同时如果想把他接入到公司其他的监控系统统一管理也是很难做到的,所以扩展性不强,一般在小型企业的小集群中使用。
对于企业级的应用开发来讲,我们通常都会比较关注我们的消息,甚至很多的场景把消息的可靠性放在第一位,但是我们的MQ集群难免会出现消息异常丢失或者客户端无法发送消息等异常情况,此时为了帮助开发人员快速的定位问题,我们就可以对消息的投递和消费过程进行监控,而tracing日志监控插件帮我们很好的实现了该功能
消息中心的消息追踪需要使用Trace实现,Trace是Rabbitmq用于记录每一次发送的消息,方便使用Rabbitmq的开发者调试、排错。可通过插件形式提供可视化界面。Trace启动后会自动创建系统Exchange:amq.rabbitmq.trace ,每个队列会自动绑定该Exchange,绑定后发送到队列的消息都会记录到Trace日志。
以下是trace的相关命令和使用(要使用需要先rabbitmq启用插件,再打开开关才能使用):
命令集 | 描述 |
---|---|
rabbitmq-plugins list | 查看插件列表 |
rabbitmq-plugins enable rabbitmq_tracing | rabbitmq启用trace插件 |
rabbitmqctl trace_on | 打开trace的开关 |
rabbitmqctl trace_on -p itcast | 打开trace的开关(itcast为需要日志追踪的vhost) |
rabbitmqctl trace_off | 关闭trace的开关 |
rabbitmq-plugins disable rabbitmq_tracing | rabbitmq关闭Trace插件 |
rabbitmqctl set_user_tags heima administrator | 只有administrator的角色才能查看日志界面 |
安装插件并开启 trace_on 之后,会发现多个 exchange:amq.rabbitmq.trace ,类型为:topic。
1、发送消息
rabbitTemplate.convertAndSend("spring_queue", "只发队列spring_queue的消息--01。");
2、查看trace
RabbitMQ提供了很丰富的restful风格的api接口,我们可以通过这些接口得到对应的集群数据,此时我们就可以定制我们的监控系统。
HTTP API URL | HTTP 请求类型 | 接口含义 |
---|---|---|
/api/connections | GET | 获取当前RabbitMQ集群下所有打开的连接 |
/api/nodes | GET | 获取当前RabbitMQ集群下所有节点实例的状态信息 |
/api/vhosts/{vhost}/connections | GET | 获取某一个虚拟机主机下的所有打开的connection连接 |
/api/connections/{name}/channels | GET | 获取某一个连接下所有的管道信息 |
/api/vhosts/{vhost}/channels | GET | 获取某一个虚拟机主机下的管道信息 |
/api/consumers/{vhost} | GET | 获取某一个虚拟机主机下的所有消费者信息 |
/api/exchanges/{vhost} | GET | 获取某一个虚拟机主机下面的所有交换器信息 |
/api/queues/{vhost} | GET | 获取某一个虚拟机主机下的所有队列信息 |
/api/users | GET | 获取集群中所有的用户信息 |
/api/users/{name} | GET/PUT/DELETE | 获取/更新/删除指定用户信息 |
/api/users/{user}/permissions | GET | 获取当前指定用户的所有权限信息 |
/api/permissions/{vhost}/{user} | GET/PUT/DELETE | 获取/更新/删除指定虚拟主机下特定用户的权限 |
/api/exchanges/{vhost}/{name}/publish | POST | 在指定的虚拟机主机和交换器上发布一个消息 |
/api/queues/{vhost}/{name}/get | POST | 在指定虚拟机主机和队列名中获取消息,同时该动作会修改队列状态 |
/api/healthchecks/node/{node} | GET | 获取指定节点的健康检查状态 |
更多API的相关信息和描述可以访问http://ip:15672/api/
接下来我们使用RabbitMQ Http API接口来获取集群监控数据
<dependency> <groupId>org.apache.httpcomponents</groupId> <artifactId>httpclient</artifactId> <version>4.3.6</version> </dependency> <dependency> <groupId>com.fasterxml.jackson.core</groupId> <artifactId>jackson-databind</artifactId> <version>2.7.4</version> </dependency> <dependency> <groupId>com.fasterxml.jackson.core</groupId> <artifactId>jackson-annotations</artifactId> <version>2.7.4</version> </dependency> <dependency> <groupId>com.fasterxml.jackson.core</groupId> <artifactId>jackson-core</artifactId> <version>2.7.4</version> </dependency>
创建MonitorRabbitMQ类实现具体的代码
package com.xuexiangban.rabbitmq; import com.fasterxml.jackson.databind.DeserializationFeature; import com.fasterxml.jackson.databind.JsonNode; import com.fasterxml.jackson.databind.ObjectMapper; import org.apache.http.HttpEntity; import org.apache.http.auth.UsernamePasswordCredentials; import org.apache.http.client.methods.CloseableHttpResponse; import org.apache.http.client.methods.HttpGet; import org.apache.http.impl.auth.BasicScheme; import org.apache.http.impl.client.CloseableHttpClient; import org.apache.http.impl.client.HttpClients; import org.apache.http.util.EntityUtils; import java.io.IOException; import java.util.HashMap; import java.util.Iterator; import java.util.Map; /** * RabbitMQ的监控 */ public class MonitorRabbitMQ { //RabbitMQ的HTTP API——获取集群各个实例的状态信息,ip替换为自己部署相应实例的 private static String RABBIT_NODES_STATUS_REST_URL = "http://192.168.13.111:15672/api/nodes"; //RabbitMQ的HTTP API——获取集群用户信息,ip替换为自己部署相应实例的 private static String RABBIT_USERS_REST_URL = "http://192.168.13.111:15672/api/users"; //rabbitmq的用户名 private static String RABBIT_USER_NAME = "guest"; //rabbitmq的密码 private static String RABBIT_USER_PWD = "guest"; public static void main(String[] args) { try { //step1.获取rabbitmq集群各个节点实例的状态信息 Map<String, ClusterStatus> clusterMap = fetchRabbtMQClusterStatus(RABBIT_NODES_STATUS_REST_URL, RABBIT_USER_NAME, RABBIT_USER_PWD); //step2.打印输出各个节点实例的状态信息 for (Map.Entry entry : clusterMap.entrySet()) { System.out.println(entry.getKey() + " : " + entry.getValue()); } //step3.获取rabbitmq集群用户信息 Map<String, User> userMap = fetchRabbtMQUsers(RABBIT_USERS_REST_URL, RABBIT_USER_NAME, RABBIT_USER_PWD); //step4.打印输出rabbitmq集群用户信息 for (Map.Entry entry : userMap.entrySet()) { System.out.println(entry.getKey() + " : " + entry.getValue()); } } catch (IOException e) { e.printStackTrace(); } } public static Map<String, ClusterStatus> fetchRabbtMQClusterStatus(String url, String username, String password) throws IOException { Map<String, ClusterStatus> clusterStatusMap = new HashMap<String, ClusterStatus>(); String nodeData = getData(url, username, password); JsonNode jsonNode = null; try { jsonNode = JsonUtil.toJsonNode(nodeData); } catch (IOException e) { e.printStackTrace(); } Iterator<JsonNode> iterator = jsonNode.iterator(); while (iterator.hasNext()) { JsonNode next = iterator.next(); ClusterStatus status = new ClusterStatus(); status.setDiskFree(next.get("disk_free").asLong()); status.setFdUsed(next.get("fd_used").asLong()); status.setMemoryUsed(next.get("mem_used").asLong()); status.setProcUsed(next.get("proc_used").asLong()); status.setSocketUsed(next.get("sockets_used").asLong()); clusterStatusMap.put(next.get("name").asText(), status); } return clusterStatusMap; } public static Map<String, User> fetchRabbtMQUsers(String url, String username, String password) throws IOException { Map<String, User> userMap = new HashMap<String, User>(); String nodeData = getData(url, username, password); JsonNode jsonNode = null; try { jsonNode = JsonUtil.toJsonNode(nodeData); } catch (IOException e) { e.printStackTrace(); } Iterator<JsonNode> iterator = jsonNode.iterator(); while (iterator.hasNext()) { JsonNode next = iterator.next(); User user = new User(); user.setName(next.get("name").asText()); user.setTags(next.get("tags").asText()); userMap.put(next.get("name").asText(), user); } return userMap; } public static String getData(String url, String username, String password) throws IOException { CloseableHttpClient httpClient = HttpClients.createDefault(); UsernamePasswordCredentials creds = new UsernamePasswordCredentials(username, password); HttpGet httpGet = new HttpGet(url); httpGet.addHeader(BasicScheme.authenticate(creds, "UTF-8", false)); httpGet.setHeader("Content-Type", "application/json"); CloseableHttpResponse response = httpClient.execute(httpGet); try { if (response.getStatusLine().getStatusCode() != 200) { System.out.println("call http api to get rabbitmq data return code: " + response.getStatusLine().getStatusCode() + ", url: " + url); } HttpEntity entity = response.getEntity(); if (entity != null) { return EntityUtils.toString(entity); } } finally { response.close(); } return null; } public static class JsonUtil { private static ObjectMapper objectMapper = new ObjectMapper(); static { objectMapper.disable(DeserializationFeature.FAIL_ON_UNKNOWN_PROPERTIES); //objectMapper.disable(SerializationFeature.FAIL_ON_EMPTY_BEANS); } public static JsonNode toJsonNode(String jsonString) throws IOException { return objectMapper.readTree(jsonString); } } public static class User { private String name; private String tags; @Override public String toString() { return "User{" + "name=" + name + ", tags=" + tags + '}'; } //GET/SET方法省略 public String getName() { return name; } public void setName(String name) { this.name = name; } public String getTags() { return tags; } public void setTags(String tags) { this.tags = tags; } } public static class ClusterStatus { private long diskFree; private long diskLimit; private long fdUsed; private long fdTotal; private long socketUsed; private long socketTotal; private long memoryUsed; private long memoryLimit; private long procUsed; private long procTotal; // 此处省略了Getter和Setter方法 public long getDiskFree() { return diskFree; } public void setDiskFree(long diskFree) { this.diskFree = diskFree; } public long getDiskLimit() { return diskLimit; } public void setDiskLimit(long diskLimit) { this.diskLimit = diskLimit; } public long getFdUsed() { return fdUsed; } public void setFdUsed(long fdUsed) { this.fdUsed = fdUsed; } public long getFdTotal() { return fdTotal; } public void setFdTotal(long fdTotal) { this.fdTotal = fdTotal; } public long getSocketUsed() { return socketUsed; } public void setSocketUsed(long socketUsed) { this.socketUsed = socketUsed; } public long getSocketTotal() { return socketTotal; } public void setSocketTotal(long socketTotal) { this.socketTotal = socketTotal; } public long getMemoryUsed() { return memoryUsed; } public void setMemoryUsed(long memoryUsed) { this.memoryUsed = memoryUsed; } public long getMemoryLimit() { return memoryLimit; } public void setMemoryLimit(long memoryLimit) { this.memoryLimit = memoryLimit; } public long getProcUsed() { return procUsed; } public void setProcUsed(long procUsed) { this.procUsed = procUsed; } public long getProcTotal() { return procTotal; } public void setProcTotal(long procTotal) { this.procTotal = procTotal; } @Override public String toString() { return "ClusterStatus{" + "diskFree=" + diskFree + ", diskLimit=" + diskLimit + ", fdUsed=" + fdUsed + ", fdTotal=" + fdTotal + ", socketUsed=" + socketUsed + ", socketTotal=" + socketTotal + ", memoryUsed=" + memoryUsed + ", memoryLimit=" + memoryLimit + ", procUsed=" + procUsed + ", procTotal=" + procTotal + '}'; } } }
Zabbix是一个基于WEB界面提供分布式系统监视以及网络监视功能的企业级开源解决方案,他也可以帮助我们搭建一个MQ集群的监控系统,同时提供预警等功能,但是由于其搭建配置要求比较高一般都是由运维人员负责搭建,感兴趣的同学可以访问https://www.zabbix.com/ 官网进行了解学习
面试题:1、Rabbitmq 为什么需要信道,为什么不是TCP直接通信
1、TCP的创建和销毁,开销大,创建要三次握手,销毁要4次分手。
2、如果不用信道,那应用程序就会TCP连接到Rabbit服务器,高峰时每秒成千上万连接就会造成资源的巨大浪费,而且==底层操作系统每秒处理tcp连接数也是有限制的,==必定造成性能瓶颈。
3、信道的原理是一条线程一条信道,多条线程多条信道同用一条TCP连接,一条TCP连接可以容纳无限的信道,即使每秒成千上万的请求也不会成为性能瓶颈。
2:queue队列到底在消费者创建还是生产者创建?
1: 一般建议是在rabbitmq操作面板创建。这是一种稳妥的做法。
2:按照常理来说,确实应该消费者这边创建是最好,消息的消费是在这边。这样你承受一个后果,可能我生产在生产消息可能会丢失消息。
3:在生产者创建队列也是可以,这样稳妥的方法,消息是不会出现丢失。
“, memoryUsed=” + memoryUsed +
“, memoryLimit=” + memoryLimit +
“, procUsed=” + procUsed +
“, procTotal=” + procTotal +
‘}’;
}
}
}
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。