赞
踩
我是架构精进之路,点击上方“关注”,坚持每天为你分享技术干货,私信我回复“01”,送你一份程序员成长进阶大礼包。
随着目前业务复杂度的增加,项目中经常需要有大量的跨系统异步任务需要处理。
在这种情况下, 我们选择了kafka作为了我们的消息中间件, 选择kafka主要基于以下几点:
支持分布式,避免单点问题
技术方案成熟,公司内部有上线项目
性能优异,能够持久化消息
通常情况下,我们会采取轮询或者随机的方式,通过Kafka的producer向Kafka集群生产数据,来尽可能保证Kafk分区之间的数据是均匀分布的。
在分区数据均匀分布的前提下,如果我们针对要处理的topic数据量等因素,设计出合理的Kafka分区数量。对于一些实时任务,比如Spark Streaming/Structured-Streaming、Flink和Kafka集成的应用,消费端不存在长时间"挂掉"的情况即数据一直在持续被消费,那么一般不会产生Kafka数据积压的情况。
但是这些都是有前提的,当一些意外或者不合理的分区数设置情况的发生,积压问题就不可避免。
问题描述
第一次发现问题是在联调的时候,任务执行方发现consumer会打印出错误日志,重复消费,并且陷入循环。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。