当前位置:   article > 正文

kafka之消息重复及解决方案_kafka避免消息重复投递

kafka避免消息重复投递

一。生产者阶段重复
原因:生产发送的消息没有收到正确的broke响应,导致生产者重试。
过程:

  1. new KafkaProducer()后创建一个后台线程KafkaThread扫描RecordAccumulator中是否有消息;
  2. 调用KafkaProducer.send()发送消息,实际上只是把消息保存到RecordAccumulator中;
  3. 后台线程KafkaThread扫描到RecordAccumulator中有消息后,将消息发送到kafka集群;
  4. 如果发送成功,那么返回成功;
  5. 如果发送失败,那么判断是否允许重试。如果不允许重试,那么返回失败的结果;如果允许重试,把消息再保存到RecordAccumulator中,等待后台线程KafkaThread扫描再次发送;

解决方案:
1.启动kafka的幂等性,设置: enable.idempotence=true ,以及 ack=all 以及 retries > 1 。
2.ack=0,不重试,适用高吞吐量忽略消息准确性。

二。生产者和broker阶段消息丢失
原因:
1.ack设置为1或者设置为0,为0时不确认broke是否听到,为1时只是leader副本同步
2. unclean.leader.election.enable 配置true,允许选举ISR以外的副本作为leader,会导致数据丢失,默认为false。

解决方案
1.ack设置为ALL, 配置:min.insync.replicas > 1
2.unclean.leader.election.enable 配置false
3.失败的offset单独记录

三。消费者数据重复
原因:数据消费完没有及时提交offset到broker。
解决方案:
1.取消自动提交offset,适用手动提交offset
2.下游做幂等,

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/748644
推荐阅读
相关标签
  

闽ICP备14008679号