当前位置:   article > 正文

在java代码中使用kafka(springboot整合kafka)_springboot 订阅kafka

springboot 订阅kafka

首先,项目是个springboot-maven项目。(使用quickstart就可以)。

引入maven依赖

  1. <dependency>
  2. <groupId>org.springframework.kafka</groupId>
  3. <artifactId>spring-kafka</artifactId>
  4. </dependency>

如果是普通maven项目,也可以用这个依赖:

  1. <dependency>
  2. <groupId>org.apache.kafka</groupId>
  3. <artifactId>kafka_2.10</artifactId>
  4. <version>0.8.0</version>
  5. </dependency>

接下来,在bootstrap.yaml中添加连接kafka的配置:

  1. spring:
  2. kafka:
  3. bootstrap-servers: 192.168.76.4:9092
  4. producer: # 生产者
  5. retries: 3 # 设置大于0的值,则客户端会将发送失败的记录重新发送
  6. batch-size: 16384
  7. buffer-memory: 33554432
  8. acks: 1
  9. # 指定消息key和消息体的编解码方式
  10. key-serializer: org.apache.kafka.common.serialization.StringSerializer
  11. value-serializer: org.apache.kafka.common.serialization.StringSerializer
  12. consumer:
  13. group-id: default-group
  14. enable-auto-commit: false
  15. auto-offset-reset: earliest
  16. key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
  17. value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
  18. listener:
  19. # 当每一条记录被消费者监听器(ListenerConsumer)处理之后提交
  20. # RECORD
  21. # 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后提交
  22. # BATCH
  23. # 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后,距离上次提交时间大于TIME时提交
  24. # TIME
  25. # 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后,被处理record数量大于等于COUNT时提交
  26. # COUNT
  27. # TIME | COUNT 有一个条件满足时提交
  28. # COUNT_TIME
  29. # 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后, 手动调用Acknowledgment.acknowledge()后提交
  30. # MANUAL
  31. # 手动调用Acknowledgment.acknowledge()后立即提交,一般使用这种
  32. # MANUAL_IMMEDIATE
  33. ack-mode: manual_immediate

也可以不在bootstrap.yaml中配置,使用配置类进行配置:

  1. private KafkaProducetest() {
  2. Properties props = new Properties();
  3. //此处配置的是kafka的端口
  4. props.put("metadata.broker.list", "192.168.76.4:9092");
  5. //配置value的序列化类
  6. props.put("serializer.class", "kafka.serializer.StringEncoder");
  7. //配置key的序列化类
  8. props.put("key.serializer.class", "kafka.serializer.StringEncoder");
  9. //0表示不确认主服务器是否收到消息,马上返回,低延迟但最弱的持久性,数据可能会丢失
  10. //1表示确认主服务器收到消息后才返回,持久性稍强,可是如果主服务器死掉,从服务器数据尚未同步,数据可能会丢失
  11. //-1表示确认所有服务器都收到数据,完美!
  12. props.put("request.required.acks", "-1");
  13. //异步生产,批量存入缓存后再发到服务器去
  14. props.put("producer.type", "async");
  15. //填充配置,初始化生产者
  16. producer = new Producer<String, String>(new ProducerConfig(props));
  17. }

附上一些kafka的主要配置信息及默认值,仅供参考,按需使用。

broker的配置

name 默认值 描述
brokerid none 每一个boker都有一个唯一的id作为它们的名字。 这就允许boker切换到别的主机/端口上, consumer依然知道
enable.zookeeper TRUE 允许注册到zookeeper
log.flush.interval.messages Long.MaxValue 在数据被写入到硬盘和消费者可用前最大累积的消息的数量
log.flush.interval.ms Long.MaxValue
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/天景科技苑/article/detail/937266
推荐阅读
相关标签
  

闽ICP备14008679号