当前位置:   article > 正文

Java操作Kafka——最简单的使用_kafka3.5.0java操作

kafka3.5.0java操作

 

java操作kafka非常的简单,然后kafka也提供了很多缺省值,一般情况下我们不需要修改太多的参数就能使用。下面我贴出代码。

pom.xml

  1. <dependency>
  2. <groupId>org.apache.kafka</groupId>
  3. <artifactId>kafka-clients</artifactId>
  4. <version>0.10.2.0</version>
  5. </dependency>

生产者

  1. package cn.duanjt;
  2. import java.util.Properties;
  3. import java.util.Random;
  4. import org.apache.kafka.clients.producer.KafkaProducer;
  5. import org.apache.kafka.clients.producer.ProducerConfig;
  6. import org.apache.kafka.clients.producer.ProducerRecord;
  7. import org.apache.kafka.common.serialization.StringSerializer;
  8. public class Producer {
  9. public static String topic = "duanjt_test";//定义主题
  10. public static void main(String[] args) throws InterruptedException {
  11. Properties p = new Properties();
  12. p.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.23.76:9092,192.168.23.77:9092");//kafka地址,多个地址用逗号分割
  13. p.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
  14. p.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
  15. KafkaProducer<String, String> kafkaProducer = new KafkaProducer<>(p);
  16. try {
  17. while (true) {
  18. String msg = "Hello," + new Random().nextInt(100);
  19. ProducerRecord<String, String> record = new ProducerRecord<String, String>(topic, msg);
  20. kafkaProducer.send(record);
  21. System.out.println("消息发送成功:" + msg);
  22. Thread.sleep(500);
  23. }
  24. } finally {
  25. kafkaProducer.close();
  26. }
  27. }
  28. }

注意:

1.kafka如果是集群,多个地址用逗号分割(,)

2.Properties的put方法,第一个参数可以是字符串,如:p.put("bootstrap.servers","192.168.23.76:9092")

3.kafkaProducer.send(record)可以通过返回的Future来判断是否已经发送到kafka,增强消息的可靠性。同时也可以使用send的第二个参数来回调,通过回调判断是否发送成功。

4.p.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class);设置序列化类,可以写类的全路径

消费者

  1. package cn.duanjt;
  2. import java.util.Collections;
  3. import java.util.Properties;
  4. import org.apache.kafka.clients.consumer.ConsumerConfig;
  5. import org.apache.kafka.clients.consumer.ConsumerRecord;
  6. import org.apache.kafka.clients.consumer.ConsumerRecords;
  7. import org.apache.kafka.clients.consumer.KafkaConsumer;
  8. import org.apache.kafka.common.serialization.StringDeserializer;
  9. public class Consumer {
  10. public static void main(String[] args) {
  11. Properties p = new Properties();
  12. p.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.23.76:9092");
  13. p.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
  14. p.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
  15. p.put(ConsumerConfig.GROUP_ID_CONFIG, "duanjt_test");
  16. KafkaConsumer<String, String> kafkaConsumer = new KafkaConsumer<String, String>(p);
  17. kafkaConsumer.subscribe(Collections.singletonList(Producer.topic));// 订阅消息
  18. while (true) {
  19. ConsumerRecords<String, String> records = kafkaConsumer.poll(100);
  20. for (ConsumerRecord<String, String> record : records) {
  21. System.out.println(String.format("topic:%s,offset:%d,消息:%s", //
  22. record.topic(), record.offset(), record.value()));
  23. }
  24. }
  25. }
  26. }

注意:

1.订阅消息可以订阅多个主题

2.ConsumerConfig.GROUP_ID_CONFIG表示消费者的分组,kafka根据分组名称判断是不是同一组消费者,同一组消费者去消费一个主题的数据的时候,数据将在这一组消费者上面轮询。

3.主题涉及到分区的概念,同一组消费者的个数不能大于分区数。因为:一个分区只能被同一群组的一个消费者消费。出现分区小于消费者个数的时候,可以动态增加分区。

4.注意和生产者的对比,Properties中的key和value是反序列化,而生产者是序列化。

本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号