当前位置:   article > 正文

当Spring邂逅Kafka,有趣的知识增加了_spring-kafka jackson

spring-kafka jackson

当Spring邂逅Kafka,有趣的知识增加了

0.阅读完本文你将会学到

  • 一些linux的常用命令
  • 如何在linux上安装JDK、ZooKeeper、Kafka
  • 轻量级的Spring与Kafka的整合

Kafka起初是由LinkedIn公司采用Scala语言开发的一个多分区、多副本且基于ZooKeeper协调的分布式消息系统,现已被捐献给Apache基金会。

目前Kafka已经定位为一个分布式流式处理平台,它以高吞吐、可持续化、可水平扩展、支持流数据处理等多种特性而被广泛使用。

现在让我们打开电脑,一起实践吧!

如果你的电脑上已经安装了Kafka,可以跳过第一部分,直接进入第二部分哦。

1. Kafka的安装与设置

安装Kafka之前,我们需要安装Java以及ZooKeeper。

1.1 安装JDK

1. 确认系统是否已安装过Java

安装JDK之前我们先确认下系统是否已安装过JDK,如下操作:

  1. rem -qa | grep java
  2. rem -qa | grep jdk
  3. rem -qa | grep gcj
  4. 复制代码

如果没有任何信息,则表示系统没有安装过Java。

如果想要卸载已经安装过的JDK,则可以执行下方的命令。

  1. rpm -qa | grep java | xargs rpm -e --nodeps
  2. 复制代码

2. 安装Java

下面开始安装Java,这里以1.8为例。

  1. yum list java-1.8*
  2. 复制代码

通过这个命令我们可以看见Java 1.8版本的所有文件。

  1. java-1.8.0-openjdk.x86_64
  2. java-1.8.0-openjdk-accessibility.x86_64
  3. java-1.8.0-openjdk-demo.x86_64
  4. java-1.8.0-openjdk-devel.x86_64
  5. java-1.8.0-openjdk-headless.x86_64
  6. java-1.8.0-openjdk-headless-slowdebug.x86_64
  7. java-1.8.0-openjdk-javadoc.noarch
  8. java-1.8.0-openjdk-javadoc-zip.noarch
  9. java-1.8.0-openjdk-slowdebug.x86_64
  10. java-1.8.0-openjdk-src.x86_64
  11. 复制代码

然后我们可以通过这个命令安装Java 1.8版本的所有文件。

  1. yum install java-1.8.0-openjdk* -y
  2. 复制代码

当控制台返回Complete之后,显示Java已经安装成功。

3. 确认Java安装成功

使用下面这个命令进行确认

  1. java -version
  2. 复制代码

结果显示如下,表示已安装成功。

使用yum安装的时候,环境变量就自动配好了。

  1. openjdk version "1.8.0_312"
  2. OpenJDK Runtime Environment (build 1.8.0_312-b07)
  3. OpenJDK 64-Bit Server VM (build 25.312-b07, mixed mode)
  4. 复制代码

1.2 安装ZooKeeper

1. 创建目录data并且下载3.7.0版本的ZooKeeper

  1. mkdir /data
  2. cd /data
  3. wget https://mirrors.bfsu.edu.cn/apache/zookeeper/zookeeper-3.7.0/apache-zookeeper-3.7.0-bin.tar.gz
  4. 复制代码

2. 解压

  1. tar -zxvf apache-zookeeper-3.7.0-bin.tar.gz
  2. 复制代码

3. 修改配置文件

  1. // 进入配置文件目录
  2. cd apache-zookeeper-3.7.0/conf
  3. // 将zoo_sample.cfg这个文件复制为zoo.cfg
  4. cp zoo_sample.cfg zoo.cfg
  5. // 修改配置文件
  6. vi zoo.cfg
  7. 复制代码

输入vi zoo.cfg之后,需要按i进入insert模式才能做修改。修改完毕请先按ESC退出insert模式,进入命令行模式,再按连续两个大写ZZ进行保存并退出。

dataDir=/tmp/zookeeper修改成dataDir=/data/apache-zookeeper-3.7.0-bin/data

3. 创建对应的data目录

  1. mkdir /data/apache-zookeeper-3.7.0-bin/data
  2. 复制代码

4. 启动ZooKeeper

进入ZooKeeper的bin目录并且启动服务

  1. cd /data/apache-zookeeper-3.7.0-bin/bin
  2. ./zkServer.sh start
  3. 复制代码

Zookeeper成功后将会出现下面信息:

  1. /usr/bin/java
  2. ZooKeeper JMX enabled by default
  3. Using config: /data/apache-zookeeper-3.7.0-bin/bin/../conf/zoo.cfg
  4. Starting zookeeper ... STARTED
  5. 复制代码

下面是其他几个常用命令

  1. // 停止
  2. ./zkServer.sh stop
  3. // 重启
  4. ./zkServer.sh restart
  5. // 查看状态
  6. ./zkServer.sh status
  7. 复制代码

1.3 安装kafka

1. 下载版本为3.0.0的kakfa

  1. cd /data
  2. wget https://mirrors.bfsu.edu.cn/apache/kafka/3.0.0/kafka_2.13-3.0.0.tgz
  3. 复制代码

2. 解压

  1. tar -zxvf kafka_2.13-3.0.0.tgz kafka_2.13-3.0.0
  2. 复制代码

3. 启动

config/server.properties中的zookeeper.connect的默认地址是localhost:2181,如果你的Zookeeper安装在本机,保持默认即可。

  1. cd kafka_2.13-3.0.0.tgz kafka_2.13-3.0.0
  2. // 前台启动:bin/kafka-server-start.sh config/server.properties
  3. // 下面的命令行是后台启动,不会像前台启动一直打印日记。
  4. bin/kafka-server-start.sh -daemon config/server.properties
  5. 复制代码

现在你已经成功启动了Kafka,恭喜你终于迈出了第一步!

2. Spring与Kafka的整合

2.1 配置pom

我们需要在pom.xml里面添加Kafka的依赖:

  1. <dependency>
  2. <groupId>org.springframework.kafka</groupId>
  3. <artifactId>spring-kafka</artifactId>
  4. <version>2.7.2</version>
  5. </dependency>
  6. 复制代码

文中的demo应用将是一个Spring Boot的应用,你可以在这里方便快捷地创建一个Spring Boot的应用。

2.2 配置Topic

我们先来回顾下什么是topic:

在 Kafka 中,使用一个类别属性来划分数据的所属类,划分数据的这个类称为 topic 。如果把 Kafka 看做为一个数据库, topic 可以理解为数据库中的一张表, topic 的名字即为表名。

之前我们可以通过命令行创建Topic

  1. bin/kafka-topics.sh --create \ --zookeeper localhost:2181 \ --replication-factor 1 --partitions 1 \ --topic mytopic
  2. 复制代码

现在由于有了Kafka中AdminClient的引入,我们可以在程序中创建topic。 我们需要添加KafkaAdmin这个bean,它可以自动地带入NewTopic的所有bean的topic。

  1. @Configuration
  2. public class KafkaTopicConfig {
  3. @Value(value = "${kafka.bootstrapAddress}")
  4. private String bootstrapAddress;
  5. @Bean
  6. public KafkaAdmin kafkaAdmin() {
  7. Map<String, Object> configs = new HashMap<>();
  8. configs.put(AdminClientConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapAddress);
  9. return new KafkaAdmin(configs);
  10. }
  11. @Bean
  12. public NewTopic topic1() {
  13. return new NewTopic("jayxu", 1, (short) 1);
  14. }
  15. }
  16. 复制代码

2.3 生产消息

为了创建消息,我们首先需要配置一个ProducerFactory。ProducerFactory设置了创建Kafka Producer实例的策略。

然后我们需要一个KafkaTemplate,它包装了一个Producer实例,并提供了向Kafka Topic发送消息的方法。

Producer实例是线程安全的。在整个应用环境中使用单例会有更高的性能。KakfaTemplate实例也是线程安全的,建议使用一个实例。

2.3.1 Producer配置

  1. @Configuration
  2. public class KafkaProducerConfig {
  3. @Bean
  4. public ProducerFactory<String, String> producerFactory() {
  5. Map<String, Object> configProps = new HashMap<>();
  6. configProps.put(
  7. ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,
  8. bootstrapAddress);
  9. configProps.put(
  10. ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,
  11. StringSerializer.class);
  12. configProps.put(
  13. ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,
  14. StringSerializer.class);
  15. return new DefaultKafkaProducerFactory<>(configProps);
  16. }
  17. @Bean
  18. public KafkaTemplate<String, String> kafkaTemplate() {
  19. return new KafkaTemplate<>(producerFactory());
  20. }
  21. }
  22. 复制代码

2.3.2 发布消息

我们可以使用KafkaTemplate来发送消息。

  1. @Autowired
  2. private KafkaTemplate<String, String> kafkaTemplate;
  3. public void sendMessage(String msg) {
  4. kafkaTemplate.send(topicName, msg);
  5. }
  6. 复制代码

sendAPI返回一个ListenableFuture对象。如果我们想阻止发送线程,并获得关于已发送消息的结果,我们可以调用ListenableFuture对象的get API。该线程将等待结果,但它会减慢producer的速度。

Kafka是一个快速的流处理平台。因此,最好是异步处理结果,这样后续的消息就不会等待前一个消息的结果了。

我们可以通过回调来做到这一点:

  1. public void sendMessage(String message) {
  2. ListenableFuture<SendResult<String, String>> future =
  3. kafkaTemplate.send(topicName, message);
  4. future.addCallback(new ListenableFutureCallback<SendResult<String, String>>() {
  5. @Override
  6. public void onSuccess(SendResult<String, String> result) {
  7. System.out.println("Sent message=[" + message +
  8. "] with offset=[" + result.getRecordMetadata().offset() + "]");
  9. }
  10. @Override
  11. public void onFailure(Throwable ex) {
  12. System.out.println("Unable to send message=["
  13. + message + "] due to : " + ex.getMessage());
  14. }
  15. });
  16. }
  17. 复制代码

2.4 消费消息

2.4.1 Consumer配置

为了消费消息,我们需要配置一个ConsumerFactory和一个KafkaListenerContainerFactory。一旦这些bean在Spring bean工厂中可用,就可以使用@KafkaListener注解来配置基于POJO的consumer。

配置类中需要有@EnableKafka注解,以便在Spring管理的bean上检测@KafkaListener注解。

  1. @EnableKafka
  2. @Configuration
  3. public class KafkaConsumerConfig {
  4. @Bean
  5. public ConsumerFactory<String, String> consumerFactory() {
  6. Map<String, Object> props = new HashMap<>();
  7. props.put(
  8. ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,
  9. bootstrapAddress);
  10. props.put(
  11. ConsumerConfig.GROUP_ID_CONFIG,
  12. groupId);
  13. props.put(
  14. ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,
  15. StringDeserializer.class);
  16. props.put(
  17. ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,
  18. StringDeserializer.class);
  19. return new DefaultKafkaConsumerFactory<>(props);
  20. }
  21. @Bean
  22. public ConcurrentKafkaListenerContainerFactory<String, String>
  23. kafkaListenerContainerFactory() {
  24. ConcurrentKafkaListenerContainerFactory<String, String> factory =
  25. new ConcurrentKafkaListenerContainerFactory<>();
  26. factory.setConsumerFactory(consumerFactory());
  27. return factory;
  28. }
  29. }
  30. 复制代码

2.4.2 消费消息

  1. @KafkaListener(topics = "topicName", groupId = "foo")
  2. public void listenGroupFoo(String message) {
  3. System.out.println("Received Message in group foo: " + message);
  4. }
  5. 复制代码

我们可以为一个topic实现多个listener,每个都有不同的group ID。此外,一个consumer可以监听来自不同topic的消息。

  1. @KafkaListener(topics = "topic1, topic2", groupId = "foo")
  2. 复制代码

Spring还支持使用监听器中的@Header注解来检索一个或多个消息头。

  1. @KafkaListener(topics = "topicName")
  2. public void listenWithHeaders(
  3. @Payload String message,
  4. @Header(KafkaHeaders.RECEIVED_PARTITION_ID) int partition) {
  5. System.out.println(
  6. "Received Message: " + message"
  7. + "from partition: " + partition);
  8. }
  9. 复制代码

2.4.3 消费特定分区的信息

注意,我们创建的话题jayxu只有一个分区。

然而,对于一个有多个分区的topic,@KafkaListener可以明确地订阅一个有initial offset的topic的特定分区。

  1. @KafkaListener(
  2. topicPartitions = @TopicPartition(topic = "topicName",
  3. partitionOffsets = {
  4. @PartitionOffset(partition = "0", initialOffset = "0"),
  5. @PartitionOffset(partition = "3", initialOffset = "0")}),
  6. containerFactory = "partitionsKafkaListenerContainerFactory")
  7. public void listenToPartition(
  8. @Payload String message,
  9. @Header(KafkaHeaders.RECEIVED_PARTITION_ID) int partition) {
  10. System.out.println(
  11. "Received Message: " + message"
  12. + "from partition: " + partition);
  13. }
  14. 复制代码

由于在这个监听器中,initialOffset被设置为0,所以每次初始化这个监听器时,所有之前消耗的0和3分区的消息都会被重新消费。

如果我们不需要设置offset,我们可以使用@TopicPartition注解的partitions属性,只设置没有offset的分区。

  1. @KafkaListener(topicPartitions = @TopicPartition(topic = "topicName", partitions = { "0", "1" }))
  2. 复制代码

2.4.4 为监听器添加消息过滤器

我们可以通过添加一个自定义的过滤器来配置监听器来消费特定类型的消息。这可以通过给KafkaListenerContainerFactory设置一个RecordFilterStrategy来完成。

  1. @Bean
  2. public ConcurrentKafkaListenerContainerFactory<String, String>
  3. filterKafkaListenerContainerFactory() {
  4. ConcurrentKafkaListenerContainerFactory<String, String> factory =
  5. new ConcurrentKafkaListenerContainerFactory<>();
  6. factory.setConsumerFactory(consumerFactory());
  7. factory.setRecordFilterStrategy(
  8. record -> record.value().contains("World"));
  9. return factory;
  10. }
  11. 复制代码

然后我们可以配置一个监听器来使用这个容器工厂。

  1. @KafkaListener(
  2. topics = "topicName",
  3. containerFactory = "filterKafkaListenerContainerFactory")
  4. public void listenWithFilter(String message) {
  5. System.out.println("Received Message in filtered listener: " + message);
  6. }
  7. 复制代码

在这个监听器中,所有符合过滤器的信息都将被丢弃。

2.5 自定义消息转换器

到目前为止,我们只涵盖了发送和接收字符串的消息。然而,我们也可以发送和接收自定义的Java对象。这需要在ProducerFactory中配置适当的序列化器,在ConsumerFactory中配置解序列化器。

让我们看看一个简单的bean类,我们将把它作为消息发送。

  1. public class Greeting {
  2. private String msg;
  3. private String name;
  4. // standard getters, setters and constructor
  5. }
  6. 复制代码

2.5.1 生产自定义消息

在这个例子中,我们将使用JsonSerializer。

让我们看看ProducerFactory和KafkaTemplate的代码。

  1. @Bean
  2. public ProducerFactory<String, Greeting> greetingProducerFactory() {
  3. // ...
  4. configProps.put(
  5. ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,
  6. JsonSerializer.class);
  7. return new DefaultKafkaProducerFactory<>(configProps);
  8. }
  9. @Bean
  10. public KafkaTemplate<String, Greeting> greetingKafkaTemplate() {
  11. return new KafkaTemplate<>(greetingProducerFactory());
  12. }
  13. 复制代码

我们可以使用这个新的KafkaTemplate来发送Greeting信息。

  1. kafkaTemplate.send(topicName, new Greeting("Hello", "World"));
  2. 复制代码

2.5.2 消费自定义消息

同样地,让我们修改ConsumerFactory和KafkaListenerContainerFactory,以正确地反序列化Greeting消息。

  1. @Bean
  2. public ConsumerFactory<String, Greeting> greetingConsumerFactory() {
  3. // ...
  4. return new DefaultKafkaConsumerFactory<>(
  5. props,
  6. new StringDeserializer(),
  7. new JsonDeserializer<>(Greeting.class));
  8. }
  9. @Bean
  10. public ConcurrentKafkaListenerContainerFactory<String, Greeting>
  11. greetingKafkaListenerContainerFactory() {
  12. ConcurrentKafkaListenerContainerFactory<String, Greeting> factory =
  13. new ConcurrentKafkaListenerContainerFactory<>();
  14. factory.setConsumerFactory(greetingConsumerFactory());
  15. return factory;
  16. }
  17. 复制代码

spring-kafka的JSON序列化器和反序列化器使用Jackson库,这也是spring-kafka项目的可选Maven依赖。

所以,让我们把它添加到我们的pom.xml中。

  1. <dependency> <groupId>com.fasterxml.jackson.core</groupId> <artifactId>jackson-databind</artifactId> <version>2.9.7</version> </dependency>
  2. 复制代码

建议不要使用Jackson的最新版本,而是使用spring-kafka的pom.xml中加入的版本。

最后,我们需要写一个监听器来消费Greeting消息。

  1. @KafkaListener(
  2. topics = "topicName",
  3. containerFactory = "greetingKafkaListenerContainerFactory")
  4. public void greetingListener(Greeting greeting) {
  5. // process greeting message
  6. }
  7. 复制代码

3. 总结

在这篇文章中,我们介绍了如何安装Kafka以及Spring支持Apache Kafka的基本情况。我们简单学习了一下用于发送和接收消息的类。

在运行代码之前,请确保Kafka服务器正在运行,并且topic是手动创建的。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小桥流水78/article/detail/942660
推荐阅读
相关标签
  

闽ICP备14008679号