赞
踩
生产者在写的时候,可以指定一个 key,被分发到同一个 partition 中去,而且这个 partition 中的数据一定是有顺序的。
消费者从 partition 中取出来数据的时候,也一定是有顺序的。到这里,顺序还是没有错乱的。
但是消费者里可能会有多个线程来并发处理消息,而多个线程并发处理的话,顺序可能就乱掉了。
写 n 个 queue,将具有相同key的数据都存储在同一个 queue,然后对于 n 个线程,每个线程分别消费一个 queue 即可,并手动提交位点。由于 kafka consumer 实例不支持多线程同时提交位点,这里采取全局记数器的方式,在每一批次记录的消费过程中,每消费完一条记录则全局记数器加 1,全局记数器等于这一批记录的总条数时提交位点。
在Java中,可以使用多线程和队列来实现对具有相同 key 的数据进行消费,并通过手动提交位点来保证数据的消费。以下是一个带有手动位点提交的解决方案的示例代码:
- import java.util.HashMap;
- import java.util.Map;
- import java.util.concurrent.BlockingQueue;
- import java.util.concurrent.LinkedBlockingQueue;
-
- public class DataConsumer {
- private Map<String, BlockingQueue<String>> queues;
- private Map<String, Integer> offsets;
-
- public DataConsumer(int numThreads) {
- queues = new HashMap<>();
- offsets = new HashMap<>();
-
- // 创建N个队列和位点
- for (int i = 0; i < numThreads; i++) {
- BlockingQueue<String> queue = new LinkedBlockingQueue<>();
- String key = Integer.toString(i);
- queues.put(key, queue);
- offsets.put(key, 0);
-
- // 创建并启动消费线程
- Thread consumerThread = new Thread(new Consumer(queue, key));
- consumerThread.start();
- }
- }
-
- public void consumeData(String key, String data) {
- BlockingQueue<String> queue = queues.get(key);
- if (queue != null) {
- try {
- // 将数据放入对应的队列
- queue.put(data);
- } catch (InterruptedException e) {
- Thread.currentThread().interrupt();
- }
- }
- }
-
- public void commitOffset(String key, int offset) {
- offsets.put(key, offset);
- System.out.println("Committed offset for key " + key + ": " + offset);
- }
-
- private static class Consumer implements Runnable {
- private final BlockingQueue<String> queue;
- private final String key;
- private int offset;
-
- public Consumer(BlockingQueue<String> queue, String key) {
- this.queue = queue;
- this.key = key;
- this.offset = 0;
- }
-
- @Override
- public void run() {
- // 消费队列中的数据
- while (!Thread.currentThread().isInterrupted()) {
- try {
- String data = queue.take();
- // 进行消费逻辑
- System.out.println("Consumed data: " + data);
- offset++;
-
- // 模拟提交位点
- if (offset % 10 == 0) {
- DataConsumer.getInstance().commitOffset(key, offset);
- }
- } catch (InterruptedException e) {
- Thread.currentThread().interrupt();
- }
- }
- }
- }
-
- private static DataConsumer instance;
-
- public static synchronized DataConsumer getInstance() {
- if (instance == null) {
- instance = new DataConsumer(3);
- }
- return instance;
- }
-
- public static void main(String[] args) {
- DataConsumer dataConsumer = DataConsumer.getInstance();
-
- // 模拟产生数据
- for (int i = 0; i < 30; i++) {
- dataConsumer.consumeData(Integer.toString(i % 3), "Data " + (i + 1));
- }
- }
- }
在以上代码中,DataConsumer 类维护了一个 Map 来存储队列和位点的关系。每个消费者线程都有一个对应的位点来记录消费的进度。
在 commitOffset 方法中,根据 key 提交位点的偏移值。
消费线程在每次成功消费一条数据后,更新位点,并判断是否满足提交位点的条件。这里模拟每消费10条数据提交一次位点。
在 main 方法中,通过 consumeData 方法模拟了产生了30条数据,并将它们放入不同的队列中进行消费。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。