赞
踩
官方文档:
https://kafka.apache.org/documentation/
vim config/server.properties
log.dirs=/usr/local/kafka/logs
关闭 kafka
1、一定要先关闭 kafka,再关闭zookeeper,否则容易出现数据错乱
如果出现数据错错乱,最简单的方法就是清空 data 和 kafka-logs 这两个文件下的内容,重新启动即可
2、关闭
.\bin\windows\kafka-server-stop.bat
.\bin\windows\zookeeper-server-stop.bat
参考文章:
Kafka的下载安装以及使用 - 技术栈 (jishuzhan.net)
参考文章:
项目启动后,运行
localhost:8080/send?msg=testSpringBootKafka
localhost:8080/test/mock
Telnet 指令
Telnet 是一种用于远程登录和管理网络设备的协议,同时也是基于这个协议的命令行工具。下面是一些常用的 Telnet 命令:
连接到远程主机:
telnet <host> <port>
将 <host>
替换为要连接的远程主机的 IP 地址或主机名,将 <port>
替换为要连接的端口号。例如,telnet example.com 23 将连接到 example.com 的 23 端口。
发送命令或数据:
在 Telnet 连接建立后,你可以直接在命令行中输入命令或数据,并按 Enter 键发送给远程主机。例如,输入 ls 命令查看远程主机上的文件列表。
退出 Telnet 连接:
在 Telnet 连接中,你可以使用以下命令之一来退出:
Ctrl + ]
,然后输入 quit 命令并按 Enter 键。注意,Telnet 是一种明文协议,数据在传输过程中不会被加密,因此不建议在不安全的网络环境中使用 Telnet。对于安全连接,建议使用 SSH(Secure Shell)协议来进行远程登录和管理。
v1.0.8 版本:gitee来源kafka-console-ui.zip
start.bat
启动# 解压缩
unzip kafka-console-ui.zip
# 进入解压缩后的目录
cd kafka-console-ui
# 启动
sh bin/start.sh
# 停止
sh bin/shutdown.sh
启动完成,访问:http://127.0.0.1:7766
kafka 出现消息重复消费的原因:
解决方案:
消费消息服务做幂等校验,比如 Redis 的 set、MySQL 的主键等天然的幂等功能。这种方法最有效。
将 enable.auto.commit
参数设置为 false,关闭自动提交,开发者在代码中手动提交 offset。
那么这里会有个问题:什么时候提交 offset 合适?
Kafka 的自动提交(Automatic Offset Commit)是一种机制,用于确定 Kafka 消费者应该将其当前的消费位移(offset)提交到 Kafka 服务器。
消费位移是一个指示 Kafka 主题分区中消费者已读取到的位置的值。
自动提交可以帮助简化消费者的管理,但它也涉及一些注意事项和权衡。
以下是关于 Kafka 自动提交的一些重要信息:
默认行为:Kafka 消费者默认启用了自动提交。这意味着消费者会自动定期将当前的消费位移提交到 Kafka 服务器,而无需显式调用 commitSync
或 commitAsync
方法。
提交频率:自动提交的频率由消费者配置参数 auto.commit.interval.ms
决定,默认值为 5000 毫秒(5 秒)。这意味着每隔 5 秒,消费者将提交当前的位移。
幂等性问题:自动提交可能导致幂等性问题。如果消息在处理过程中成功处理但在位移提交之前失败,那么消息可能会被重新处理,这可能导致副作用。为了解决这个问题,你可以采用幂等性的消息处理逻辑,或者使用手动位移提交来更精确地控制位移的提交时机。
配置禁用:如果你希望完全控制位移的提交,可以禁用自动提交。通过将 enable.auto.commit
配置为 false
,你可以关闭自动提交功能,然后在适当的时候手动调用 commitSync
或 commitAsync
来提交位移。
enable.auto.commit=false
手动提交:手动提交允许你在消息处理成功后显式地提交位移。这可以确保只有在消息成功处理后才提交位移,从而避免重复处理消息的问题。
consumer.poll(Duration.ofMillis(100)); // 拉取消息
// 处理消息
consumer.commitSync(); // 手动提交位移
总之,自动提交是 Kafka 消费者的默认行为,但在一些情况下,特别是需要确保幂等性和消息处理成功后才提交位移的情况下,可能需要禁用自动提交并使用手动提交。自动提交的频率可以通过配置进行调整。
Apache Kafka 的消费者有两种方式来提交消费的进度,也就是提交 offset,一种是自动提交,另一种是手动提交。
这里我们主要讨论自动提交。
在 Kafka 中,自动提交是指:消费者自动地定期提交已经拉取的消息的 offset。
如果启用了自动提交,那么 auto.commit.interval.ms
配置的时间到了,消费者就会提交最新的 offset,无论消息是否已经处理完毕。
这意味着,自动提交的 offset 是在拉取到消息后就可能提交,而不一定是在处理完消息之后提交。这将导致在消费者崩溃或者重新启动时,可能会出现消息重复处理或者消息丢失的情况。
例如,如果消费者已经拉取了一些消息,但还没来得及处理,这时候自动提交触发,offset 被提交。如果此时消费者崩溃,再次启动时,它会从提交的 offset 开始消费,导致之前拉取但未处理的消息丢失。
另一方面,如果消费者拉取了一些消息并处理了它们,但在自动提交提交触发之前消费者崩溃了,那么 offset 并没有被提交。当消费者再次启动时,它会从上次提交的 offset 开始消费,这将导致处理过的消息被重复处理。
因此,
一般来说,位移提交更可靠,因为它允许消费者完全控制位移何时提交,以确保消息被成功处理后才被标记为已消费。自动提交则更容易实现,但在某些情况下可能导致消息的重复消费,因此需要根据具体的需求和应用场景来选择使用哪种方式。
所以,自动提交是指消费者定期自动提交位移,而位移提交是指显式地提交位移,由用户代码控制。
在默认配置下,当消费异常会进行重试,重试多次后会跳过当前消息,继续进行后续消息的消费,不会一直卡在当前消息。
因此,即使某个消息消费异常,Kafka 消费者仍然能够继续消费后续的消息,不会一直卡在当前消息,保证了业务的正常进行。
Kafka 消费者在默认配置下会进行最多 10 次 的重试,每次重试的时间间隔为 0,即立即进行重试。
如果在 10 次重试后仍然无法成功消费消息,则不再进行重试,消息将被视为消费失败。
自定义重试失败后逻辑,需要手动实现,可以通过【重写 DefaultErrorHandler
的 handleRemaining
函数,加上自定义的告警等操作来】实现。
@Slf4j
public class DelErrorHandler extends DefaultErrorHandler {
public DelErrorHandler(FixedBackOff backOff) {
super(null,backOff);
}
@Override
public void handleRemaining(Exception thrownException, List<ConsumerRecord<?, ?>> records, Consumer<?, ?> consumer, MessageListenerContainer container) {
super.handleRemaining(thrownException, records, consumer, container);
log.info("重试多次失败");
// 自定义操作
}
}
DefaultErrorHandler
只是默认的一个错误处理器,Spring Kafka 还提供了 CommonErrorHandler
接口。手动实现 CommonErrorHandler
就可以实现更多的自定义操作,有很高的灵活性。例如根据不同的错误类型,实现不同的重试逻辑以及业务逻辑等。
当达到最大重试次数后,数据会直接被跳过,继续向后进行。当代码修复后,如何重新消费这些重试失败的数据呢?
当达到最大重试次数后,如果仍然无法成功处理消息,消息会被发送到对应的死信队列中。对于死信队列的处理,既可以用 @DltHandler
处理,也可以使用 @KafkaListener
重新消费。
@RetryableTopic
是 Spring Kafka 中的一个注解,它用于配置某个 Topic 支持消息重试,更推荐使用这个注解来完成重试。
// 重试 5 次,重试间隔 100 毫秒,最大间隔 1 秒
@RetryableTopic(
attempts = "5",
backoff = @Backoff(delay = 100, maxDelay = 1000)
)
@KafkaListener(topics = {KafkaConst.TEST_TOPIC}, groupId = "apple")
private void customer(String message) {
log.info("kafka customer:{}", message);
Integer n = Integer.parseInt(message);
if (n % 5 == 0) {
throw new RuntimeException();
}
System.out.println(n);
}
**死信队列(Dead Letter Queue,简称 DLQ)**是消息中间件中的一种特殊队列。它主要用于处理无法被消费者正确处理的消息,通常是因为消息格式错误、处理失败、消费超时等情况导致的消息被"丢弃"或"死亡"的情况。
消息经过序列化后,通过不同的分区策略,找到对应的分区。
相同主题和分区的消息,会被存放在同一个批次里,然后由一个独立的线程负责把它们发到 Kafka Broker 上。
分区的策略包括顺序轮询、随机轮询和 key hash 这 3 种方式,那什么是分区呢?
分区是 Kafka 读写数据的最小粒度,比如主题 A 有 15 条消息,有 5 个分区,如果采用顺序轮询的方式,15 条消息会顺序分配给这 5 个分区,后续消费的时候,也是按照分区粒度消费。
由于分区可以部署在多个不同的机器上,所以可以通过分区实现 Kafka 的伸缩性,比如主题 A 的 5 个分区,分别部署在 5 台机器上,如果下线一台,分区就变为 4。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。