当前位置:   article > 正文

Kafka生产者源码解析(三)——Sender_kafka this.sender.wakeup()

kafka this.sender.wakeup()

前面两篇的内容主要分析了KafkaProducer将消息数据存入RecordAccumulator的过程,需注意的是在这个过程中并没有涉及到网络I/O操作,也就是说消息还并没有真正的发出去。而本篇的主要内容就是分析Sender线程是如何将这些消息记录通过网络I/O发往Kafka broker中,这也是Spring-Kafka生产者源码解析的第三部分:Sender线程分析。

Spring-Kafka生产者源码解析(一)——KafkaProducer

Spring-Kafka生产者源码解析(二)——RecordAccumulator

Spring-Kafka生产者源码解析(三)——Sender

目录

 一、Sender线程是何时被创建的

二、唤醒Sender线程的条件

三、Run方法

一、sendProducerData()

二、client.poll()

四、总结


 一、Sender线程是何时被创建的

Sender线程是一个子线程,实现了Runnable接口,并运行在单独的ioThread中,主要用来实现消息在网络I/O上的发送,首先来回忆一下Sender线程是什么时候被创建的。

  1. KafkaProducer(Map<String, Object> configs,
  2. Serializer<K> keySerializer,
  3. Serializer<V> valueSerializer,
  4. ProducerMetadata metadata,
  5. KafkaClient kafkaClient,
  6. ProducerInterceptors interceptors,
  7. Time time) {
  8. ……………………
  9. //创建Sender线程
  10. this.sender = newSender(logContext, kafkaClient, this.metadata);
  11. String ioThreadName = NETWORK_THREAD_PREFIX + " | " + clientId;
  12. //启动Sender对应的线程
  13. this.ioThread = new KafkaThread(ioThreadName, this.sender, true);
  14. this.ioThread.start();
  15. ……………………
  16. } catch (Throwable t) {
  17. ……………………
  18. }
  19. }

在第一篇KafkaProducer的构造方法中我们就已经创建好了Sender线程,并将其放入了一个单独的ioThread,随后启动了这个ioThread线程。

二、唤醒Sender线程的条件

之前在讲解RecordAccumulator的时候说到,当满足了一定的条件后,将会触发唤醒Sender线程,然后Sender开始发送消息,那么需要满足什么条件呢?再来回忆一下KafkaProducer的doSend方法。

  1. private Future<RecordMetadata> doSend(ProducerRecord<K, V> record, Callback callback) {
  2. ………………
  3. //将消息追加到accumulator中
  4. RecordAccumulator.RecordAppendResult result = accumulator.append(tp, timestamp, serializedKey,
  5. serializedValue, headers, interceptCallback, remainingWaitMs);
  6. //若消息存储器满了或者创建了新的消息存储器则唤醒Sender线程
  7. if (result.batchIsFull || result.newBatchCreated) {
  8. //唤醒Sender线程
  9. this.sender.wakeup();
  10. }
  11. ………………
  12. }

KafkaProducer虽然会根据业务需求不断地往RecordAccumulator中存放消息数据,但会返回一个RecordAppendResult对象,我们可以通过这个对象知道消息存储器是否已经满了或者是否创建了新的消息存储器(上一篇中已经分析过),若满足两者之一那么就可以唤醒Sender线程啦。

三、Run方法

分析源码可知run()方法的核心内容被放进了一个runOnce()方法中,省去前面一堆事务相关的代码,我们直接来看这个方法的核心部分:

  1. void runOnce() {
  2. ……………………
  3. //构造网络请求
  4. long pollTimeout = sendProducerData(currentTimeMs);
  5. //网络I/O,将上面构造的请求通过网络发送到服务端
  6. client.poll(pollTimeout, currentTimeMs);
  7. }

没错,run方法的核心内容就是上面两行代码,下面将详细分析sendProducerData()方法和client.poll()方法。在此之前先对run方法的核心流程做个了解:

  1. 获取元数据信息。

  2. 调用accumulator.ready()方法获取可以向哪些Node节点发送消息。

  3. 对于某些主题对应节点找不到的情况需要标记更新kafka集群信息。

  4. 调用client.ready()方法检查每个节点的网络I/O是否符合发送消息的条件,将不符合的节点从集合中移除。

  5. 通过accumulator.drain()方法获取需要发送的消息集合。

  6. 调用client.newClientRequest()方法将待发送的消息封装成ClientRequest请求。

  7. 调用client.send()方法将ClientRequest请求写进KafkaChannel的send属性,并且为KafkaChannel注册写入事件。

  8. 调用client.poll()方法将KafkaChannel的send属性保存的ClientRequest请求发送出去。

一、sendProducerData()

下面是sendProducerData方法核心部分的源码和注释,它主要完成上述流程1~7的内容。

  1. private long sendProducerData(long now) {
  2. //获取元数据集群信息
  3. Cluster cluster = metadata.fetch();
  4. //筛选出可以向哪些Node节点发送消息
  5. RecordAccumulator.ReadyCheckResult result = this.accumulator.ready(cluster, now);
  6. //如果存在某些主题对应的节点找不到的情况,则标记需要更新Kafka集群信息
  7. if (!result.unknownLeaderTopics.isEmpty()) {
  8. ……………………
  9. this.metadata.requestUpdate();
  10. }
  11. //遍历之前筛选好的Node节点
  12. Iterator<Node> iter = result.readyNodes.iterator();
  13. while (iter.hasNext()) {
  14. Node node = iter.next();
  15. //调用client.ready()方法检查每个节点的网络I/O是否符合发送消息的条件,将不符合的节点移除
  16. if (!this.client.ready(node, now)) {
  17. iter.remove();
  18. notReadyTimeout = Math.min(notReadyTimeout, this.client.pollDelayMs(node, now));
  19. }
  20. }
  21. //把<分区, 消息队列>的映射关系转换成<节点, 消息队列>的映射关系
  22. Map<Integer, List<ProducerBatch>> batches = this.accumulator.drain(cluster, result.readyNodes, this.maxRequestSize, now);
  23. ……………………
  24. //构造发送消息请求
  25. sendProduceRequests(batches, now);
  26. return pollTimeout;
  27. }

我们需要重点关心上面方法中的sendProduceRequests()方法,追溯其内部方法sendProduceRequest,源码如下,发现最终是调用client.newClientRequest()方法进行构造ClientRequest请求,该构造方法很简单,追踪下去只是简单的属性赋值,所以这里不再深究该构造方法。

  1. private void sendProduceRequest(long now, int destination, short acks, int timeout, List<ProducerBatch> batches) {
  2. ………………
  3. //得到要发送的brokerId
  4. String nodeId = Integer.toString(destination);
  5. //构造ClientRequest请求
  6. ClientRequest clientRequest = client.newClientRequest(nodeId, requestBuilder, now, acks != 0,
  7. requestTimeoutMs, callback);
  8. //将ClientRequest请求写进KafkaChannel的send属性,并且为KafkaChannel注册写入事件
  9. client.send(clientRequest, now);
  10. ………………
  11. }

ClientRequest请求构造完成之后,我们还需要调用client.send()方法将ClientRequest请求写进KafkaChannel的send属性,并且为KafkaChannel注册写入事件,下面来看下这是怎么实现的。

  1. private void doSend(ClientRequest clientRequest, boolean isInternalRequest, long now, AbstractRequest request) {
  2. //要发送的目标brokerID
  3. String destination = clientRequest.destination();
  4. //构造请求头
  5. RequestHeader header = clientRequest.makeHeader(request.version());
  6. ………………
  7. //将目标brokerID和请求头构成NetworkSend
  8. Send send = request.toSend(destination, header);
  9. //构造InFlightRequest
  10. InFlightRequest inFlightRequest = new InFlightRequest(
  11. clientRequest,
  12. header,
  13. isInternalRequest,
  14. request,
  15. send,
  16. now);
  17. //追加入inFlightRequests队列
  18. this.inFlightRequests.add(inFlightRequest);
  19. //覆盖KafkaChannel的send字段,并为KafkaChannel注册写入事件
  20. selector.send(send);
  21. }

首先我们利用之前构造好的ClientRequest请求得到目标brokerId和请求头,再由它们构成一个NetworkSend对象,这个类是对ByteBuffer的封装,接着构造了InFlightRequest并放入了inFlightRequests队列中,inFlightRequests队列的作用是缓存已经发出去但没有收到响应的ClientRequest,但是到目前为止仍然没有看到我们想要看到的内容,不急,继续看 selector.send()方法。

Selector属于网络I/O层,它使用NIO异步非阻塞模式实现网络I/O操作,到这一步已经完成将ClientRequest请求写进KafkaChannel的send属性,并且为KafkaChannel注册写入事件,只有注册了写入事件,Selector才会把消息发送出去,sendProducerData方法的流程也就到此为止了。

二、client.poll()

在此之前,sendProducerData()已经完成了ClientRequest请求的构造以及请求的准备工作,那么接下来就要真正的将这些请求通过网络发送出去了。下面来看client.poll()方法源码。

  1. public List<ClientResponse> poll(long timeout, long now) {
  2. …………………
  3. try {
  4. //网络I/O
  5. this.selector.poll(Utils.min(timeout, metadataTimeout, defaultRequestTimeoutMs));
  6. } catch (IOException e) {
  7. log.error("Unexpected error during I/O", e);
  8. }
  9. ……………………
  10. }

果不其然,最终还是看到了Selector的出现!这应该是意料中的事情,因为刚刚我们就说了Selector属于网络I/O层,那么我们要将消息通过网络发送出去那一定会用到它。进入到selector.poll()方法内部会看到一句代码如下:

pollSelectionKeys(readyKeys, false, endSelect)

它是执行网络I/O操作的核心,它需要传入一个SelectionKey集合,用于后面获取KafkaChannel,下面是该方法的源码。

  1. void pollSelectionKeys(Set<SelectionKey> selectionKeys,
  2. boolean isImmediatelyConnected,
  3. long currentTimeNanos) {
  4. for (SelectionKey key : determineHandlingOrder(selectionKeys)) {
  5. //通过SelectionKey获取到KafkaChannel
  6. KafkaChannel channel = channel(key);
  7. long channelStartTimeNanos = recordTimePerConnection ? time.nanoseconds() : 0;
  8. boolean sendFailed = false;
  9. //一次性注册所有的连接
  10. sensors.maybeRegisterConnectionMetrics(channel.id());
  11. if (idleExpiryManager != null)
  12. idleExpiryManager.update(channel.id(), currentTimeNanos);
  13. try {
  14. //如果connect返回true或OP_CONNECT
  15. if (isImmediatelyConnected || key.isConnectable()) {
  16. //finishConnect()先检测socketChannel是否建立成功,然后会注册读事件
  17. if (channel.finishConnect()) {
  18. //加入已连接的集合
  19. this.connected.add(channel.id());
  20. this.sensors.connectionCreated.record();
  21. SocketChannel socketChannel = (SocketChannel) key.channel();
  22. log.debug("Created socket with SO_RCVBUF = {}, SO_SNDBUF = {}, SO_TIMEOUT = {} to node {}",
  23. socketChannel.socket().getReceiveBufferSize(),
  24. socketChannel.socket().getSendBufferSize(),
  25. socketChannel.socket().getSoTimeout(),
  26. channel.id());
  27. } else {
  28. continue;
  29. }
  30. }
  31. ……………………
  32. //处理读事件
  33. attemptRead(key, channel);
  34. //如果还有数据未读取完,把selectionKeys缓存在keysWithBufferedRead中
  35. if (channel.hasBytesBuffered()) {
  36. keysWithBufferedRead.add(key);
  37. }
  38. if (channel.ready() && key.isWritable() && !channel.maybeBeginClientReauthentication(
  39. () -> channelStartTimeNanos != 0 ? channelStartTimeNanos : currentTimeNanos)) {
  40. Send send;
  41. try {
  42. //处理写事件
  43. send = channel.write();
  44. } catch (Exception e) {
  45. sendFailed = true;
  46. throw e;
  47. }
  48. if (send != null) {
  49. this.completedSends.add(send);
  50. this.sensors.recordBytesSent(channel.id(), send.size());
  51. }
  52. }
  53. /* cancel any defunct sockets */
  54. if (!key.isValid())
  55. close(channel, CloseMode.GRACEFUL);
  56. } catch (Exception e) {
  57. ………………
  58. } finally {
  59. maybeRecordTimePerConnection(channel, channelStartTimeNanos);
  60. }
  61. }
  62. }

因为之前在selector.send()方法中为KafkaChannel注册了写入事件,所以这里能够通过SelectionKey获取到KafkaChannel对象。因为我们研究的是发送消息的流程,所以这里需要关注的是channel.write()方法,还记得之前在selector.send()方法中将ClientRequest请求写进KafkaChannel的send属性吗?该方法内部将会调用send.writeTo()方法,最终做channel.write(buffer)操作完成数据的写入操作,KafkaChannel就好比一根网络管道,我们发送消息数据的过程就是往这根管道中写消息数据的过程。

四、总结

Sender线程总的来说就两个主要内容:将消息数据构成ClientRequest请求;将请求进行I/O发送,这两个大的内容分别由sendProducerData()方法和client.poll()方法完成,它们的详细流程步骤已在本文第三小节给出。

 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/618371
推荐阅读
相关标签
  

闽ICP备14008679号