当前位置:   article > 正文

Kafka主题topic和分区Partition介绍_查询kafka topic.create.defalut.partitions

查询kafka topic.create.defalut.partitions

一.Kafka主题

1.管理

1)创建主题

  1. bin/kafka-topics.sh --zookeeper localhost:2181 --create --topic hello --partitions 2 --replication-factor 1
  2. localhost:2181:zookeeper所在的ip,zookeeper 必传参数,多个zookeeper用 ‘,’分开。
  3. partitions:用于设置主题分区数,每个线程处理一个分区数据
  4. replication-factor:用于设置主题副本数,每个副本分布在不通节点,不能超过总结点数。如你只有一个节点,但是创建时指定副本数为2,就会报错。

查看topic元数据信细的方法

topic元数据信细保存在Zookeeper节点中

  1. bin/zkCli.sh
  2. [zk: localhost:2181(CONNECTED) 0] get /brokers/topics/hello
  3. {"version":1,"partitions":{"1":[0],"0":[0]}}
  4. cZxid = 0x192
  5. ctime = Tue May 26 23:56:31 CST 2020
  6. mZxid = 0x192
  7. mtime = Tue May 26 23:56:31 CST 2020
  8. pZxid = 0x193
  9. cversion = 1
  10. dataVersion = 0
  11. aclVersion = 0
  12. ephemeralOwner = 0x0
  13. dataLength = 44
  14. numChildren = 1

2)查看主题

  1. // 查看所有主题
  2. bin/kafka-topics.sh --list --zookeeper localhost:2181
  3. // 查看某个特定主题信息,不指定topic则查询所有 通过 --describe
  4. [root@localhost kafka]# bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic hello
  5. Topic:hello PartitionCount:2 ReplicationFactor:1 Configs:
  6. Topic: hello Partition: 0 Leader: 0 Replicas: 0 Isr: 0
  7. Topic: hello Partition: 1 Leader: 0 Replicas: 0 Isr: 0

3)修改主题

  1. [root@localhost kafka]# bin/kafka-topics.sh --alter --zookeeper localhost:2181 --topic hello --config flush.messages=1
  2. WARNING: Altering topic configuration from this script has been deprecated and may be removed in future releases.
  3.         Going forward, please use kafka-configs.sh for this functionality
  4. Updated config for topic hello.

4)删除主题

若 delete.topic.enable=true  直接彻底删除该 Topic。 若 delete.topic.enable=false  如果当前Topic 没有使用过即没有传输过信息:可以彻底删除。  如果当前 Topic 有使用过即有过传输过信息:并没有真正删除 Topic 只是把这个 Topic 标记为删除(marked for deletion),重启 Kafka Server 后删除。

  1. [root@localhost kafka]# bin/kafka-topics.sh --delete --zookeeper localhost:2181 --topic hello
  2. Topic hello is marked for deletion.
  3. Note: This will have no impact if delete.topic.enable is not set to true.

2.增加分区

  1. [root@localhost kafka]# bin/kafka-topics.sh --alter --zookeeper localhost:2181 --topic test --partitions 3
  2. WARNING: If partitions are increased for a topic that has a key, the partition logic or ordering of the messages will be affected
  3. Adding partitions succeeded!

3.KafkaAdminClient应用

我们都习惯使用Kafka中bin目录下的脚本工具来管理查看Kafka,但是有些时候需要将某些管理查看的功能集成到系统(比如Kafka Manager)中,那么就需要调用一些API来直接操作Kafka了。

  1. /**
  2. * KafkaAdminClient应用
  3. */
  4. public class KafkaAdminConfigOperation {
  5.    public static void main(String[] args) throws ExecutionException, InterruptedException {
  6. //       describeTopicConfig();
  7. //       alterTopicConfig();
  8.        addTopicPartitions();
  9.   }
  10.    //Config(entries=[ConfigEntry(name=compression.type, value=producer, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=leader.replication.throttled.replicas, value=, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=message.downconversion.enable, value=true, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=min.insync.replicas, value=1, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=segment.jitter.ms, value=0, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=cleanup.policy, value=delete, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=flush.ms, value=9223372036854775807, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=follower.replication.throttled.replicas, value=, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=segment.bytes, value=1073741824, source=STATIC_BROKER_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=retention.ms, value=604800000, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=flush.messages, value=9223372036854775807, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=message.format.version, value=2.0-IV1, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=file.delete.delay.ms, value=60000, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=max.message.bytes, value=1000012, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=min.compaction.lag.ms, value=0, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=message.timestamp.type, value=CreateTime, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=preallocate, value=false, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=min.cleanable.dirty.ratio, value=0.5, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=index.interval.bytes, value=4096, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=unclean.leader.election.enable, value=false, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=retention.bytes, value=-1, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=delete.retention.ms, value=86400000, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=segment.ms, value=604800000, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=message.timestamp.difference.max.ms, value=9223372036854775807, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[]), ConfigEntry(name=segment.index.bytes, value=10485760, source=DEFAULT_CONFIG, isSensitive=false, isReadOnly=false, synonyms=[])])
  11.    public static void describeTopicConfig() throws ExecutionException,
  12.            InterruptedException {
  13.        String brokerList =  "192.168.37.129:9092";
  14.        String topic = "test";
  15.        Properties props = new Properties();
  16.        props.put(AdminClientConfig.BOOTSTRAP_SERVERS_CONFIG, brokerList);
  17.        props.put(AdminClientConfig.REQUEST_TIMEOUT_MS_CONFIG, 30000);
  18.        AdminClient client = AdminClient.create(props);
  19.        ConfigResource resource =
  20.                new ConfigResource(ConfigResource.Type.TOPIC, topic);
  21.        DescribeConfigsResult result =
  22.                client.describeConfigs(Collections.singleton(resource));
  23.        Config config = result.all().get().get(resource);
  24.        System.out.println(config);
  25.        client.close();
  26.   }
  27.    public static void alterTopicConfig() throws ExecutionException, InterruptedException {
  28.        String brokerList =  "192.168.37.129:9092";
  29.        String topic = "test";
  30.        Properties props = new Properties();
  31.        props.put(AdminClientConfig.BOOTSTRAP_SERVERS_CONFIG, brokerList);
  32.        props.put(AdminClientConfig.REQUEST_TIMEOUT_MS_CONFIG, 30000);
  33.        AdminClient client = AdminClient.create(props);
  34.        ConfigResource resource =
  35.                new ConfigResource(ConfigResource.Type.TOPIC, topic);
  36.        ConfigEntry entry = new ConfigEntry("cleanup.policy", "compact");
  37.        Config config = new Config(Collections.singleton(entry));
  38.        Map<ConfigResource, Config> configs = new HashMap<>();
  39.        configs.put(resource, config);
  40.        AlterConfigsResult result = client.alterConfigs(configs);
  41.        result.all().get();
  42.        client.close();
  43.   }
  44.    public static void addTopicPartitions() throws ExecutionException, InterruptedException {
  45.        String brokerList =  "192.168.37.129:9092";
  46.        String topic = "test";
  47.        Properties props = new Properties();
  48.        props.put(AdminClientConfig.BOOTSTRAP_SERVERS_CONFIG, brokerList);
  49.        props.put(AdminClientConfig.REQUEST_TIMEOUT_MS_CONFIG, 30000);
  50.        AdminClient client = AdminClient.create(props);
  51.        NewPartitions newPartitions = NewPartitions.increaseTo(5);
  52.        Map<String, NewPartitions> newPartitionsMap = new HashMap<>();
  53.        newPartitionsMap.put(topic, newPartitions);
  54.        CreatePartitionsResult result = client.createPartitions(newPartitionsMap);
  55.        result.all().get();
  56.        client.close();
  57.   }
  58. }

二.Kafka分区

Kafka可以将主题划分为多个分区(Partition),会根据分区规则选择把消息存储到哪个分区中,只要如果分区规则设置的合理,那么所有的消息将会被均匀的分布到不同的分区中,这样就实现了负载均衡和水平扩展。另外,多个订阅者可以从一个或者多个分区中同时消费数据,以支撑海量数据处理能力。

顺便说一句,由于消息是以追加到分区中的,多个分区顺序写磁盘的总效率要比随机写内存还要高(引用Apache Kafka – A High Throughput Distributed Messaging System的观点),是Kafka高吞吐率的重要保证之一。

1.副本机制

由于Producer和Consumer都只会与Leader角色的分区副本相连,所以kafka需要以集群的组织形式提供主题下的消息高可用。kafka支持主备复制,所以消息具备高可用和持久性。

一个分区可以有多个副本,这些副本保存在不同的broker上。每个分区的副本中都会有一个作为Leader。当一个broker失败时,Leader在这台broker上的分区都会变得不可用,kafka会自动移除Leader,再其他副本中选一个作为新的Leader。

在通常情况下,增加分区可以提供kafka集群的吞吐量。然而,也应该意识到集群的总分区数或是单台服务器上的分区数过多,会增加不可用及延迟的风险。

 

2.分区leader选举

可以预见的是,如果某个分区的Leader挂了,那么其它跟随者将会进行选举产生一个新的leader,之后所有的读写就会转移到这个新的Leader上,在kafka中,其不是采用常见的多数选举的方式进行副本的Leader选举,而是会在Zookeeper上针对每个Topic维护一个称为ISR(in-sync replica,已同步的副本)的集合,显然还有一些副本没有来得及同步。只有这个ISR列表里面的才有资格成为leader(先使用ISR里面的第一个,如果不行依次类推,因为ISR里面的是同步副本,消息是最完整且各个节点都是一样的)。 通过ISR,kafka需要的冗余度较低,可以容忍的失败数比较高。假设某个topic有f+1个副本,kafka可以容忍f个不可用,当然,如果全部ISR里面的副本都不可用,也可以选择其他可用的副本,只是存在数据的不一致。

3.分区分配策略

按照Kafka默认的消费逻辑设定,一个分区只能被同一个消费组(ConsumerGroup)内的一个消费者消费。假设目前某消费组内只有一个消费者C0,订阅了一个topic,这个topic包含7个分区,也就是说这个消费者C0订阅了7个分区,参考下图

 

此时消费组内又加入了一个新的消费者C1,按照既定的逻辑需要将原来消费者C0的部分分区分配给消费者C1消费,情形上图(2),消费者C0和C1各自负责消费所分配到的分区,相互之间并无实质性的干扰。

接着消费组内又加入了一个新的消费者C2,如此消费者C0、C1和C2按照上图(3)中的方式各自负责消费所分配到的分区。

如果消费者过多,出现了消费者的数量大于分区的数量的情况,就会有消费者分配不到任何分区。参考下图,一共有8个消费者,7个分区,那么最后的消费者C7由于分配不到任何分区进而就无法消费任何消息。

 

1)RangeAssignor分配策略

RangeAssignor策略的原理是按照消费者总数和分区总数进行整除运算来获得一个跨度,然后将分区按照跨度进行平均分配,以保证分区尽可能均匀地分配给所有的消费者。对于每一个topic,RangeAssignor策略会将消费组内所有订阅这个topic的消费者按照名称的字典序排序,然后为每个消费者划分固定的分区范围,如果不够平均分配,那么字典序靠前的消费者会被多分配一个分区。

假设n=分区数/消费者数量,m=分区数%消费者数量,那么前m个消费者每个分配n+1个分区,后面的(消费者数量-m)个消费者每个分配n个分区。

假设消费组内有2个消费者C0和C1,都订阅了主题t0和t1,并且每个主题都有4个分区,那么所订阅的所有分区可以标识为:t0p0、t0p1、t0p2、t0p3、t1p0、t1p1、t1p2、t1p3。最终的分配结果为:

  1. 消费者C0:t0p0、t0p1、t1p0、t1p1
  2. 消费者C1:t0p2、t0p3、t1p2、t1p3

假设上面例子中2个主题都只有3个分区,那么所订阅的所有分区可以标识为:t0p0、t0p1、t0p2、t1p0、t1p1、t1p2。最终的分配结果为:

  1. 消费者C0:t0p0、t0p1、t1p0、t1p1
  2. 消费者C1:t0p2、t1p2

可以明显的看到这样的分配并不均匀,如果将类似的情形扩大,有可能会出现部分消费者过载的情况。

2)RoundRobinAssignor分配策略

RoundRobinAssignor策略的原理是将消费组内所有消费者以及消费者所订阅的所有topic的partition按照字典序排序,然后通过轮询方式逐个将分区以此分配给每个消费者。

RoundRobinAssignor策略对应的partition.assignment.strategy参数值为:org.apache.kafka.clients.consumer.RoundRobinAssignor。

假设消费组中有2个消费者C0和C1,都订阅了主题t0和t1,并且每个主题都有3个分区,那么所订阅的所有分区可以标识为:t0p0、t0p1、t0p2、t1p0、t1p1、t1p2。最终的分配结果为:

  1. 消费者C0:t0p0、t0p2、t1p1
  2. 消费者C1:t0p1、t1p0、t1p2

如果同一个消费组内的消费者所订阅的信息是不相同的,那么在执行分区分配的时候就不是完全的轮询分配,有可能会导致分区分配的不均匀。如果某个消费者没有订阅消费组内的某个topic,那么在分配分区的时候此消费者将分配不到这个topic的任何分区。

假设消费组内有3个消费者C0、C1和C2,它们共订阅了3个主题:t0、t1、t2,这3个主题分别有1、2、3个分区,即整个消费组订阅了t0p0、t1p0、t1p1、t2p0、t2p1、t2p2这6个分区。具体而言,消费者C0订阅的是主题t0,消费者C1订阅的是主题t0和t1,消费者C2订阅的是主题t0、t1和t2,那么最终的分配结果为:

  1. 消费者C0:t1p0、t1p2
  2. 消费者C1:t1p1、t2p0、t2p1、t2p2

3)StickyAssignor分配策略

Kafka从0.11.x版本开始引入这种分配策略,它主要有两个目的:

分区的分配要尽可能的均匀; 分区的分配尽可能的与上次分配的保持相同。

当两者发生冲突时,第一个目标优先于第二个目标。鉴于这两个目标,StickyAssignor策略的具体实现要比RangeAssignor和RoundRobinAssignor这两种分配策略要复杂很多。

假设消费组内有3个消费者:C0、C1和C2,它们都订阅了4个主题:t0、t1、t2、t3,并且每个主题有2个分区,也就是说整个消费组订阅了t0p0、t0p1、t1p0、t1p1、t2p0、t2p1、t3p0、t3p1这8个分区。最终的分配结果如下:

  1. 消费者C0:t0p0、t1p1、t3p0
  2. 消费者C1:t0p1、t2p0、t3p1
  3. 消费者C2:t1p0、t2p1

假设此时消费者C1脱离了消费组,那么消费组就会执行再平衡操作,进而消费分区会重新分配。如果采用RoundRobinAssignor策略,那么此时的分配结果如下

  1. 消费者C0:t0p0、t1p0、t2p0、t3p0
  2. 消费者C2:t0p1、t1p1、t2p1、t3p1

如分配结果所示,RoundRobinAssignor策略会按照消费者C0和C2进行重新轮询分配。而如果此时使用的是StickyAssignor策略,那么分配结果为:

  1. 消费者C0:t0p0、t1p1、t3p0、t2p0
  2. 消费者C2:t1p0、t2p1、t0p1、t3p1

可以看到分配结果中保留了上一次分配中对于消费者C0和C2的所有分配结果,并将原来消费者C1的“负担”分配给了剩余的两个消费者C0和C2,最终C0和C2的分配还保持了均衡。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/712507
推荐阅读
相关标签
  

闽ICP备14008679号