当前位置:   article > 正文

kafka单机基准测试,单机搭建及介绍_kafka单机性能

kafka单机性能

什么是kafka

kafka是用于构建实时数据管道和流应用程序。具有横向扩展,容错,wicked fast(变态快)等优点

kafka各属性介绍

Producer(生产者) Topic(标签) Consumer(消费者) Broker(容器)之间关系

举个列子:生产者(producer)生产一个萝卜,兔子(Consumer)吃一个萝卜,假设兔子(Consumer)吃的着急噎住了(宕机),生产者(producer)还在生产鸡蛋,兔子(Consumer)来不及吃了,此时萝卜丢掉了(消息丢失)。生产者(producer)每次生产100个萝卜,兔子(Consumer)每次只能消化10个,一段时间兔子(Consumer)撑着了消化不良(消息堵塞),兔子(Consumer)拒绝继续吃,此时萝卜丢失(数据丢失),这个时候在兔子(Consumer)和生产者(producer)中间放个麻袋(Broker)存放萝卜,兔子(Consumer)吃完就去麻袋(Broker)里拿,这样萝卜永远都在麻袋(Broker)里不会丢失。

Topic

Kafka将消息分门别类,每一类的消息称之为一个主题(Topic)。

Producer

发布消息的对象称之为主题生产者(Kafka topic producer)

生产者往某个Topic上发布消息。生产者也负责选择发布到Topic上的哪一个分区。最简单的方式从分区列表中轮流选择。也可以根据某种算法依照权重选择分区。开发者负责如何选择分区的算法。

Consumer

订阅消息并处理发布的消息的对象称之为主题消费者(consumers)

每个Consumer实例都属于一个消费者组(consumer group),多个Consumer实例可以存在于不同的进程或机器上(Consumer实例可类比于java类的实例对象),一个消息记录只会发送给有对应主题订阅的消费者组中的一个Consumer实例!

在一个消费者组中,每个分区至多只能发送到同一消费者的一个实例上,但一个消费者实例可以消费多个分区,因此,若一个group中的消费者数量大于分区数量的话,多余的消费者将不会收到任何消息,所以分区(partition)数必须大于等于消费者组中的实例数量。下图中,具有2个server的kafka集群,拥有同一个topic的4个分区,并对接2个消费者组,如果A或B组中Consumer都是同一消费者的实例,则轮询均衡消费,若同组都是不同的消费者实例,则相当于广播消息

Broker

已发布的消息保存在一组服务器中,称之为Kafka集群。集群中的每一个服务器都是一个代理(Broker)。 消费者可以订阅一个或多个主题(topic),并从Broker拉数据,从而消费这些已发布的消息。

partition(分区)

partition(分区)是kafka的一个核心概念,kafka将1个topic分成了一个或多个分区,每个分区在物理上对应一个目录,分区目录下存储的是该分区的日志段(segment),包括日志的数据文件和两个索引文件。然后每个分区又对应一个或多个副本,由一个ISR列表来维护。 注意:分区数可以大于节点数,但是副本数不能大于节点数,因为副本需要分不到不同的节点上,才能达到备份的目的。

生产者写入partition

生产者在向某个主题发送消息时,会根据分配策略将消息发送到对应的分区,比如可以指定某个partiton by的key值,通过对该key值进行哈希决定写入哪个partition,这种策略要注意可能会出现的热点数据问题;如果不指定分区的key值,则默认以轮询的方式均匀的写入到各个分区。

kafka保证同一个分区内的数据是有序的,我们也可以认为一个分区就是一个有序的消息队列。

消费者与partition

每个主题的某一个分区只能被同一个消费组下的其中一个消费者消费,因此我们可以说分区是消费并行度的基本单位。从消费者的角度讲,我们订阅消费了一个主题,也就订阅了该主题的所有分区。

扩容

消息队列满了,其实就是麻袋满了,”萝卜“ 放不下了,那赶紧多放几个麻袋,其实就是kafka的扩容。

防止数据丢失

producr端可以通过设置request.required.acks参数来保证数据不丢失,

1)asks = 0时,只要消息发送成功就会发送下一条数据,吞吐量最高,但这种情况即使数据丢失我们也无法知道;

2)asks = 1时,消息发送成功,并且leader接收成功后才会发送下一条数据,这种情况如果leader刚接收到数据,还没有同步到follower时,假如leader节点挂掉也会导致数据的丢失;

3)asks = -1时,消息发送成功,要等待leader把消息同步到follower之后才会发送下一条数据,吞吐量最低,但最可靠。但是会产生一个数据重复,当Leader在同步的过程中挂掉了,没有给到应答给生产者,这时候生产者就会认为数据没有传给Leader,但其实这个时候已经是有一份数据,再来一份数据就重复了;

数据一致性

ack机制

为保证 producer 发送的数据,能可靠的发送到指定的 topic,topic 的每个 partition 收到producer 发送的数据后,都需要向 producer 发送 ack(acknowledgement 确认收到),如果producer 收到 ack,就会进行下一轮的发送,否则重新发送数据

何时发送ack?

确保有follower与leader同步完成,leader再发送ack,这样才能保证leader挂掉之后,能在follower中选举出新的leader

isr机制

Leader 维护了一个动态的 in-sync replica set (ISR),意为和 leader 保持同步的 follower 集合。当 ISR 中的 follower 完成数据的同步之后,leader 就会给 follower 发送 ack。如果 follower长时间 未 向 leader 同 步 数 据 , 则 该 follower 将 被 踢 出 ISR , 该 时 间 阈 值由replica.lag.time.max.ms 参数设定。Leader 发生故障之后,就会从 ISR 中选举新的 lead

kafka四个核心

  • 应用程序使用 Producer API 发布消息到1个或多个topic(主题)中。
  • 应用程序使用 Consumer API 来订阅一个或多个topic,并处理产生的消息。
  • 应用程序使用 Streams API 充当一个流处理器,从1个或多个topic消费输入流,并生产一个输出流到1个或多个输出topic,有效地将输入流转换到输出流。
  • Connector API 可构建或运行可重用的生产者或消费者,将topic连接到现有的应用程序或数据系统。例如,连接到关系数据库的连接器可以捕获表的每个变更。
  • Zookeeper下载地址:Index of /dist/zookeeper
  • 选择一个版本进行下载,比如:
  • https://archive.apache.org/dist/zookeeper/zookeeper-3.4.13/zookeeper-3.4.13.tar.gz
  • Kafka下载地址:
  • Index of /dist/kafka
  • 选择一个版本进行下载,比如:
  • https://archive.apache.org/dist/kafka/2.0.0/kafka_2.12-2.0.0.tgz
  • 安装步骤
  • 步骤一:安装jdk环境:
  • 步骤二:下载并解压Zookeeper
  • Kafka的运行依赖于Zookeeper,所以在运行Kafka之前我们需要安装并运行Zookeeper。
  • 解压下载的文件zookeeper-3.4.13.tar.gz,并重命名解压后的文件为zookeeper3.4.13,复制到指定位置(此处以E:\tool\kafka\zookeeper3.4.13为例)
  • 步骤三:配置Zookeeper
  • 将 E:\tool\kafka\zookeeper3.4.13\conf下的zoo_sample.cfg文件更改为zoo.cfg;
  • 打开“zoo.cfg”找到并编辑dataDir=E:/tool/kafka/zookeeper3.4.13/tmp
  • 注意此处配置的路径一定是“/”而不是“\”,不然会启动后会报错并自动关闭服务。
  • 步骤四:配置Zookeeper环境变量
  • 我的电脑→右键选择属性→高级系统设置→环境变量:
  • 选择新建系统环境变量
  • 配置ZOOKEEPER_HOME:
  • 输入解压的目录:
  • E:\tool\kafka\zookeeper3.4.13
  • 在系统环境变量Path中,增加“%ZOOKEEPER_HOME%\bin”
  • 具体配置参考 在Windows安装运行Kafka_weixin_45750721的博客-CSDN博客_windows 安装kafka
  • 启动zk cmd 执行 zkServer
  • 启动kafka winows
  • .\bin\windows\kafka-server-start.bat .\config\server.properties
  • 注意 : kafka版本过高执行命令报如下错误 解决办法更换低版本
  • kafka可视化工具 Kafka Tool
  • 下载地址 :Offset Explorer
  • 安装使用教程 :Kafka 可视化工具kafkatool简单使用入门 - 灰信网(软件开发博客聚合)
  • 效果图:
  • 基准测试
  • 注意 : 执行kafka命令 注意windows和linux下命令不同.bat .sh
  • 创建topic
  • .\bin\windowska-topics.bat --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test\kaf
  • replication-factor 指定副本数
  • --topic test 指定topic名称 test
  • partitions 指定分区数
  • 查看所有topic
  • .\bin\windows\kafka-topics.bat --list --zookeeper localhost:2181
  • 生产者生产数据
  • .\bin\windows\kafka-console-producer.bat --broker-list localhost:9092 --topic test
  • 消费者消费数据
  • .\bin\windows\kafka-console-consumer.bat --bootstrap-server localhost:9092 --topic test --from-beginning
  • 生产消息基准测试
  • .\bin\windows\kafka-producer-perf-test.bat --topic test --num-records 100000 --record-size 1000  --throughput 2000 --producer-props bootstrap.servers=192.168.0.243:9092
  • –topic topic的名字
  • –num-records 总共指定生产数据量(默认5000W)
  • –throughput 指定吞吐量——限流(-1不指定)
  • –record-size record数据大小(字节)
  • –producer-props bootstrap.servers=192.168.1.20:9092,192.168.1.21:9092,192.168.1.22:9092 acks=1 指定Kafka集群地址
  • 测试结果 单机模式下模拟结果
  • 吞吐量每秒 2000 吞吐速率每秒2MB
  • 平均延迟时间 3.25 ms
  • 最大延迟 517ms
  • 消费消息基准测试
  • .\bin\windows\kafka-consumer-perf-test.bat --broker-list 192.168.0.243:9092 --topic test --fetch-size 1048576 --messages 5000000
  • –broker-list 指定kafka集群地址
  • --topic 指定topic的名称
  • --fetch-size 每次拉取的数据大小
  • –messages 总共要消费的消息个数
  • 测试结果 单机模式下模拟结果
  • data.consumed.in.MB 共计消费的数据 2059.6724MB
  • MB.sec 每秒消费的数量 107.8080MB/s
  • data.consumed.in.nMsg 共计消费的数量 2159726
  • nMsg.sec每秒的数量 113045.0667MB/s
  • 集群模式下 生产5000W消息 单分区单副本
  • 吞吐量

    每秒9.3W条记录

    吞吐速率

    每秒约89MB数据

    平均延迟时间

    346.62 ms

    最大延迟时间

    1003.00 ms

  • 集群模式下 消费消息基准测试
  • data.consumed.in.MB 共计消费的数据

    4768.3716MB

    MB.sec 每秒消费的数量

    每秒445MB

    data.consumed.in.nMsg 共计消费的数量

    5000000

    nMsg.sec 每秒的数量

    每秒46.7W条

  • 生产者java客户端
    1. Properties props = new Properties();
    2. props.put("bootstrap.servers", "localhost:9092");
    3. props.put("acks", "all");
    4. props.put("retries", 0);
    5. props.put("batch.size", 16384);
    6. props.put("linger.ms", 1);
    7. props.put("buffer.memory", 33554432);
    8. props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
    9. props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
    10. Producer<String, String> producer = new KafkaProducer<>(props);
    11. for(int i = 0; i < 100; i++)
    12. producer.send(new ProducerRecord<String, String>("my-topic", Integer.toString(i), Integer.toString(i)));
    13. producer.close();

  • send() 方法是异步的,添加消息到缓冲区等待发送,并立即返回。生产者将单个的消息批量在一起发送来提高效率。
  • ack 是判别请求是否为完整的条件(就是是判断是不是成功发送了)。我们指定了“all”将会阻塞消息,这种设置性能最低,但是是最可靠的。
  • retries 如果请求失败,生产者会自动重试,我们指定是0次,如果启用重试,则会有重复消息的可能性。
  • producer (生产者)缓存每个分区未发送的消息。缓存的大小是通过 batch.size 配置指定的。值较大的话将会产生更大的批。并需要更多的内存(因为每个“活跃”的分区都有1个缓冲区)。
  • buffer.memory 控制生产者可用的缓存总量,如果消息发送速度比其传输到服务器的快,将会耗尽这个缓存空间。当缓存空间耗尽,其他发送调用将被阻塞,阻塞时间的阈值通过max.block.ms设定,之后它将抛出一个TimeoutException。
  • key.serializer和value.serializer示例,将用户提供的key和value对象ProducerRecord转换成字节,你可以使用附带的ByteArraySerializaer或StringSerializer处理简单的string或byte类型。
  • 当进程结束时,kafka还有些消息在缓存中来不及发送,所以调用一下close(),告诉kafka生产者客户端立即发送。否则进程直接结束了,那消息就没了
  • kafka消费者Java客户端
    1. Properties props = new Properties();
    2. props.setProperty("bootstrap.servers", "localhost:9092");
    3. props.setProperty("group.id", "test");
    4. props.setProperty("enable.auto.commit", "true");
    5. props.setProperty("auto.commit.interval.ms", "1000");
    6. props.setProperty("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
    7. props.setProperty("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
    8. KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);
    9. consumer.subscribe(Arrays.asList("foo", "bar"));
    10. while (true) {
    11. ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100));
    12. for (ConsumerRecord<String, String> record : records)
    13. System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value());
    14. }

  • auto.commit.interval.ms 设置多长时间提交一次偏移量
  • bootstrap.servers 集群地址
  • group.id 消费者组
  • enable.auto.commit 的默认值是 true;就是默认采用自动提交的机制 手动设置成 false,那么 auto.commit.interval.ms 也就不被再考虑了
  • 在这个例子中,客户端订阅了主题foo和bar。消费者组叫test
  • auto.offset.reset 设置为earliest可以从头重新消费
  • 设置账户密码认证
    1. props.put("security.protocol", "SSL");
    2. props.put("ssl.truststore.password", "test1234");
    3. props.put("ssl.truststore.location","/Users/weiwei/Downloads/client.truststore.jks");

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/715256
推荐阅读
相关标签
  

闽ICP备14008679号