当前位置:   article > 正文

Kafka集群搭建_kafka集群配置

kafka集群配置

集群应用场景

(1)消息传递

  • Kafka可以很好地替代传统邮件代理。消息代理的使用有多种原因(将处理与数据生产者分离,缓冲未处理的消息等)。与大多数邮件系统相比,Kafka具有更好的吞吐量,内置的分区,复制和容错功能,这使其成为大规模邮件处理应用程序的理想解决方案。
  • 根据我们的经验,消息传递的使用通常吞吐量较低,但是可能需要较低的端到端延迟,并且通常取决于Kafka提供的强大的持久性保证。
  • 在这个领域,Kafka与ActiveMQ或 RabbitMQ等传统消息传递系统相当。

(2)网站活动路由

  • Kafka最初的用例是能够将用户活动跟踪管道重建为一组实时的发布-订阅。这意味着将网站活动(页面浏览,搜索或用户可能采取的其他操作)发布到中心主题,每种活动类型只有一个主题。这些提要可用于一系列用例的订阅,包括实时处理,实时监控,以及加载到Hadoop或脱机数据仓库系统中以进行脱机处理和报告。
  • 活动跟踪通常量很大,因为每个用户页面视图都会生成许多活动消息。

(3)监控指标

        Kafka通常用于操作监控数据。这涉及汇总来自分布式应用程序的统计信息,以生成操作数据的集中。

(4)日志汇总

        许多人使用Kafka代替日志聚合解决方案。日志聚合通常从服务器收集物理日志文件,并将它们放在中央位置(也许是文件服务器或HDFS)以进行处理。Kafka提取文件的详细信息,并以日志流的形式更清晰地抽象日志或事件数据。这允许较低延迟的处理,并更容易支持多个数据源和分布式数据消耗。与以日志为中心的系统(例如Scribe或Flume)相比,Kafka具有同样出色的性能,由于复制而提供的更强的耐用性保证以及更低的端到端延迟。

(5)流处理

        Kafka的许多用户在由多个阶段组成的处理管道中处理数据,其中原始输入数据从Kafka主题中使用,然后进行汇总,充实或以其他方式转换为新主题,以供进一步使用或后续处理。例如,用于推荐新闻文章的处理管道可能会从RSS提要中检索文章内容,并将其发布到“文章”主题中。进一步的处理可能会使该内容规范化或重复数据删除,并将清洗后的文章内容发布到新主题中;最后的处理阶段可能会尝试向用户推荐此内容。这样的处理管道基于各个主题创建实时数据流的图形。从0.10.0.0开始,一个轻量但功能强大的流处理库称为Kafka Streams 可以在Apache Kafka中使用来执行上述数据处理。除了Kafka Streams以外,其他开源流处理工具还包括Apache Storm和 Apache Samza。

(6)活动采集

        事件源是一种应用程序,其中状态更改以时间顺序记录记录。Kafka对大量存储的日志数据的支持使其成为以这种样式构建的应用程序的绝佳后端。

(7)提交日志

        Kafka可以用作分布式系统的一种外部提交日志。该日志有助于在节点之间复制数据,并充当故障节点恢复其数据的重新同步机制。Kafka中的日志压缩功能有助于支持此用法。在这种用法中,Kafka类似于Apache BookKeeper项目。

  • 横向扩展,提高Kafka的处理能力
  • 镜像,副本,提供高可用。

集群搭建

1、搭建设计

2、分配三台Linux,用于安装拥有三个节点的Kafka集群。 

  • node2(192.168.100.102)
  • node3(192.168.100.103)
  • node4(192.168.100.104)

以上三台主机的/etc/hosts配置:

192.168.100.102 node2
192.168.100.103 node3
192.168.100.104 node4

3、Zookeeper集群搭建

(1)Linux安装JDK,三台Linux都安装。

  • 上传JDK到linux
  • 安装并配置JDK
  1. # 使用rpm安装JDK
  2. rpm -ivh jdk-8u261-linux-x64.rpm
  3. # 默认的安装路径是/usr/java/jdk1.8.0_261-amd64
  4. # 配置JAVA_HOME
  5. vim /etc/profile
  6. # 文件最后添加两行
  7. export JAVA_HOME=/usr/java/jdk1.8.0_261-amd64
  8. export PATH=$PATH:$JAVA_HOME/bin
  9. # 退出vim,使配置生效
  10. source /etc/profile
  • 查看JDK是否正确安装

java -version

(2)Linux 安装Zookeeper,三台Linux都安装,以搭建Zookeeper集群

  • 上传zookeeper-3.4.14.tar.gz到Linux
  • 解压并配置zookeeper
  1. # node2操作
  2. # 解压到/opt目录
  3. tar -zxf zookeeper-3.4.14.tar.gz -C /opt
  4. # 配置
  5. cd /opt/zookeeper-3.4.14/conf
  6. cp zoo_sample.cfg zoo.cfg
  7. vim zoo.cfg
  8. # 设置
  9. dataDir=/var/lagou/zookeeper/data
  10. # 添加
  11. server.1=node2:2881:3881
  12. server.2=node3:2881:3881
  13. server.3=node4:2881:3881
  14. # 退出vim
  15. mkdir -p /var/lagou/zookeeper/data
  16. echo 1 > /var/lagou/zookeeper/data/myid
  17. # 配置环境变量
  18. vim /etc/profile
  19. # 添加
  20. export ZOOKEEPER_PREFIX=/opt/zookeeper-3.4.14
  21. export PATH=$PATH:$ZOOKEEPER_PREFIX/bin
  22. export ZOO_LOG_DIR=/var/lagou/zookeeper/log
  23. # 退出vim,让配置生效
  24. source /etc/profile
  25. # 将/opt/zookeeper-3.4.14拷贝到node3,node4
  26. scp -r /opt/zookeeper-3.4.14/ node3:/opt
  27. scp -r /opt/zookeeper-3.4.14/ node4:/opt

node3配置

  1. # 配置环境变量
  2. vim /etc/profile
  3. # 在配置JDK环境变量基础上,添加内容
  4. export ZOOKEEPER_PREFIX=/opt/zookeeper-3.4.14
  5. export PATH=$PATH:$ZOOKEEPER_PREFIX/bin
  6. export ZOO_LOG_DIR=/var/lagou/zookeeper/log
  7. # 退出vim,让配置生效
  8. source /etc/profile
  9. mkdir -p /var/lagou/zookeeper/data
  10. echo 2 > /var/lagou/zookeeper/data/myid

node4配置

  1. # 配置环境变量
  2. vim /etc/profile
  3. # 在配置JDK环境变量基础上,添加内容
  4. export ZOOKEEPER_PREFIX=/opt/zookeeper-3.4.14
  5. export PATH=$PATH:$ZOOKEEPER_PREFIX/bin
  6. export ZOO_LOG_DIR=/var/lagou/zookeeper/log
  7. # 退出vim,让配置生效
  8. source /etc/profile
  9. mkdir -p /var/lagou/zookeeper/data
  10. echo 3 > /var/lagou/zookeeper/data/myid

启动zookeeper

  1. # 在三台Linux上启动Zookeeper
  2. [root@node2 ~]# zkServer.sh start
  3. [root@node3 ~]# zkServer.sh start
  4. [root@node4 ~]# zkServer.sh start
  5. # 在三台Linux上查看Zookeeper的状态
  6. [root@node2 ~]# zkServer.sh status
  7. ZooKeeper JMX enabled by default
  8. Using config: /opt/zookeeper-3.4.14/bin/../conf/zoo.cfg
  9. Mode: follower
  10. [root@node3 ~]# zkServer.sh status
  11. ZooKeeper JMX enabled by default
  12. Using config: /opt/zookeeper-3.4.14/bin/../conf/zoo.cfg
  13. Mode: leader
  14. [root@node4 ~]# zkServer.sh status
  15. ZooKeeper JMX enabled by default
  16. Using config: /opt/zookeeper-3.4.14/bin/../conf/zoo.cfg
  17. Mode: follower

4、Kafka集群搭建

(1)安装Kafka

  • 上传并解压Kafka到/opt
  1. # 解压到/opt
  2. tar -zxf kafka_2.12-1.0.2.tgz -C /opt
  3. # 拷贝到node3和node4
  4. scp -r /opt/kafka_2.12-1.0.2/ node3:/opt
  5. scp -r /opt/kafka_2.12-1.0.2/ node4:/opt
  • 配置Kafka
  1. # 配置环境变量,三台Linux都要配置
  2. vim /etc/profile
  3. # 添加以下内容:
  4. export KAFKA_HOME=/opt/kafka_2.12-1.0.2
  5. export PATH=$PATH:$KAFKA_HOME/bin
  6. # 让配置生效
  7. source /etc/profile
  8. # node2配置
  9. vim /opt/kafka_2.12-1.0.2/config/server.properties
  10. broker.id=0
  11. listeners=PLAINTEXT://:9092
  12. advertised.listeners=PLAINTEXT://node2:9092
  13. log.dirs=/var/lagou/kafka/kafka-logs
  14. zookeeper.connect=node2:2181,node3:2181,node4:2181/myKafka
  15. # 其他使用默认配置
  16. # node3配置
  17. vim /opt/kafka_2.12-1.0.2/config/server.properties
  18. broker.id=1
  19. listeners=PLAINTEXT://:9092
  20. advertised.listeners=PLAINTEXT://node3:9092
  21. log.dirs=/var/lagou/kafka/kafka-logs
  22. zookeeper.connect=node2:2181,node3:2181,node4:2181/myKafka
  23. # 其他使用默认配置
  24. # node4配置
  25. vim /opt/kafka_2.12-1.0.2/config/server.properties
  26. broker.id=2
  27. listeners=PLAINTEXT://:9092
  28. advertised.listeners=PLAINTEXT://node4:9092
  29. log.dirs=/var/lagou/kafka/kafka-logs
  30. zookeeper.connect=node2:2181,node3:2181,node4:2181/myKafka
  31. # 其他使用默认配置
  • 启动Kafka
  1. [root@node2 ~]# kafka-server-start.sh /opt/kafka_2.12-1.0.2/config/server.properties
  2. [root@node3 ~]# kafka-server-start.sh /opt/kafka_2.12-1.0.2/config/server.properties
  3. [root@node4 ~]# kafka-server-start.sh /opt/kafka_2.12-1.0.2/config/server.properties
  • 验证Kafka

node2节点的Cluster Id:

node3节点的Cluster Id: 

node4节点的Cluster Id: 

  • Cluster Id是一个唯一的不可变的标志符,用于唯一标志一个Kafka集群。
  • 该Id最多可以有22个字符组成,字符对应于URL-safe Base64。
  • Kafka 0.10.1版本及之后的版本中,在集群第一次启动的时候,Broker从Zookeeper的<Kafka_ROOT>/cluster/id节点获取。如果该Id不存在,就自动生成一个新的。 
  1. zkCli.sh
  2. # 查看每个Broker的信息
  3. get /brokers/ids/0
  4. get /brokers/ids/1
  5. get /brokers/ids/2

node2节点在Zookeeper上的信息:

node3节点在Zookeeper上的信息: 

node4节点在Zookeeper上的信息: 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/443156?site
推荐阅读
相关标签
  

闽ICP备14008679号