当前位置:   article > 正文

实战案例——Kafka集群部署

实战案例——Kafka集群部署

1. 规划节点

IP主机名节点
192.168.100.10zookeeper1集群节点
192.168.100.20zookeeper2集群节点
192.168.100.30zookeeper集群节点

2. 基础准备

使用ZooKeeper集群搭建的3个节点来构建Kafka集群,因为Kafka服务依赖于ZooKeeper服务, 所以不再多创建云主机来进行试验。软件包使用提供的kafka_2.11-1.1.1.tgz软件包。

1. 搭建Kafka集群

(1)解压Kafka软件包

提供的kafka_2.11-1.1.1.tgz软件包,上传至3个节点的/root目录下,并执行解压操作,3个节点 执行的解压命令如下:

# tar -zxvf kafka_2.11-1.1.1.tgz

(2)修改3个节点配置文件

在zookeeper1节点,进入kafka_2.11-1.1.1/config目录下,编辑server.properties文件。 在配置文件中找到以下两行并注释掉(在文本前加#)如下所示:

  1. #broker.id=0
  2. #zookeeper.connect=localhost:2181

然后在配置文件的底部添加如下3个配置。

zookeeper1节点:

  1. broker.id=1
  2. zookeeper.connect=192.168.100.10:2181,192.168.100.20:2181,192.168.100.30:2181
  3. listeners = PLAINTEXT://192.168.100.10:9092

zookeeper2节点:

  1. broker.id=2
  2. zookeeper.connect=192.168.100.10:2181,192.168.100.20:2181,192.168.100.30:2181
  3. listeners = PLAINTEXT://192.168.100.20:9092

zookeeper3节点:

  1. broker.id=3
  2. zookeeper.connect=192.168.100.10:2181,192.168.100.20:2181,192.168.100.30:2181
  3. listeners = PLAINTEXT://192.168.100.30:9092

命令解析:

 broker.id:每台机器不能一样。

 zookeeper.connect:因为有3台ZooKeeper服务器,所以在这里zookeeper.connect设置为3 台。

 listeners:在配置集群的时候,必须设置,不然以后的操作会报找不到leader的错误。 另外两台服务器,zookeeper.connect的配置跟这里的一样,但是broker.id和listeners不能一样。

(3)启动服务

在zookeeper1节点,进入kafka_2.11-1.1.1/bin目录下,启动服务命令如下。

zookeeper1节点:

  1. [root@zookeeper1 bin]# cd /root/zookeeper-3.4.14/bin/
  2. [root@zookeeper1 bin]# ./zkServer.sh start
  3. ZooKeeper JMX enabled by default
  4. Using config: /root/zookeeper-3.4.14/bin/../conf/zoo.cfg
  5. Starting zookeeper ... STARTED
  6. [root@zookeeper1 bin]# cd /root/kafka_2.11-1.1.1/bin/
  7. [root@zookeeper1 bin]# ./kafka-server-start.sh -daemon ../config/server.properties
  8. [root@zookeeper1 bin]# jps
  9. 4850 Kafka
  10. 4922 Jps
  11. 4556 QuorumPeerMain

zookeeper2节点:

  1. [root@zookeeper2 bin]# cd /root/zookeeper-3.4.14/bin/
  2. [root@zookeeper2 bin]# ./zkServer.sh start
  3. ZooKeeper JMX enabled by default
  4. Using config: /root/zookeeper-3.4.14/bin/../conf/zoo.cfg
  5. Starting zookeeper ... STARTED
  6. [root@zookeeper2 bin]# cd /root/kafka_2.11-1.1.1/bin/
  7. [root@zookeeper2 bin]# ./kafka-server-start.sh -daemon ../config/server.properties
  8. [root@zookeeper2 bin]# jps
  9. 3561 Kafka
  10. 3261 QuorumPeerMain
  11. 3629 Jps

zookeeper3节点:

  1. [root@zookeeper3 conf]# cd /root/zookeeper-3.4.14/bin/
  2. [root@zookeeper3 bin]# ./zkServer.sh start
  3. ZooKeeper JMX enabled by default
  4. Using config: /root/zookeeper-3.4.14/bin/../conf/zoo.cfg
  5. Starting zookeeper ... STARTED
  6. [root@zookeeper3 bin]# cd /root/kafka_2.11-1.1.1/bin/
  7. [root@zookeeper3 bin]# ./kafka-server-start.sh -daemon ../config/server.properties
  8. [root@zookeeper3 bin]# jps
  9. 3794 QuorumPeerMain
  10. 4088 Kafka
  11. 4157 Jps

(4)测试服务

在zookeeper1节点,进入kafka_2.11-1.1.1/bin目录下,创建topic命令如下。

zookeeper1节点:

  1. [root@zookeeper1 bin]# ./kafka-topics.sh --create --zookeeper 192.168.100.10:2181 --replication-factor 1 --partitions 1 --topic test
  2. Created topic "test".

如果成功的话,会输出“Created topic "test".”。

查看topic,虽然topic是在192.168.100.10上创建的,但是在其他机器上也能看到。例如在任意启 动的机器kafka_2.11-1.1.1/bin的目录中执行命令如下:

zookeeper2节点:

  1. [root@zookeeper2 bin]# ./kafka-topics.sh --list --zookeeper 192.168.100.20:2181
  2. test

zookeeper3节点:

  1. [root@zookeeper3 bin]# ./kafka-topics.sh --list --zookeeper 192.168.100.30:2181
  2. test

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/246389
推荐阅读
相关标签
  

闽ICP备14008679号