当前位置:   article > 正文

Kafka 安装部署-单节点_kafka单节点部署

kafka单节点部署

       Kafka强依赖ZK,如果想要使用Kafka,就必须安装ZK,Kafka中的消费偏置信息、kafka集群、topic信息会被存储在ZK中。有人可能会说我在使用Kafka的时候就没有安装ZK,那是因为Kafka内置了一个ZK,一般我们不使用它。

部署说明

本文使用kafka单节点安装及配置,并使用kafka自带的zookeeper。一般kafka需要起三个kafka构成集群,可以连单独的zookeeper,本文不涉及。

kafka下载

根据需要下载对应版本的安装包,下载地址:
https://archive.apache.org/dist/kafka/
上传安装包并解压重命名(路径自定义):
如:上传到 /opt 路径下
解压和重命名:

  1. cd opt
  2. tar -zxvf kafka_2.12-2.5.0.tgz
  3. mv kafka_2.12-2.5.0 kafka

修改zookeeper配置

  1. vim kafka/config/zookeeper.properties
  2. dataDir=/opt/kafka
  3. # the port at which the clients will connect
  4. clientPort=2181
  5. # disable the per-ip limit on the number of connections since this is a non-production config
  6. maxClientCnxns=100
  7. # Disable the adminserver by default to avoid port conflicts.
  8. # Set the port to something non-conflicting if choosing to enable this
  9. admin.enableServer=false
  10. # admin.serverPort=8080

修改kafka配置

  1. vim kafka/config/server.properties
  2. broker.id=0
  3. listeners=PLAINTEXT://192.168.1.1:9092
  4. advertised.listeners=PLAINTEXT://192.168.1.1:9092
  5. log.dirs=/opt/kafka/kafka-logs
  6. zookeeper.connect=192.168.1.1:2181
  7. # 本机ip
  8. host.name=192.168.1.1

 启动zookeeper

./zookeeper-server-start.sh ../config/zookeeper.properties &

 启动kafka

./kafka-server-start.sh ../config/server.properties &

第二种

Kafka 单节点部署

下载安装
下载Zookeeper并解压到指定目录

ZooKeeper官网:http://zookeeper.apache.org/

[root@spark1 soft]# tar -zxvf zookeeper-3.4.5.tar.gz -C /application/

配置ZK

配置zoo.cfg

拷贝zoo_sample.cfg文件重命名为zoo.cfg,然后修改dataDir属性

  1. [root@spark1 soft]# cd /application/zookeeper-3.4.5/conf/
  2. [root@spark1 conf]# cat zoo.cfg
  3. ....
  4. # 数据的存放目录
  5. dataDir=/application/zookeeper-3.4.5/data
  6. # 端口,默认就是2181
  7. clientPort=2181
  8. ....
  9. [root@spark1 conf]#

配置环境变量

  1. [root@spark1 ~]# cat /etc/profile
  2. ......
  3. #ZooKeeper环境变量
  4. export ZOOKEEPER_HOME=/application/zookeeper-3.4.5
  5. export PATH=$PATH:$ZOOKEEPER_HOME/bin
  6. ......

Zookeeper 启动停止命令

  1. $ zkServer.sh start
  2. $ zkServer.sh stop

Kafka 单节点单Broker部署及使用

部署架构

安装Kafka

Apache Kafka

  1. tar -zxvf kafka_2.10-0.10.2.1.tgz -C /application/
  2. #然后分别在各机器上创建软连
  3. cd /application/
  4. ln -s kafka_2.10-0.10.2.1 kafka

说明:

    1)版本最好注意下;在Java调用kafka的时候可能有问题就是版本造成的;

配置Kafka

配置server.properties

进入kafka的config目录下,有一个server.properties,添加如下配置

  1. # broker的全局唯一编号,不能重复
  2. broker.id=0
  3. #这个最好配置,否则Java调用报错
  4. advertised.listeners=PLAINTEXT://192.168.2.1:9092
  5. # 日志目录
  6. log.dirs=/application/kafka/logs/kafka-logs
  7. # 配置zookeeper的连接(如果不是本机,需要该为ip或主机名)
  8. zookeeper.connect=localhost:2181

启动Kafka

启动Zookeeper

zkServer.sh start

启动Kafka

[root@spark1 application]# /application/kafka/bin/kafka-server-start.sh  /application/kafka/config/server.properties

后台启动

nohup /application/kafka/bin/kafka-server-start.sh  /application/kafka/config/server.properties &  

创建topic

  1. [root@spark1 ~]# /application/kafka/bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
  2. Created topic "test".
  3. [root@spark1 ~]# 

说明: 
    1)--zookeeper:指定kafka连接zk的连接url,该值和server.properties文件中的配置项{zookeeper.connect}一样 
    2)--replication-factor:指定副本数量 
    3)--partitions:指定分区数量 
    4)--topic:主题名称

查看所有的topic信息

  1. [root@spark1 ~]# /application/kafka/bin/kafka-topics.sh --list --zookeeper localhost:2181
  2. TestTopic
  3. WordCount
  4. test
  5. [root@spark1 ~]# 

启动生产者

[root@spark1 ~]# /application/kafka/bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test

启动消费者

[root@spark1 ~]# /application/kafka/bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning

0.90版本之后启动消费者的方法:

[root@spark1 ~]# /application/kafka/bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic productscanlog --from-beginning

测试

产者生产数据

  1. [root@spark1 ~]# /application/kafka/bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test
  2. aa
  3. bb
  4. hello world
  5. hello kafka  

消费者消费数据

  1. [root@spark1 ~]# /application/kafka/bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning
  2. aa
  3. bb
  4. hello world
  5. hello kafka

说明:

    1)--from-beginning参数如果有表示从最开始消费数据,旧的和新的数据都会被消费,而没有该参数表示只会消费新产生的数据;

第三种

1.下载

从官网下载kafka,由于测试需要,我下载的是kafka_2.11-0.9.0.0.tgz

2.上传解压

将安装包上传到/opt/software目录,并解压

tar -zxf kafka_2.11-0.9.0.0.tgz -C /opt/module/

3.修改配置文件

创建logs目录

  1. [root@hadoop01 module]# cd kafka_2.11-0.9.0.0/
  2. [root@hadoop01 kafka_2.11-0.9.0.1]# ll
  3. total 28
  4. drwxr-xr-x 3 root root  4096 Feb 12  2016 bin
  5. drwxr-xr-x 2 root root  4096 Feb 12  2016 config
  6. drwxr-xr-x 2 root root  4096 May  8 09:39 libs
  7. -rw-r--r-- 1 root root 11358 Feb 12  2016 LICENSE
  8. -rw-r--r-- 1 root root   162 Feb 12  2016 NOTICE
  9. drwxr-xr-x 2 root root    46 Feb 12  2016 site-docs
  10. [root@hadoop01 kafka_2.11-0.9.0.1]# mkdir logs

修改server.properties配置文件

  1. [root@hadoop01 kafka_2.11-0.9.0.1]# cd config/
  2. You have new mail in /var/spool/mail/root
  3. [root@hadoop01 config]# vim server.properties 

配置以下内容

  1. #broker的全局唯一编号,不能重复
  2. broker.id=0
  3. #删除topic功能使能
  4. delete.topic.enable=true
  5. #处理网络请求的线程数量
  6. num.network.threads=3
  7. #用来处理磁盘IO的现成数量
  8. num.io.threads=8
  9. #发送套接字的缓冲区大小
  10. socket.send.buffer.bytes=102400
  11. #接收套接字的缓冲区大小
  12. socket.receive.buffer.bytes=102400
  13. #请求套接字的缓冲区大小
  14. socket.request.max.bytes=104857600
  15. #kafka运行日志存放的路径    
  16. log.dirs=/opt/module/kafka_2.11-0.9.0.0/logs
  17. #topic在当前broker上的分区个数
  18. num.partitions=1
  19. #用来恢复和清理data下数据的线程数量
  20. num.recovery.threads.per.data.dir=1
  21. #segment文件保留的最长时间,超时将被删除
  22. log.retention.hours=168
  23. #配置连接Zookeeper集群地址
  24. zookeeper.connect=hadoop01:2181

4.配置环境变量

  1. [root@hadoop01]# sudo vim /etc/profile
  2. #KAFKA_HOME
  3. export KAFKA_HOME=/opt/module/kafka_2.11-0.9.0.0
  4. export PATH=$PATH:$KAFKA_HOME/bin
  5. [root@hadoop01]# source /etc/profile

5.修改zookeeper配置

  1. [root@hadoop01 config]# vim zookeeper.properties
  2. dataDir=/opt/module/kafka_2.11-0.9.0.0/zookeeper
  3. # the port at which the clients will connect
  4. clientPort=2181
  5. # disable the per-ip limit on the number of connections since this is a non-production config
  6. #maxClientCnxns=0
  7. tickTime=2000
  8. initLimit=10
  9. syncLimit=5
  10. server.1=hadoop01:2888:3888

在zookeeper的数据目录添加myid文件,写入服务broker.id属性值,如这里的目录是/opt/module/kafka_2.11-0.9.0.1/zookeeper

  1. [root@hadoop01 kafka_2.11-0.9.0.0]# cd /opt/module/kafka_2.11-0.9.0.1/zookeeper
  2. [root@hadoop01 zookeeper]# 
  3. [root@hadoop01 zookeeper]# touch myid
  4. [root@hadoop01 zookeeper]# echo 1 > myid
  5. [root@hadoop01 zookeeper]# cat myid 
  6. 1

6.启动kafka

启动kafka之前要先启动zookeeper,这里使用的是kafka自带的zk

  1. [root@hadoop01 ~]# cd /opt/module/kafka_2.11-0.9.0.0/
  2. [root@hadoop01 kafka_2.11-0.9.0.0]# ls
  3. bin  config  libs  LICENSE  logs  NOTICE  site-docs  zookeeper
  4. [root@hadoop01 kafka_2.11-0.9.0.0]# 
  5. [root@hadoop01 kafka_2.11-0.9.0.0]# bin/zookeeper-server-start.sh ./config/zookeeper.properties >./logs/zk.log &
  6. [root@hadoop01 kafka_2.11-0.9.0.0]# jps
  7. 2326 Jps
  8. [root@hadoop01 kafka_2.11-0.9.0.0]# bin/zookeeper-server-start.sh ./config/zookeeper.properties >./logs/zk.log &
  9. [1] 2341
  10. [root@hadoop01 kafka_2.11-0.9.0.0]# jps
  11. 2341 QuorumPeerMain
  12. 2367 Jps
  13. [root@hadoop01 kafka_2.11-0.9.0.0]# 

启动kafka

  1. [root@hadoop01 tools]# cd /opt/module/kafka_2.11-0.9.0.0/
  2. [root@hadoop01 kafka_2.11-0.9.0.0]# bin/kafka-server-start.sh -daemon config/server.properties
  3. [root@hadoop01 kafka_2.11-0.9.0.0]# 
  4. [root@hadoop01 kafka_2.11-0.9.0.0]# jps
  5. 33593 QuorumPeerMain
  6. 33707 Kafka
  7. 33739 Jps
  8. [root@hadoop01 kafka_2.11-0.9.0.1]#

停止kafka

[root@hadoop01 kafka_2.11-0.9.0.1]# bin/kafka-server-stop.sh stop

7.测试

创建topic

[root@hadoop01 kafka_2.11-0.9.0.0]# bin/kafka-topics.sh --create --zookeeper hadoop01:2181 --replication-factor 1 --partitions 1 --topic kafka_streaming_topic

参数说明:
–zookeeper:指定kafka连接zk的连接url,该值和server.properties文件中的配置项{zookeeper.connect}一样
–replication-factor:指定副本数量
–partitions:指定分区数量
–topic:主题名称

查看kafka中所有topic信息

[root@hadoop01 kafka_2.11-0.9.0.0]# bin/kafka-topics.sh --list --zookeeper hadoop01:2181

创建生产者

bin/kafka-console-producer.sh --broker-list hadoop01:9092 --topic kafka_streaming_topic

创建消费者

bin/kafka-console-consumer.sh --zookeeper hadoop01:2181 --topic kafka_streaming_topic --from-beginning

参数说明:
–from-beginning 从头开始消费
–bootstrap-server 指的是目标集群kafka的服务器地址,新版本之后(新版本指的是kafka 0.8.0之后的版本)开始使用 --bootstrap-server代替 --zookeeper

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/78648?site
推荐阅读
相关标签
  

闽ICP备14008679号