赞
踩
在指定目录执行下载命令 我是在/newdisk/zookeeper目录下
wget https://archive.apache.org/dist/zookeeper/zookeeper-3.5.8/apache-zookeeper-3.5.8-bin.tar.gz --no-check-certificate
下载好后并解压 tar -zxvf apache-zookeeper-3.5.8-bin.tar.gz
校验是否安装好,进入 /newdisk/zookeeper/apache-zookeeper-3.5.8-bin/conf
复制zoo_sample.cfg配置文件为zoo.cfg
cp zoo_sample.cfg zoo.cfg
在进入/newdisk/zookeeper/apache-zookeeper-3.5.8-bin/bin目录
启动zk服务端
./zkServer.sh start
启动客户端
./zkCli.sh
在查看根节点 ,出现如下界面就安装成功了
进入到要下载的目录,我这边是/newdisk/kafka 执行下载命令(有点慢)
wget https://archive.apache.org/dist/kafka/2.4.1/kafka_2.11-2.4.1.tgz --no-check-certificate
或者直接使用安装包kafka_2.13-3.6.0.tgz
解压 tar -xvzf kafka_2.13-3.6.0.tgz
修改配置
进入/newdisk/kafka/kafka_2.13-3.6.0/config,vim server.properties
- # broker.id属性在kafka集群中必须要是唯一
- broker.id=0
- # kafka部署的机器ip和提供服务的端口号
- listeners=PLAINTEXT://内网ip:9092
- # kafka的消息存储文件
- log.dirs=/usr/local/data/kafka-logs
- # kafka连接zookeeper的地址
- zookeeper.connect=内网ip:2181
- broker.id=0
- listeners=PLAINTEXT://192.168.31.131:9092
- log.dir=/newdisk/kafka/data/kafka-logs
- zookeeper.connect=192.168.31.131:2181
启动kafka(前提是zookeeper服务端启动)
进入/newdisk/kafka/kafka_2.13-3.6.0/,执行如下命令
bin/kafka-server-start.sh config/server.properties
通过zookeeper客户端查看是否注册成功
创建topic
参数 --topic
指定 Topic 名,--partitions
指定分区数,--replication-factor
指定副本数:
./kafka-topics.sh --create --bootstrap-server 192.168.31.131:9092 --replication-factor 1 --partitions 1 --topic test
查看topic
./kafka-topics.sh --list --bootstrap-server 192.168.31.131:9092
发送消息
./kafka-console-producer.sh --broker-list 192.168.31.131:9092 --topic test
消费消息
./kafka-console-consumer.sh --bootstrap-server 192.168.31.131:9092 --topic test --from-beginning
地址:GitHub - provectus/kafka-ui: Open-Source Web UI for Apache Kafka Management
简介
Apache Kafka UI 是一个免费的开源 Web UI,用于监控和管理 Apache Kafka 集群。
Apache Kafka UI 是一个简单的工具,可让您的数据流可观察,帮助更快地发现和解决问题并提供最佳性能。其轻量级仪表板可以轻松跟踪 Kafka 集群的关键指标 - 代理、主题、分区、生产和消耗。
安装及启动(docker)
运行如下命令
docker run -it -p 8080:8080 -d -e DYNAMIC_CONFIG_ENABLED=true provectuslabs/kafka-ui
然后访问 Web UI :http://localhost:8080
下载 ,只需要到自己想要下载的文件路径下执行如下命令
wget https://github.com/smartloli/kafka-eagle-bin/archive/v2.1.0.tar.gz
解压,解压后发现里面还是一个压缩包
tar -xzvf v2.1.0.tar.gz
继续解压
tar -xvzf efak-web-2.1.0-bin.tar.gz
复制到指定文件夹
mv efak-web-2.1.0 /newdisk/kafka/kafka-web
配置kafka_eagle环境变量:vim /etc/profile
- # KAFKA_EAGLE
- export KE_HOME=/newdisk/kafka/kafka-web
- export PATH=$PATH:$KE_HOME/bin
source /etc/profile
配置kafka_eagle,修改配置文件conf文件夹下的system-config.properties文件
完整的配置如下
-
- ######################################
- # multi zookeeper & kafka cluster list
- # Settings prefixed with 'kafka.eagle.' will be deprecated, use 'efak.' instead
- ######################################
- #efak.zk.cluster.alias=cluster1,cluster2
- #cluster1.zk.list=tdn1:2181,tdn2:2181,tdn3:2181
- #cluster2.zk.list=xdn10:2181,xdn11:2181,xdn12:2181
-
- efak.zk.cluster.alias=cluster1
- cluster1.zk.list=192.168.31.131:2181
-
-
- ######################################
- # zookeeper enable acl
- ######################################
- cluster1.zk.acl.enable=false
- cluster1.zk.acl.schema=digest
- cluster1.zk.acl.username=test
- cluster1.zk.acl.password=test123
-
- ######################################
- # broker size online list
- ######################################
- cluster1.efak.broker.size=20
-
- ######################################
- # zk client thread limit
- ######################################
- kafka.zk.limit.size=16
-
- ######################################
- # EFAK webui port
- ######################################
- efak.webui.port=8048
-
- ######################################
- # EFAK enable distributed
- ######################################
- efak.distributed.enable=false
- efak.cluster.mode.status=master
- efak.worknode.master.host=localhost
- efak.worknode.port=8085
-
- ######################################
- # kafka jmx acl and ssl authenticate
- ######################################
- cluster1.efak.jmx.acl=false
- cluster1.efak.jmx.user=keadmin
- cluster1.efak.jmx.password=keadmin123
- cluster1.efak.jmx.ssl=false
- cluster1.efak.jmx.truststore.location=/data/ssl/certificates/kafka.truststore
- cluster1.efak.jmx.truststore.password=ke123456
-
- ######################################
- # kafka offset storage
- ######################################
- cluster1.efak.offset.storage=kafka
- #cluster2.efak.offset.storage=zk
-
- ######################################
- # kafka jmx uri
- ######################################
- cluster1.efak.jmx.uri=service:jmx:rmi:///jndi/rmi://%s/jmxrmi
-
- ######################################
- # kafka metrics, 15 days by default
- ######################################
- efak.metrics.charts=true
- efak.metrics.retain=15
-
- ######################################
- # kafka sql topic records max
- ######################################
- efak.sql.topic.records.max=5000
- efak.sql.topic.preview.records.max=10
-
- ######################################
- # delete kafka topic token
- ######################################
- efak.topic.token=keadmin
-
- ######################################
- # kafka sasl authenticate
- ######################################
- cluster1.efak.sasl.enable=false
- cluster1.efak.sasl.protocol=SASL_PLAINTEXT
- cluster1.efak.sasl.mechanism=SCRAM-SHA-256
- cluster1.efak.sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required username="kafka" password="kafka-eagle";
- cluster1.efak.sasl.client.id=
- cluster1.efak.blacklist.topics=
- cluster1.efak.sasl.cgroup.enable=false
- cluster1.efak.sasl.cgroup.topics=
- #cluster2.efak.sasl.enable=false
- #cluster2.efak.sasl.protocol=SASL_PLAINTEXT
- #cluster2.efak.sasl.mechanism=PLAIN
- #cluster2.efak.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="kafka" password="kafka-eagle";
- #cluster2.efak.sasl.client.id=
- #cluster2.efak.blacklist.topics=
- #cluster2.efak.sasl.cgroup.enable=false
- #cluster2.efak.sasl.cgroup.topics=
-
- ######################################
- # kafka ssl authenticate
- ######################################
- cluster3.efak.ssl.enable=false
- cluster3.efak.ssl.protocol=SSL
- cluster3.efak.ssl.truststore.location=
- cluster3.efak.ssl.truststore.password=
- cluster3.efak.ssl.keystore.location=
- cluster3.efak.ssl.keystore.password=
- cluster3.efak.ssl.key.password=
- cluster3.efak.ssl.endpoint.identification.algorithm=https
- cluster3.efak.blacklist.topics=
- cluster3.efak.ssl.cgroup.enable=false
- cluster3.efak.ssl.cgroup.topics=
-
- ######################################
- # kafka sqlite jdbc driver address
- ######################################
- #efak.driver=org.sqlite.JDBC
- #efak.url=jdbc:sqlite:/hadoop/kafka-eagle/db/ke.db
- #efak.username=root
- #efak.password=www.kafka-eagle.org
-
- ######################################
- # kafka mysql jdbc driver address
- ######################################
- efak.driver=com.mysql.cj.jdbc.Driver
- efak.url=jdbc:mysql://192.168.31.131:3306/ke?useUnicode=true&characterEncoding=UTF-8&zeroDateTimeBehavior=convertToNull
- efak.username=root
- efak.password=123456
保存后,启动
bin/ke.sh start
我这边启动报错,根据提升是内存不够,我们把内存调小一点
vim bin/ke.sh
重新启动
查看状态
bin/ke.sh status
浏览器访问http://192.168.31.131:8048/ 用户名/密码 admin/123456
到这边就成功了
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。