当前位置:   article > 正文

带有Kerberos认证的Kafka_golang kerberos 认证

golang kerberos 认证

带有Kerberos认证的Kafka

对topic的增删查,生产者消费者的命令

1.需要刷新为Kafka用户进行Kerberos认证

cd /etc/security/keytabs/
[root@bigdata-hadoop-data--1 keytabs]# klist -kt kafka.service.keytab 
Keytab name: FILE:kafka.service.keytab
KVNO Timestamp           Principal
---- ------------------- ------------------------------------------------------
   1 07/01/2020 10:39:27 kafka/bigdata-hadoop-data--1.novalocal@DEV.COM
   1 07/01/2020 10:39:27 kafka/bigdata-hadoop-data--1.novalocal@DEV.COM
   1 07/01/2020 10:39:27 kafka/bigdata-hadoop-data--1.novalocal@DEV.COM
   1 07/01/2020 10:39:27 kafka/bigdata-hadoop-data--1.novalocal@DEV.COM
   1 07/01/2020 10:39:27 kafka/bigdata-hadoop-data--1.novalocal@DEV.COM
kinit -kt kafka.service.keytab kafka/bigdata-hadoop-data--1.novalocal
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

2.创建topic

 bin/kafka-topics.sh --zookeeper bigdata-hadoop-data--1.novalocal:2181 --create --topic second --replication-factor 1 --partitions 3
  • 1

这里的bigdata-hadoop-data--1.novalocal:2181以实际为准

--create创建参数,删除改为--delete即可

--topic定义topic名

--replication-factor定义副本数

--partitions定义分区数

3.查看topic的详情

bin/kafka-topics.sh --zookeeper bigdata-hadoop-data--1.novalocal:2181 --describe --topic second
  • 1

--describe定义描述的参数

4.acl授权

 bin/kafka-acls.sh --authorizer-properties zookeeper.connect=bigdata-hadoop-data--1.novalocal:2181/kafka2 --add --allow-principal User:ffcs_bigdata --producer --topic second
  • 1

5.生产者生产消息

bin/kafka-console-producer.sh --broker-list bigdata-hadoop-data--1.novalocal:6667 --topic second --security-protocol PLAINTEXTSASL --producer-property sasl.mechanism=GSSAPI
  • 1

6.消费者消费消息

bin/kafka-console-consumer.sh --bootstrap-server bigdata-hadoop-data--1.novalocal:6667 --from-beginning --topic second --security-protocol PLAINTEXTSASL
  • 1
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/在线问答5/article/detail/950983
推荐阅读
相关标签
  

闽ICP备14008679号