赞
踩
这里不使用kafka安装包自带的zookeeper,从官网下载apache-zookeeper-3.8.0-bin.tar.gz这个版本使用
另外注意./conf/zoo.cfg这个配置文件内容,dataDir配置,这个存放zookeeper的快照文件,这个路径默认值固定,如果相关机器历史上有配置过zookeeper并且没有修改此配置,那本次配置的zookeeper启动时会加载历史的数据日志文件(不想修改,且确定历史数据不重要的情况下,可以删除该目录下的数据)。
# the directory where the snapshot is stored.
dataDir=/data/bigdata/zookeeper/data
在没有设置任何权限的配置下启动Zookeeper:
./bin/zkServer.sh start ./conf/zoo.cfg
在使用sasl之前必须先创建,否则启动报错
bin/kafka-configs.sh --zookeeper 127.0.0.1:2181 --alter --add-config 'SCRAM-SHA-256=[password=admin-succ],SCRAM-SHA-512=[password=admin-succ]' --entity-type users --entity-name admin
bin/kafka-configs.sh --zookeeper 127.0.0.1:2181 --alter --add-config 'SCRAM-SHA-256=[iterations=8192,password=producer-succ],SCRAM-SHA-512=[password=producer-succ]' --entity-type users --entity-name producer
bin/kafka-configs.sh --zookeeper 127.0.0.1:2181 --alter --add-config 'SCRAM-SHA-256=[iterations=8192,password=consumer-succ],SCRAM-SHA-512=[password=consumer-succ]' --entity-type users --entity-name consumer
SCRAM-SHA-256/SCRAM-SHA-512是对密码加密的算法,二者有其一即可。
bin/kafka-configs.sh --zookeeper 127.0.0.1:2181 --describe --entity-type users --entity-name producer
bin/kafka-configs.sh --zookeeper 127.0.0.1:2181 --describe --entity-type users --entity-name consumer
bin/kafka-configs.sh --zookeeper localhost:2181 --alter --delete-config 'SCRAM-SHA-512' --delete-config 'SCRAM-SHA-256' --entity-type users --entity-name producer
在用户证书创建完毕之后开始Kafka服务端的配置
进入kafka/config文件夹,执行以下命令:
cat > kafka_server_jaas.conf << EOF
KafkaServer {
org.apache.kafka.common.security.scram.ScramLoginModule required
username="admin"
password="admin-succ";
};
EOF
进入kafka/bin文件夹,在 kafka-server-start.sh 最上方添加(路径换成自己的)
export KAFKA_OPTS=" -Djava.security.auth.login.config=/home/bigdata/apps/kafka/config/kafka_server_jaas.conf"
将下面配置添加至其中
#认证配置
listeners=SASL_PLAINTEXT://:9092
security.inter.broker.protocol=SASL_PLAINTEXT
sasl.mechanism.inter.broker.protocol=SCRAM-SHA-256
sasl.enabled.mechanisms=SCRAM-SHA-256
#ACL配置
allow.everyone.if.no.acl.found=false
super.users=User:admin
authorizer.class.name=kafka.security.authorizer.AclAuthorizer
可以根据自己的需求选择SASL_SSL或SASL_PLAINTEXT, PLAINTEXT为不加密明文传输,性能好一点。
另外注意,log.dirs配置,这个存放kafka的数据日志文件,这个路径默认值固定,如果相关机器历史上有配置过kafka并且没有修改此配置,那本次配置的kafka启动时会加载历史的数据日志文件(不想修改,且确定历史数据不重要的情况下,可以删除该目录下的数据)。
# A comma separated list of directories under which to store log files
log.dirs=/tmp/kafka-logs。
./bin/zkServer.sh stop
./bin/zkServer.sh start ./conf/zoo.cfg
nohup sh ./bin/kafka-server-start.sh ./config/server.properties >/dev/null 2>&1 &
kafka_client_scram_admin_jaas.conf
kafka_client_scram_producer_jaas.conf
kafka_client_scram_consumer_jaas.conf
进入kafka/config文件夹,执行以下命令:
cat > kafka_client_scram_admin_jaas.conf << EOF KafkaClient { org.apache.kafka.common.security.scram.ScramLoginModule required username="admin" password="admin-succ"; }; EOF cat > kafka_client_scram_producer_jaas.conf << EOF KafkaClient { org.apache.kafka.common.security.scram.ScramLoginModule required username="producer" password="producer-succ"; }; EOF cat > kafka_client_scram_consumer_jaas.conf << EOF KafkaClient { org.apache.kafka.common.security.scram.ScramLoginModule required username="consumer" password="consumer-succ"; }; EOF
进入kafka/bin文件夹,在 kafka-console-producer.sh 最上方添加(路径换成自己的):
export KAFKA_HEAP_OPTS="-Xmx512M -Djava.security.auth.login.config=/home/bigdata/apps/kafka/config/kafka_client_scram_producer_jaas.conf"
进入kafka/bin文件夹,在 kafka-console-consumer.sh 最上方添加(路径换成自己的):
export KAFKA_HEAP_OPTS="-Xmx512M -Djava.security.auth.login.config=/home/bigdata/apps/kafka/config/kafka_client_scram_consumer_jaas.conf"
cat > consumer.properties << EOF
security.protocol=SASL_PLAINTEXT
sasl.mechanism=SCRAM-SHA-256
group.id= test-consumer-group
EOF
cat > producer.properties << EOF
security.protocol=SASL_PLAINTEXT
sasl.mechanism=SCRAM-SHA-256
EOF
该文件其实也是配置的连接Kafka的用户配置文件,但是该文件用于kafka-acls.sh,kafka-configs.sh等文件,同样的名称和路径可自定义,我这里还是把该文件放到解压的config目录中,内容如下:
sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required username="admin" password="admin-succ";
security.protocol=SASL_PLAINTEXT
sasl.mechanism=SCRAM-SHA-256
cat > command_config.properties << EOF
sasl.jaas.config=org.apache.kafka.common.security.scram.ScramLoginModule required username="admin" password="admin-succ";
security.protocol=SASL_PLAINTEXT
sasl.mechanism=SCRAM-SHA-256
EOF
bin/kafka-topics.sh --create --bootstrap-server 127.0.0.1:9092 --topic test --partitions 3 --replication-factor 1 --command-config ./config/command_config.properties
bin/kafka-topics.sh --list --bootstrap-server 127.0.0.1:9092 --command-config ./config/command_config.properties
bin/kafka-acls.sh --bootstrap-server 127.0.0.1:9092 -add --allow-principal User:producer --operation Write --topic test --command-config ./config/command_config.properties
bin/kafka-acls.sh --bootstrap-server 127.0.0.1:9092 --list --topic test --command-config ./config/command_config.properties
bin/kafka-acls.sh --bootstrap-server 127.0.0.1:9092 --add --allow-principal User:consumer --operation Read --topic test --command-config ./config/command_config.properties
bin/kafka-acls.sh --bootstrap-server 127.0.0.1:9092 --add --allow-principal User:consumer --operation Read --topic test --group test-consumer-group --command-config ./config/command_config.properties
bin/kafka-console-producer.sh --broker-list 127.0.0.1:9092 --topic test --producer.config config/producer.properties
bin/kafka-console-consumer.sh --bootstrap-server 127.0.0.1:9092 --topic test --from-beginning --consumer.config config/consumer.properties
./bin/kafka-topics.sh --create --bootstrap-server 127.0.0.1:9092 --topic tp_usera --partitions 3 --replication-factor 1 --command-config ./config/command_config.properties
./bin/kafka-configs.sh --bootstrap-server 127.0.0.1:9092 --alter --add-config 'SCRAM-SHA-256=[password=abcd],SCRAM-SHA-512=[password=abcd]' --entity-type users --entity-name usera --command-config ./config/command_config.properties
./bin/kafka-acls.sh --bootstrap-server 127.0.0.1:9092 --add --allow-principal User:usera --operation Read --operation Write --topic tp_usera --command-config ./config/command_config.properties
./bin/kafka-acls.sh --bootstrap-server 127.0.0.1:9092 --add --allow-principal User:usera --producer --topic tp_usera --command-config ./config/command_config.properties
./bin/kafka-acls.sh --bootstrap-server 127.0.0.1:9092 --add --allow-principal User:usera --consumer --topic tp_usera --group test-consumer-group --command-config ./config/command_config.properties
./bin/kafka-acls.sh --bootstrap-server 127.0.0.1:9092 --list --topic tp_usera --command-config ./config/command_config.properties
kafka_client_scram_producer_usera_jaas.conf
kafka_client_scram_consumer_usera_jaas.conf
进入kafka/config文件夹,执行以下命令:
cat > kafka_client_scram_producer_usera_jaas.conf << EOF
KafkaClient {
org.apache.kafka.common.security.scram.ScramLoginModule required
username="usera"
password="abcd";
};
EOF
cat > kafka_client_scram_consumer_usera_jaas.conf << EOF
KafkaClient {
org.apache.kafka.common.security.scram.ScramLoginModule required
username="usera"
password="abcd";
};
EOF
进入kafka/bin文件夹,新增 kafka-console-producer-usera.sh 文件,注意最上方添加(路径换成自己的):
cp kafka-console-producer.sh kafka-console-producer-usera.sh
vi kafka-console-producer-usera.sh
修改“KAFKA_HEAP_OPTS”所在的行为下面的内容:
export KAFKA_HEAP_OPTS="-Xmx512M -Djava.security.auth.login.config=/home/bigdata/apps/kafka/config/kafka_client_scram_producer_usera_jaas.conf"
进入kafka/bin文件夹,新增 kafka-console-consumer-usera.sh 文件,注意最上方添加(路径换成自己的):
cp kafka-console-consumer.sh kafka-console-consumer-usera.sh
vi kafka-console-consumer-usera.sh
修改“KAFKA_HEAP_OPTS”所在的行为下面的内容:
export KAFKA_HEAP_OPTS="-Xmx512M -Djava.security.auth.login.config=/home/bigdata/apps/kafka/config/kafka_client_scram_consumer_usera_jaas.conf"
./bin/kafka-console-producer-usera.sh --broker-list 127.0.0.1:9092 --topic tp_usera --producer.config config/producer.properties
./bin/kafka-console-consumer-usera.sh --bootstrap-server 127.0.0.1:9092 --topic tp_usera --from-beginning --consumer.config config/consumer.properties
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。