当前位置:   article > 正文

kafka集群环境搭建_创建 kafka 集群 例

创建 kafka 集群 例

今在完成 storm集群搭建之后,希望集成 kafka

此文记录搭建的过程。

storm集群搭建可以看 

http://blog.csdn.net/ch717828/article/details/50718783

1. 机器准备

我准备了3台机器 ,分别是

   10.101.214.71 

   10.101.214.73

   10.101.214.74

2. Kafka安装


sudo tar xvzf kafka_2.11-0.9.0.0.tgz -C /usr/local/
sudo ln -s /usr/local/kafka_2.11-0.9.0.0/ /usr/local/kafka
sudo chown -R admin:admin /usr/local/kafka_2.11-0.9.0.0/ /usr/local/kafka

3. Kafka配置文件

vim /usr/local/kafka/config/server.properties
//修改一下内容
//10.101.214.71 机器
	broker.id=0
	zookeeper.connect=10.101.214.71:2181,10.101.214.73:2181,10.101.214.74:2181/kafka
//10.101.214.73 机器
	borker.id=1 
	zookeeper.connect=10.101.214.71:2181,10.101.214.73:2181,10.101.214.74:2181/kafka
//10.101.214.74 机器
	boker.id=2 
	zookeeper.connect=10.101.214.71:2181,10.101.214.73:2181,10.101.214.74:2181/kafka

4. 在 zookeeper中创建Kafka节点

zookeeper的安装过程在 storm集群搭建 http://blog.csdn.net/ch717828/article/details/50718783 中有介绍,不了解的可以了解下。

//手动在zookeeper中创建路径/kafka
cd /home/admin/zookeeper-3.4.3/
bin/zkCli.sh
//在zookeeper执行如下命令
create /kafka ‘’

5. 启动 

//3台机器上分别启动kafka

cd /usr/local/kafka
bin/kafka-server-start.sh /usr/local/kafka/config/server.properties &
//通过jps查看kafka是否正常启动
jps
//创建一个名称为my-replicated-topic5的Topic,5个分区,并且复制因子为3
bin/kafka-topics.sh --create --zookeeper 10.101.214.71:2181,10.101.214.73:2181,10.101.214.74:2181/kafka --replication-factor 3 --partitions 5 --topic my-replicated-topic5
//查看创建的Topic
bin/kafka-topics.sh --describe --zookeeper 10.101.214.71:2181,10.101.214.73:2181,10.101.214.74:2181/kafka --topic my-replicated-topic5

5. 演示 发布消息、消费消息

//71 启动Producer ,并向我们上面创建的名称为my-replicated-topic5的Topic中生产消息,
/usr/local/kafka_2.11-0.9.0.0/bin/kafka-console-producer.sh --broker-list 10.101.214.71:9092,10.101.214.73:9092,10.101.214.74:9092 --topic my-replicated-topic5
//73 启动Consumer ,并订阅我们上面创建的名称为my-replicated-topic5的Topic中生产的消息
/usr/local/kafka_2.11-0.9.0.0/bin/kafka-console-consumer.sh --zookeeper 10.101.214.71:2181,10.101.214.73:2181,10.101.214.74:2181/kafka --from-beginning --topic my-replicated-topic5
//可以在Producer终端上输入字符串消息行,然后回车,就可以在Consumer终端上看到消费者消费的消息内容。


6. kafka基础知识介绍

6.1  什么是kafka ?  

Kafka is a distributed,partitioned,replicated commit logservice。它提供了类似于JMS的特性,但是在设计实现上完全不同,此外它并不是JMS规范的实现。kafka对消息保存是根据Topic进行归类,发送消息者成为Producer,消息接受者成为Consumer,此外kafka集群有多个kafka实例组成,每个实例(server)成为broker。无论是kafka集群,还是producer和consumer都依赖于zookeeper来保证系统可用性集群保存一些meta信息。



6.2 kafka中的 topic

一个Topic可以认为是一类消息,每个topic将被分成多个partition(区),每个partition在存储层面是append log文件。任何发布到此partition的消息都会被直接追加到log文件的尾部,每条消息在文件中的位置称为offset(偏移量),offset为一个long型数字,它是唯一标记一条消息。它唯一的标记一条消息。kafka并没有提供其他额外的索引机制来存储offset,因为在kafka中几乎不允许对消息进行“随机读写”。



kafka和JMS(Java Message Service)实现(activeMQ)不同的是:即使消息被消费,消息仍然不会被立即删除.日志文件将会根据broker中的配置要求,保留一定的时间之后删除;比如log文件保留2天,那么两天后,文件会被清除,无论其中的消息是否被消费.kafka通过这种简单的手段,来释放磁盘空间,以及减少消息消费之后对文件内容改动的磁盘IO开支.

对于consumer而言,它需要保存消费消息的offset,对于offset的保存和使用,有consumer来控制;当consumer正常消费消息时,offset将会"线性"的向前驱动,即消息将依次顺序被消费.事实上consumer可以使用任意顺序消费消息,它只需要将offset重置为任意值..(offset将会保存在zookeeper中,参见下文)

kafka集群几乎不需要维护任何consumer和producer状态信息,这些信息有zookeeper保存;因此producer和consumer的客户端实现非常轻量级,它们可以随意离开,而不会对集群造成额外的影响.

partitions的设计目的有多个.最根本原因是kafka基于文件存储.通过分区,可以将日志内容分散到多个server上,来避免文件尺寸达到单机磁盘的上限,每个partiton都会被当前server(kafka实例)保存;可以将一个topic切分多任意多个partitions,来消息保存/消费的效率.此外越多的partitions意味着可以容纳更多的consumer,有效提升并发消费的能力.(具体原理参见下文).



6.3 kafka的分布性

一个Topic的多个partitions,被分布在kafka集群中的多个server上;每个server(kafka实例)负责partitions中消息的读写操作;此外kafka还可以配置partitions需要备份的个数(replicas),每个partition将会被备份到多台机器上,以提高可用性.

基于replicated方案,那么就意味着需要对多个备份进行调度;每个partition都有一个server为"leader";leader负责所有的读写操作,如果leader失效,那么将会有其他follower来接管(成为新的leader);follower只是单调的和leader跟进,同步消息即可..由此可见作为leader的server承载了全部的请求压力,因此从集群的整体考虑,有多少个partitions就意味着有多少个"leader",kafka会将"leader"均衡的分散在每个实例上,来确保整体的性能稳定.

Producers
Producer将消息发布到指定的Topic中,同时Producer也能决定将此消息归属于哪个partition;比如基于"round-robin"方式或者通过其他的一些算法等.

Consumers
本质上kafka只支持Topic.每个consumer属于一个consumer group;反过来说,每个group中可以有多个consumer.发送到Topic的消息,只会被订阅此Topic的每个group中的一个consumer消费.

如果所有的consumer都具有相同的group,这种情况和queue模式很像;消息将会在consumers之间负载均衡.
如果所有的consumer都具有不同的group,那这就是"发布-订阅";消息将会广播给所有的消费者.
在kafka中,一个partition中的消息只会被group中的一个consumer消费;每个group中consumer消息消费互相独立;我们可以认为一个group是一个"订阅"者。

kafka的设计原理决定,对于一个topic,同一个group中不能有多于partitions个数的consumer同时消费,否则将意味着某些consumer将无法得到消息.

Guarantees
1) 发送到partitions中的消息将会按照它接收的顺序追加到日志中
2) 对于消费者而言,它们消费消息的顺序和日志中消息顺序一致.
3) 如果Topic的"replicationfactor"为N,那么允许N-1个kafka实例失效.





下一篇会介绍storm+kafka的集成。使用 kafka发布消息, storm来消费消息。






声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号