赞
踩
本文主要学习https://blog.csdn.net/cao1315020626/article/details/112590786?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522171886470616800197016195%2522%252C%2522scm%2522%253A%252220140713.130102334…%2522%257D&request_id=171886470616800197016195&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2alltop_positive~default-1-112590786-null-null.142v100pc_search_result_base3&utm_term=Kafka&spm=1018.2226.3001.4187
基于上文加上上文博主没讲到的地方和自己的一些理解
Kafka是一种消息队列,同样具有消息队列的好处
解耦合
耦合的状态表示当你实现某个功能的时候,是直接接入当前接口,而利用消息队列,可以将相应的消息发送到消息队列,这样的话,如果接口出了问题,将不会影响到当前的功能。
异步处理
异步处理替代了之前的同步处理,异步处理不需要让流程走完就返回结果,可以将消息发送到消息队列中,然后返回结果,剩下让其他业务处理接口从消息队列中拉取消费处理即可。
流量削峰
高流量的时候,使用消息队列作为中间件可以将流量的高峰保存在消息队列中,从而防止了系统的高请求,减轻服务器的请求处理压力。
主要有两种一对一和一对多,一般来说,都是用一对多模式(至少我目前没用过一对一)
一对一模式:
生产者将消息发送到生产队列,消费者进行消费,消费完毕后该消息删除,整个生产消费过程是非阻塞的,类似与我们go中有缓冲区的channel
一对多模式:
一个生产者对应多个消费者,生产者将消息生产到生产队列的Topic中,消费者订阅某一个或者多个Topic进行消费,消费后并不会删除消息,默认保存一段时间,具体消费方式设计到分区等,后面会说。
Producer:消息生产者,向Kafka中发布消息的角色。
Consumer:消息消费者,即从Kafka中拉取消息消费的客户端。
Consumer Group:消费者组,消费者组则是一组中存在多个消费者,消费者消费Broker中当前Topic的不同分区中的消息,消费者组之间互不影响,所有的消费者都属于某个消费者组,即消费者组是逻辑上的一个订阅者。某一个分区中的消息只能够一个消费者组中的一个消费者所消费
Broker:经纪人,一台Kafka服务器就是一个Broker,一个集群由多个Broker组成,一个Broker可以容纳多个Topic。
Topic:主题,可以理解为一个队列,生产者和消费者都是面向一个Topic
Partition:分区,为了实现扩展性,一个非常大的Topic可以分布到多个Broker上,一个Topic可以分为多个Partition,每个Partition是一个有序的队列(分区有序,不能保证全局有序),一个分区只能被同一个消费者组中的一个消费者消费,这确保了每条消息只能被消费者组中的一个消费者处理。不同消费者组中的消费者可以独立消费不同的分区,但一个分区只能被同一消费者组中的一个消费者消费。
Replica:副本Replication,为保证集群中某个节点发生故障,节点上的Partition数据不丢失,Kafka可以正常的工作,Kafka提供了副本机制,一个Topic的每个分区有若干个副本,一个Leader和多个Follower
Leader:每个分区多个副本的主角色,生产者发送数据的对象,以及消费者消费数据的对象都是Leader。
Follower:每个分区多个副本的从角色,实时的从Leader中同步数据,保持和Leader数据的同步,Leader发生故障的时候,某个Follower会成为新的Leader。
Offset:Kafka的分区中的每一个消息的位置都由offset来表示
Kafka中,Topic可以视为一个逻辑地址,实际上topic是分布到多个partition上的,partition通常有一个log文件,消息一般是直接新加到log文件的末端,消费者每次消费都会更新offset,以便清楚自己下次消费的位置,所以一个topic通常对应多个partition,然后一个partition通常对应一个log(有可能分裂)
Kafka中一般是一个topic对应多个partition,一个partition对应多个segment,一个segment对应两个文件,一个index,一个log,log就是用来存储我们的消息的,index是用于大量数据情况下快速定位的
.index文件存储的消息的offset+真实的起始偏移量。.log中存放的是真实的数据。
分区的原因
1.方便在集群中扩展:每个partition通过调整以适应它所在的机器,而一个Topic又可以有多个partition组成,因此整个集群可以适应适合的数据
2。可以提高并发:以Partition为单位进行读写。类似于多路。
分区的原则
1.指明partition(这里的指明是指第几个分区)的情况下,直接将指明的值作为partition的值
2.没有指明partition的情况下,但是存在值key,此时将key的hash值与topic的partition总数进行取余得到partition值
3.值与partition均无的情况下,第一次调用时随机生成一个整数,后面每次调用在这个整数上自增,将这个值与topic可用的partition总数取余得到partition值,即round-robin算法。
为了确保数据能落盘,producer发送消息后,需要收到相应leader的ack,收到后再进行下一轮发送
leader发送ack一般是有两种方式,一种是半数follower同步完成,还有一种是全部follower同步完成,Kafka采用的是第二种,主要是因为网络对Kafka影响较小,所以等一半还是等全部差距不大。
关于故障处理一般是通过维护一个isr,如果leader发现某一follower长时间未回应,则将其提出isr,如果leader掉线,则再isr中重新选举
ack 0 : producer不需要等到leader的ack直接进行下一轮发送,速度非常快,但存在数据丢失的风险
ack 1 : producer仅需要等待leader的ack,可能会出现follower未同步消息的情况
ack -1 : producer需要等到leader和follower的ack,可能会出现数据重复的情况
LEO : 每个副本的最后一个offset(即最后一个消息)
HW : 消费者能见到的最小的LEO,即isr中最小的LEO
leader故障 : 会从isr中重新选取一个leader,follower截掉HW以上的数据,开始和leader同步数据
follower故障 : 暂时踢出isr队列,恢复后戒掉HW以上的数据,开始和leader同步
consumer采用pull拉的方式来从broker中读取数据。
push推的模式很难适应消费速率不同的消费者,因为消息发送率是由broker决定的,它的目标是尽可能以最快的速度传递消息,但是这样容易造成consumer来不及处理消息,典型的表现就是拒绝服务以及网络拥塞。而pull方式则可以让consumer根据自己的消费处理能力以适当的速度消费消息。
一个consumer group中有多个consumer,一个topic有多个partition,所以必然会涉及到partition的分配问题,即确定那个partition由那个consumer消费的问题。
Kafka的两种分配策略:
round-robin循环
range
Round-Robin
主要采用轮询的方式分配所有的分区,该策略主要实现的步骤:
假设存在三个topic:t0/t1/t2,分别拥有1/2/3个分区,共有6个分区,分别为t0-0/t1-0/t1-1/t2-0/t2-1/t2-2,这里假设我们有三个Consumer,C0、C1、C2,订阅情况为C0:t0,C1:t0、t1,C2:t0/t1/t2。
此时round-robin采取的分配方式,则是按照分区的字典对分区和消费者进行排序,然后对分区进行循环遍历,遇到自己订阅的则消费,否则向下轮询下一个消费者。即按照分区轮询消费者,继而消息被消费。
分区在循环遍历消费者,自己被当前消费者订阅,则消息与消费者共同向下(消息被消费),否则消费者向下消息继续遍历(消息没有被消费)。轮询的方式会导致每个Consumer所承载的分区数量不一致,从而导致各个Consumer压力不均。上面的C2因为订阅的比较多,导致承受的压力也相对较大。
Range
Range的重分配策略,首先计算各个Consumer将会承载的分区数量,然后将指定数量的分区分配给该Consumer。假设存在两个Consumer,C0和C1,两个Topic,t0和t1,这两个Topic分别都有三个分区,那么总共的分区有6个,t0-0,t0-1,t0-2,t1-0,t1-1,t1-2。分配方式如下:
range按照topic一次进行分配,即消费者遍历topic,t0,含有三个分区,同时有两个订阅了该topic的消费者,将这些分区和消费者按照字典序排列。
按照平均分配的方式计算每个Consumer会得到多少个分区,如果没有除尽,多出来的分区则按照字典序挨个分配给消费者。按照此方式以此分配每一个topic给订阅的消费者,最后完成topic分区的分配。
按照range的方式进行分配,本质上是以此遍历每个topic,然后将这些topic按照其订阅的consumer数进行平均分配,多出来的则按照consumer的字典序挨个分配,这种方式会导致在前面的consumer得到更多的分区,导致各个consumer的压力不均衡。
由于Consumer在消费过程中可能会出现断电宕机等故障,Consumer恢复以后,需要从故障前的位置继续消费,所以Consumer需要实时记录自己消费到了那个offset,以便故障恢复后继续消费。
Kafka使用磁盘顺序读写来提升性能
顺序读写和随机读写性能对比:
顺序读随机读顺序写随机写机械硬盘84.0MB/s0.033MB/s (512字节)79.0MB/s0.083MB/s (512字节)固态硬盘220.7MB/s5.296MB/s(512字节)77.2MB/s10.203MB/s(512字节)
从数据可以看出磁盘的顺序读写速度远高于随机读写的速度,这是因为传统的磁头探针结构,随机读写时需要频繁寻道,也就需要磁头和探针频繁的转动,而机械结构的磁头和探针的位置调整是十分费时的,这就严重影响到硬盘的寻址速度,进而影响到随机写入速度。
Kafka的message是不断追加到本地磁盘文件末尾的,而不是随机的写入,这使得Kafka写入吞吐量得到了显著提升 。每一个Partition其实都是一个文件 ,收到消息后Kafka会把数据插入到文件末尾。
2.页缓存(pageCache)
PageCache是系统级别的缓存,它把尽可能多的空闲内存当作磁盘缓存使用来进一步提高IO效率;
PageCache同时可以避免在JVM内部缓存数据,避免不必要的GC、以及内存空间占用。对于In-Process Cache,如果Kafka重启,它会失效,而操作系统管理的PageCache依然可以继续使用。
producer把消息发到broker后,数据并不是直接落入磁盘的,而是先进入PageCache。PageCache中的数据会被内核中的处理线程采用同步或异步的方式定期刷盘至磁盘。
Consumer消费消息时,会先从PageCache获取消息,获取不到才回去磁盘读取,并且会预读出一些相邻的块放入PageCache,以方便下一次读取。
如果Kafka producer的生产速率与consumer的消费速率相差不大,那么几乎只靠对broker PageCache的读写就能完成整个生产和消费过程,磁盘访问非常少
3.零拷贝
正常过程:
操作系统将数据从磁盘上读入到内核空间的读缓冲区中
应用程序(也就是Kafka)从内核空间的读缓冲区将数据拷贝到用户空间的缓冲区中
应用程序将数据从用户空间的缓冲区再写回到内核空间的socket缓冲区中
操作系统将socket缓冲区中的数据拷贝到NIC缓冲区中,然后通过网络发送给客户端
在这个过程中,可以发现, 数据从磁盘到最终发出去,要经历4次拷贝,而在这四次拷贝过程中, 有两次拷贝是浪费的。
1.从内核空间拷贝到用户空间;
2.从用户空间再次拷贝到内核空间;
除此之外,由于用户空间和内核空间的切换,会带来Cpu上下文切换,对于Cpu的性能也会造成影响;
零拷贝省略了数据在内核空间和用户空间之间的重复穿梭;用户态和内核态切换时产生中断,耗时;
4.分区分段索引
Kafka的message是按topic分类存储的,topic中的数据又是按照一个一个的partition即分区存储到不同broker节点。每个partition对应了操作系统上的一个文件夹,partition实际上又是按照segment分段存储的。符合分布式系统分区分桶的设计思想。
通过这种分区分段的设计,Kafka的message消息实际上是分布式存储在一个一个小的segment中的,每次文件操作也是直接操作的segment。为了进一步的查询优化,Kafka又默认为分段后的数据文件建立了索引文件,就是文件系统上的.index文件。这种分区分段+索引的设计,不仅提升了数据读取的效率,同时也提高了数据操作的并行度。
5.批量处理
kafka发送消息不是一条一条发送的,而是批量发送,很大的提高了发送消息的吞吐量。
假设发送一条消息的时间是1ms,而此时的吞吐量就是1000TPS。但是假如我们将消息批量发送,1000条消息需要10ms,而此时的吞吐量就达到了1000*100TPS。而且这样也很大程度的减少了请求Broker的次数,提升了总体的效率。
为了按跨分区跨会话的事务,需要引入一个全局唯一的Transaction ID(TID),消费者的PID会和TID绑定
还会有一个TC,将每一个事务信息写入一个Topic中,这样即使消费者断电,也可以继续从上次消费的地方继续消费
暂时无法保证
下面代码主要学习www.liwenzhou.com
go get github.com/segmentio/kafka-go
首先安装依赖
发送消息
// writeByConn 基于Conn发送消息 func writeByConn() { topic := "my-topic" partition := 0 // 连接至Kafka集群的Leader节点 conn, err := kafka.DialLeader(context.Background(), "tcp", "localhost:9092", topic, partition) if err != nil { log.Fatal("failed to dial leader:", err) } // 设置发送消息的超时时间 conn.SetWriteDeadline(time.Now().Add(10 * time.Second)) // 发送消息 _, err = conn.WriteMessages( kafka.Message{Value: []byte("one!")}, kafka.Message{Value: []byte("two!")}, kafka.Message{Value: []byte("three!")}, ) if err != nil { log.Fatal("failed to write messages:", err) } // 关闭连接 if err := conn.Close(); err != nil { log.Fatal("failed to close writer:", err) } }
消费消息
// readByConn 连接至kafka后接收消息 func readByConn() { // 指定要连接的topic和partition topic := "my-topic" partition := 0 // 连接至Kafka的leader节点 conn, err := kafka.DialLeader(context.Background(), "tcp", "localhost:9092", topic, partition) if err != nil { log.Fatal("failed to dial leader:", err) } // 设置读取超时时间 conn.SetReadDeadline(time.Now().Add(10 * time.Second)) // 读取一批消息,得到的batch是一系列消息的迭代器 batch := conn.ReadBatch(10e3, 1e6) // fetch 10KB min, 1MB max // 遍历读取消息 b := make([]byte, 10e3) // 10KB max per message for { n, err := batch.Read(b) if err != nil { break } fmt.Println(string(b[:n])) } // 关闭batch if err := batch.Close(); err != nil { log.Fatal("failed to close batch:", err) } // 关闭连接 if err := conn.Close(); err != nil { log.Fatal("failed to close connection:", err) } }
创建Topic
// createTopicByConn 创建topic func createTopicByConn() { // 指定要创建的topic名称 topic := "my-topic" // 连接至任意kafka节点 conn, err := kafka.Dial("tcp", "localhost:9092") if err != nil { panic(err.Error()) } defer conn.Close() // 获取当前控制节点信息 controller, err := conn.Controller() if err != nil { panic(err.Error()) } var controllerConn *kafka.Conn // 连接至leader节点 controllerConn, err = kafka.Dial("tcp", net.JoinHostPort(controller.Host, strconv.Itoa(controller.Port))) if err != nil { panic(err.Error()) } defer controllerConn.Close() topicConfigs := []kafka.TopicConfig{ { Topic: topic, NumPartitions: 1, ReplicationFactor: 1, }, } // 创建topic err = controllerConn.CreateTopics(topicConfigs...) if err != nil { panic(err.Error()) } }
获取Topic列表
conn, err := kafka.Dial("tcp", "localhost:9092") if err != nil { panic(err.Error()) } defer conn.Close() partitions, err := conn.ReadPartitions() if err != nil { panic(err.Error()) } m := map[string]struct{}{} // 遍历所有分区取topic for _, p := range partitions { m[p.Topic] = struct{}{} } for k := range m { fmt.Println(k) }
在Redis中使用SET命令来尝试获取锁,在设置过程中可以添加过期时间以防止死锁。
使用SET命令的NX(只在键不存在时设置)选项,确保只有一个客户端能够成功设置锁。
释放锁时,使用DEL命令删除锁。
当一个客户端成功获取锁时,向一个专门的Kafka主题发送消息,表示锁已经被获取。
其他客户端订阅该主题以获取锁状态。
当客户端成功获取锁后,在Redis中设置锁,并通过Kafka发送获取锁的消息。
其他客户端在收到获取锁的消息后,尝试获取锁时首先检查Redis中的锁状态。
代码示例
package main import ( "fmt" "github.com/Shopify/sarama" "github.com/go-redis/redis" "log" "time" ) var ( redisClient *redis.Client kafkaBrokers = []string{"localhost:9092"} ) func init() { redisClient = redis.NewClient(&redis.Options{ Addr: "localhost:6379", Password: "", DB: 0, }) } func acquireLock(lockKey string) bool { result, err := redisClient.SetNX(lockKey, "locked", 10*time.Second).Result() if err != nil { log.Fatal(err) } return result } func releaseLock(lockKey string) { err := redisClient.Del(lockKey).Err() if err != nil { log.Fatal(err) } } func main() { config := sarama.NewConfig() config.Producer.RequiredAcks = sarama.WaitForLocal config.Producer.Return.Successes = true producer, err := sarama.NewSyncProducer(kafkaBrokers, config) if err != nil { log.Fatal(err) } defer func() { if err := producer.Close(); err != nil { log.Fatal(err) } }() lockKey := "my_lock_key" if acquireLock(lockKey) { defer releaseLock(lockKey) // 发送获取锁消息到Kafka message := &sarama.ProducerMessage{ Topic: "lock_topic", Value: sarama.StringEncoder("Lock acquired for key: " + lockKey), } _, _, err := producer.SendMessage(message) if err != nil { log.Fatal(err) } // 处理业务逻辑 fmt.Println("Lock acquired. Performing critical section operations...") time.Sleep(5 * time.Second) fmt.Println("Critical section operations completed.") } else { fmt.Println("Failed to acquire lock. Another process may be holding the lock.") } }
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。