当前位置:   article > 正文

一文掌握 Redis 线程模型

redis 多线程模型图

作者:vivo互联网服务器团队-Wang Shaodong

一、概述

众所周知,Redis是一个高性能的数据存储框架,在高并发的系统设计中,Redis也是一个比较关键的组件,是我们提升系统性能的一大利器。深入去理解Redis高性能的原理显得越发重要,当然Redis的高性能设计是一个系统性的工程,涉及到很多内容,本文重点关注Redis的IO模型,以及基于IO模型的线程模型。

我们从IO的起源开始,讲述了阻塞IO、非阻塞IO、多路复用IO。基于多路复用IO,我们也梳理了几种不同的Reactor模型,并分析了几种Reactor模型的优缺点。基于Reactor模型我们开始了Redis的IO模型和线程模型的分析,并总结出Redis线程模型的优点、缺点,以及后续的Redis多线程模型方案。本文的重点是对Redis线程模型设计思想的梳理,捋顺了设计思想,就是一通百通的事了。

注:本文的代码都是伪代码,主要是为了示意,不可用于生产环境。

二、网络IO模型发展史

我们常说的网络IO模型,主要包含阻塞IO、非阻塞IO、多路复用IO、信号驱动IO、异步IO,本文重点关注跟Redis相关的内容,所以我们重点分析阻塞IO、非阻塞IO、多路复用IO,帮助大家后续更好的理解Redis网络模型。

我们先看下面这张图;

49866ca8c7bd283043a169f6fb8a30f2.png

2.1 阻塞IO

我们经常说的阻塞IO其实分为两种,一种是单线程阻塞,一种是多线程阻塞。这里面其实有两个概念,阻塞和线程。

  • 阻塞:指调用结果返回之前,当前线程会被挂起,调用线程只有在得到结果之后才会返回;

  • 线程:系统调用的线程个数。

像建立连接、读、写都涉及到系统调用,本身是一个阻塞的操作。

2.1.1 单线程阻塞

服务端单线程来处理,当客户端请求来临时,服务端用主线程来处理连接、读取、写入等操作。

以下用代码模拟了单线程的阻塞模式;

  1. import java.net.Socket;
  2. public class BioTest {
  3. public static void main(String[] args) throws IOException {
  4. ServerSocket server=new ServerSocket(8081);
  5. while(true) {
  6. Socket socket=server.accept();
  7. System.out.println("accept port:"+socket.getPort());
  8. BufferedReader in=new BufferedReader(new InputStreamReader(socket.getInputStream()));
  9. String inData=null;
  10. try {
  11. while ((inData = in.readLine()) != null) {
  12. System.out.println("client port:"+socket.getPort());
  13. System.out.println("input data:"+inData);
  14. if("close".equals(inData)) {
  15. socket.close();
  16. }
  17. }
  18. } catch (IOException e) {
  19. e.printStackTrace();
  20. } finally {
  21. try {
  22. socket.close();
  23. } catch (IOException e) {
  24. e.printStackTrace();
  25. }
  26. }
  27. }
  28. }
  29. }

我们准备用两个客户端同时发起连接请求、来模拟单线程阻塞模式的现象。同时发起连接,通过服务端日志,我们发现此时服务端只接受了其中一个连接,主线程被阻塞在上一个连接的read方法上。

020003e08e094b324ae39da74459acb2.png

a12a8d9051ca6b3425d876dc1ba781b9.png

我们尝试关闭第一个连接,看第二个连接的情况,我们希望看到的现象是,主线程返回,新的客户端连接被接受。

33cd2e0c5175c1c81e7f45abd7fc8ff2.png

从日志中发现,在第一个连接被关闭后,第二个连接的请求被处理了,也就是说第二个连接请求在排队,直到主线程被唤醒,才能接收下一个请求,符合我们的预期。

此时不仅要问,为什么呢?

主要原因在于accept、read、write三个函数都是阻塞的,主线程在系统调用的时候,线程是被阻塞的,其他客户端的连接无法被响应。

通过以上流程,我们很容易发现这个过程的缺陷,服务器每次只能处理一个连接请求,CPU没有得到充分利用,性能比较低。如何充分利用CPU的多核特性呢?自然而然的想到了——多线程逻辑。

2.1.2 多线程阻塞

对工程师而言,代码解释一切,直接上代码。

BIO多线程

  1. package net.io.bio;
  2. import java.io.BufferedReader;
  3. import java.io.IOException;
  4. import java.io.InputStreamReader;
  5. import java.net.ServerSocket;
  6. import java.net.Socket;
  7. public class BioTest {
  8. public static void main(String[] args) throws IOException {
  9. final ServerSocket server=new ServerSocket(8081);
  10. while(true) {
  11. new Thread(new Runnable() {
  12. public void run() {
  13. Socket socket=null;
  14. try {
  15. socket = server.accept();
  16. System.out.println("accept port:"+socket.getPort());
  17. BufferedReader in=new BufferedReader(new InputStreamReader(socket.getInputStream()));
  18. String inData=null;
  19. while ((inData = in.readLine()) != null) {
  20. System.out.println("client port:"+socket.getPort());
  21. System.out.println("input data:"+inData);
  22. if("close".equals(inData)) {
  23. socket.close();
  24. }
  25. }
  26. } catch (IOException e) {
  27. e.printStackTrace();
  28. } finally {
  29. }
  30. }
  31. }).start();
  32. }
  33. }
  34. }

同样,我们并行发起两个请求;

4813f8a813050bdabee6ffac3019bb31.png

两个请求,都被接受,服务端新增两个线程来处理客户端的连接和后续请求。

985ce6502d5d33b9aac61a07822e8d4f.png

507e0718872917f9b15d2f2a185c37de.png

我们用多线程解决了,服务器同时只能处理一个请求的问题,但同时又带来了一个问题,如果客户端连接比较多时,服务端会创建大量的线程来处理请求,但线程本身是比较耗资源的,创建、上下文切换都比较耗资源,又如何去解决呢?

2.2 非阻塞

如果我们把所有的Socket(文件句柄,后续用Socket来代替fd的概念,尽量减少概念,减轻阅读负担)都放到队列里,只用一个线程来轮训所有的Socket的状态,如果准备好了就把它拿出来,是不是就减少了服务端的线程数呢?

一起看下代码,单纯非阻塞模式,我们基本上不用,为了演示逻辑,我们模拟了相关代码如下;

  1. package net.io.bio;
  2. import java.io.BufferedReader;
  3. import java.io.IOException;
  4. import java.io.InputStreamReader;
  5. import java.net.ServerSocket;
  6. import java.net.Socket;
  7. import java.net.SocketTimeoutException;
  8. import java.util.ArrayList;
  9. import java.util.List;
  10. import org.apache.commons.collections4.CollectionUtils;
  11. public class NioTest {
  12. public static void main(String[] args) throws IOException {
  13. final ServerSocket server=new ServerSocket(8082);
  14. server.setSoTimeout(1000);
  15. List<Socket> sockets=new ArrayList<Socket>();
  16. while (true) {
  17. Socket socket = null;
  18. try {
  19. socket = server.accept();
  20. socket.setSoTimeout(500);
  21. sockets.add(socket);
  22. System.out.println("accept client port:"+socket.getPort());
  23. } catch (SocketTimeoutException e) {
  24. System.out.println("accept timeout");
  25. }
  26. //模拟非阻塞:轮询已连接的socket,每个socket等待10MS,有数据就处理,无数据就返回,继续轮询
  27. if(CollectionUtils.isNotEmpty(sockets)) {
  28. for(Socket socketTemp:sockets ) {
  29. try {
  30. BufferedReader in=new BufferedReader(new InputStreamReader(socketTemp.getInputStream()));
  31. String inData=null;
  32. while ((inData = in.readLine()) != null) {
  33. System.out.println("input data client port:"+socketTemp.getPort());
  34. System.out.println("input data client port:"+socketTemp.getPort() +"data:"+inData);
  35. if("close".equals(inData)) {
  36. socketTemp.close();
  37. }
  38. }
  39. } catch (SocketTimeoutException e) {
  40. System.out.println("input client loop"+socketTemp.getPort());
  41. }
  42. }
  43. }
  44. }
  45. }
  46. }

系统初始化,等待连接;

e68d90f200f2ad17cf2d9c9745b827e4.png

发起两个客户端连接,线程开始轮询两个连接中是否有数据。

180971d1cbc269d97723684d69b8364e.png

两个连接分别输入数据后,轮询线程发现有数据准备好了,开始相关的逻辑处理(单线程、多线程都可)。

af626645d6a0024c125af46399944cd9.png

再用一张流程图辅助解释下(系统实际采用文件句柄,此时用Socket来代替,方便大家理解)。

fa76575f15fe373c205913c08a6dfdb0.png

服务端专门有一个线程来负责轮询所有的Socket,来确认操作系统是否完成了相关事件,如果有则返回处理,如果无继续轮询,大家一起来思考下?此时又带来了什么问题呢。

CPU的空转、系统调用(每次轮询到涉及到一次系统调用,通过内核命令来确认数据是否准备好),造成资源的浪费,那有没有一种机制,来解决这个问题呢?

2.3 IO多路复用

服务端没有专门的线程来做轮询操作(应用程序端非内核),而是由事件来触发,当有相关读、写、连接事件到来时,主动唤起服务端线程来进行相关逻辑处理。模拟了相关代码如下;

IO多路复用

  1. import java.net.InetSocketAddress;
  2. import java.nio.ByteBuffer;
  3. import java.nio.channels.SelectionKey;
  4. import java.nio.channels.Selector;
  5. import java.nio.channels.ServerSocketChannel;
  6. import java.nio.channels.SocketChannel;
  7. import java.nio.charset.Charset;
  8. import java.util.Iterator;
  9. import java.util.Set;
  10. public class NioServer {
  11. private static Charset charset = Charset.forName("UTF-8");
  12. public static void main(String[] args) {
  13. try {
  14. Selector selector = Selector.open();
  15. ServerSocketChannel chanel = ServerSocketChannel.open();
  16. chanel.bind(new InetSocketAddress(8083));
  17. chanel.configureBlocking(false);
  18. chanel.register(selector, SelectionKey.OP_ACCEPT);
  19. while (true){
  20. int select = selector.select();
  21. if(select == 0){
  22. System.out.println("select loop");
  23. continue;
  24. }
  25. System.out.println("os data ok");
  26. Set<SelectionKey> selectionKeys = selector.selectedKeys();
  27. Iterator<SelectionKey> iterator = selectionKeys.iterator();
  28. while (iterator.hasNext()){
  29. SelectionKey selectionKey = iterator.next();
  30. if(selectionKey.isAcceptable()){
  31. ServerSocketChannel server = (ServerSocketChannel)selectionKey.channel();
  32. SocketChannel client = server.accept();
  33. client.configureBlocking(false);
  34. client.register(selector, SelectionKey.OP_READ);
  35. //继续可以接收连接事件
  36. selectionKey.interestOps(SelectionKey.OP_ACCEPT);
  37. }else if(selectionKey.isReadable()){
  38. //得到SocketChannel
  39. SocketChannel client = (SocketChannel)selectionKey.channel();
  40. //定义缓冲区
  41. ByteBuffer buffer = ByteBuffer.allocate(1024);
  42. StringBuilder content = new StringBuilder();
  43. while (client.read(buffer) > 0){
  44. buffer.flip();
  45. content.append(charset.decode(buffer));
  46. }
  47. System.out.println("client port:"+client.getRemoteAddress().toString()+",input data: "+content.toString());
  48. //清空缓冲区
  49. buffer.clear();
  50. }
  51. iterator.remove();
  52. }
  53. }
  54. } catch (Exception e) {
  55. e.printStackTrace();
  56. }
  57. }
  58. }

同时创建两个连接;

b8e3f2765427ef2555c04b12bc9cf4b3.png

两个连接无阻塞的被创建;

ffdd93146516428dc697d365046b1206.png

无阻塞的接收读写;

a39ad6ef1c7a0e88421e1314748713c1.png

再用一张流程图辅助解释下(系统实际采用文件句柄,此时用Socket来代替,方便大家理解)。

a8f3749b59f9006a7ea50eaaaa3fa687.png

当然操作系统的多路复用有好几种实现方式,我们经常使用的select(),epoll模式这里不做过多的解释,有兴趣的可以查看相关文档,IO的发展后面还有异步、事件等模式,我们在这里不过多的赘述,我们更多的是为了解释Redis线程模式的发展。

三、NIO线程模型解释

我们一起来聊了阻塞、非阻塞、IO多路复用模式,那Redis采用的是哪种呢?

Redis采用的是IO多路复用模式,所以我们重点来了解下多路复用这种模式,如何在更好的落地到我们系统中,不可避免的我们要聊下Reactor模式。

首先我们做下相关的名词解释;

  • Reactor:类似NIO编程中的Selector,负责I/O事件的派发;

  • Acceptor:NIO中接收到事件后,处理连接的那个分支逻辑;

  • Handler:消息读写处理等操作类。

3.1 单Reactor单线程模型

46c8c88e85eddc24f90bfb167261bb3b.png

处理流程

  • Reactor监听连接事件、Socket事件,当有连接事件过来时交给Acceptor处理,当有Socket事件过来时交个对应的Handler处理。

优点

  • 模型比较简单,所有的处理过程都在一个连接里;

  • 实现上比较容易,模块功能也比较解耦,Reactor负责多路复用和事件分发处理,Acceptor负责连接事件处理,Handler负责Scoket读写事件处理。

缺点

  • 只有一个线程,连接处理和业务处理共用一个线程,无法充分利用CPU多核的优势。

  • 在流量不是特别大、业务处理比较快的时候系统可以有很好的表现,当流量比较大、读写事件比较耗时情况下,容易导致系统出现性能瓶颈。

怎么去解决上述问题呢?既然业务处理逻辑可能会影响系统瓶颈,那我们是不是可以把业务处理逻辑单拎出来,交给线程池来处理,一方面减小对主线程的影响,另一方面利用CPU多核的优势。这一点希望大家要理解透彻,方便我们后续理解Redis由单线程模型到多线程模型的设计的思路。

3.2 单Reactor多线程模型

e17944c339bf251ee925e70dd50f7713.png

这种模型相对单Reactor单线程模型,只是将业务逻辑的处理逻辑交给了一个线程池来处理。

处理流程

  • Reactor监听连接事件、Socket事件,当有连接事件过来时交给Acceptor处理,当有Socket事件过来时交个对应的Handler处理。

  • Handler完成读事件后,包装成一个任务对象,交给线程池来处理,把业务处理逻辑交给其他线程来处理。

优点

  • 让主线程专注于通用事件的处理(连接、读、写),从设计上进一步解耦;

  • 利用CPU多核的优势。

缺点

  • 貌似这种模型已经很完美了,我们再思考下,如果客户端很多、流量特别大的时候,通用事件的处理(读、写)也可能会成为主线程的瓶颈,因为每次读、写操作都涉及系统调用。

有没有什么好的办法来解决上述问题呢?通过以上的分析,大家有没有发现一个现象,当某一个点成为系统瓶颈点时,想办法把他拿出来,交个其他线程来处理,那这种场景是否适用呢?

3.3 多Reactor多线程模型

41af884cec1a503eeee033ec1790e0c1.png

这种模型相对单Reactor多线程模型,只是将Scoket的读写处理从mainReactor中拎出来,交给subReactor线程来处理。

处理流程

  • mainReactor主线程负责连接事件的监听和处理,当Acceptor处理完连接过程后,主线程将连接分配给subReactor;

  • subReactor负责mainReactor分配过来的Socket的监听和处理,当有Socket事件过来时交个对应的Handler处理;

  • Handler完成读事件后,包装成一个任务对象,交给线程池来处理,把业务处理逻辑交给其他线程来处理。

优点

  • 让主线程专注于连接事件的处理,子线程专注于读写事件吹,从设计上进一步解耦;

  • 利用CPU多核的优势。

缺点

  • 实现上会比较复杂,在极度追求单机性能的场景中可以考虑使用。

四、Redis的线程模型

4.1 概述

以上我们聊了,IO网路模型的发展历史,也聊了IO多路复用的reactor模式。那Redis采用的是哪种reactor模式呢?在回答这个问题前,我们先梳理几个概念性的问题。

Redis服务器中有两类事件,文件事件和时间事件。

  • 文件事件:在这里可以把文件理解为Socket相关的事件,比如连接、读、写等;

  • 时间时间:可以理解为定时任务事件,比如一些定期的RDB持久化操作。

本文重点聊下Socket相关的事件。

4.2 模型图

首先我们来看下Redis服务的线程模型图;

a82d14a2ad45c50ee283f8417991a856.png

IO多路复用负责各事件的监听(连接、读、写等),当有事件发生时,将对应事件放入队列中,由事件分发器根据事件类型来进行分发;

如果是连接事件,则分发至连接应答处理器;GET、SET等redis命令分发至命令请求处理器。

命令处理完后产生命令回复事件,再由事件队列,到事件分发器,到命令回复处理器,回复客户端响应。

4.3 一次客户端和服务端的交互流程

4.3.1 连接流程

2dcb6666ebd459731f930253d895315d.png

连接过程

  • Redis服务端主线程监听固定端口,并将连接事件绑定连接应答处理器。

  • 客户端发起连接后,连接事件被触发,IO多路复用程序将连接事件包装好后丢人事件队列,然后由事件分发处理器分发给连接应答处理器。

  • 连接应答处理器创建client对象以及Socket对象,我们这里关注Socket对象,并产生ae_readable事件,和命令处理器关联,标识后续该Socket对可读事件感兴趣,也就是开始接收客户端的命令操作。

  • 当前过程都是由一个主线程负责处理。

4.3.2 命令执行流程

eabca9de70ba45b27d5edaafc09c7d23.png

SET命令执行过程

  • 客户端发起SET命令,IO多路复用程序监听到该事件后(读事件),将数据包装成事件丢到事件队列中(事件在上个流程中绑定了命令请求处理器);

  • 事件分发处理器根据事件类型,将事件分发给对应的命令请求处理器;

  • 命令请求处理器,读取Socket中的数据,执行命令,然后产生ae_writable事件,并绑定命令回复处理器;

  • IO多路复用程序监听到写事件后,将数据包装成事件丢到事件队列中,事件分发处理器根据事件类型分发至命令回复处理器;

  • 命令回复处理器,将数据写入Socket中返回给客户端。

4.4 模型优缺点

以上流程分析我们可以看出Redis采用的是单线程Reactor模型,我们也分析了这种模式的优缺点,那Redis为什么还要采用这种模式呢?

Redis本身的特性

  • 命令执行基于内存操作,业务处理逻辑比较快,所以命令处理这一块单线程来做也能维持一个很高的性能。

优点

  • Reactor单线程模型的优点,参考上文。

缺点

  • Reactor单线程模型的缺点也同样在Redis中来体现,唯一不同的地方就在于业务逻辑处理(命令执行)这块不是系统瓶颈点。

  • 随着流量的上涨,IO操作的的耗时会越来越明显(read操作,内核中读数据到应用程序。write操作,应用程序中的数据到内核),当达到一定阀值时系统的瓶颈就体现出来了。

Redis又是如何去解的呢?

哈哈~将耗时的点从主线程拎出来呗?那Redis的新版本是这么做的吗?我们一起来看下。

4.5 Redis多线程模式

96433a49dfdbad04805126b221b0eb42.png

Redis的多线程模型跟”多Reactor多线程模型“、“单Reactor多线程模型有点区别”,但同时用了两种Reactor模型的思想,具体如下;

  • Redis的多线程模型是将IO操作多线程化,本身逻辑处理过程(命令执行过程)依旧是单线程,借助了单Reactor思想,实现上又有所区分。

  • 将IO操作多线程化,又跟单Reactor衍生出多Reactor的思想一致,都是将IO操作从主线程中拎出来。

命令执行大致流程

  • 客户端发送请求命令,触发读就绪事件,服务端主线程将Socket(为了简化理解成本,统一用Socket来代表连接)放入一个队列,主线程不负责读;

  • IO 线程通过Socket读取客户端的请求命令,主线程忙轮询,等待所有 I/O 线程完成读取任务,IO线程只负责读不负责执行命令;

  • 主线程一次性执行所有命令,执行过程和单线程一样,然后需要返回的连接放入另外一个队列中,有IO线程来负责写出(主线程也会写);

  • 主线程忙轮询,等待所有 I/O 线程完成写出任务。

五、总结

了解一个组件,更多的是要去了解他的设计思路,要去思考为什么要这么设计,做这种技术选型的背景是啥,对后续做系统架构设计有什么参考意义等等。一通百通,希望对大家有参考意义。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/575170
推荐阅读
相关标签
  

闽ICP备14008679号