当前位置:   article > 正文

网络套接字-TCP服务器

网络套接字-TCP服务器

一 前言

        前面已经写过udp服务器的实现了,那里说了很多编写服务器的所需知识,在tcp服务器实现中就不再赘述了。

服务端编写

        大致接口如下。

  1. ./server + port端口号 启动时指明端口号
  2. void usage(const std::string proc)
  3. {
  4. std::cout<<"Usage "<<proc<<" port"<<std::endl;
  5. }
  6. int main(int argc,char*argv[]) 解析命令行参数,第二个就是端口号
  7. {
  8. if(argc != 2)
  9. {
  10. usage(argv[1]);
  11. std::cout<<"port error"<<strerror(errno)<<std::endl;
  12. exit(USAGE_ERR);
  13. }
  14. u_int16_t port = atoi(argv[1]);将字符串的端口号转为数字,后续传给服务端类。
  15. tcp->InitServer();
  16. tcp->start();
  17. return 0;
  18. }

        然后我们就去实现类了,首先服务端必定要有端口号,而且一个公司部署的服务端的端口号是分配好的。还有个成员是保存套接字的,这个后面具体实现再提。

  1. namespace server
  2. {
  3. class TcpServer
  4. {
  5. public:
  6. TcpServer()
  7. {
  8. ;
  9. }
  10. ~TcpServer()
  11. {
  12. ;
  13. }
  14. void InitServer()
  15. {
  16. }
  17. void start()
  18. {
  19. }
  20. private:
  21. int listensocket_;
  22. int port_;
  23. };
  24. };

1 创建套接字

        初始化,显然就是要打开网络文件,创建套接字,直接复制udp的实现。

  1. // 1 创建套接字
  2. listensocket_ = socket(AF_INET, SOCK_STREAM, 0);
  3. if (listensocket_ < 0)
  4. {
  5. std::cout << "socket err" << std::endl;
  6. exit(SOCKET_ERR);
  7. }
  8. std::cout << "socket success" << std::endl;

2  开始绑定

        注意:recv和sendto函数内部不会实现大小端转化,需要我们自己主机转网络序列。

  1. // 2 绑定端口号和ip地址
  2. struct sockaddr_in sock; // 头文件<netinet/in.h>
  3. bzero(&sock, sizeof(sock));
  4. sock.sin_addr.s_addr = INADDR_ANY; // 设置ip地址 表示所有的ip的地址
  5. sock.sin_port = htons(port_);
  6. sock.sin_family = AF_INET;
  7. if (bind(listensocket_, (sockaddr *)(&sock), sizeof(sock)) < 0)
  8. {
  9. std::cout << "bind error " << strerror(errno) << std::endl;
  10. exit(BIND_ERR);
  11. }
  12. std::cout << "bind success" << std::endl;

3 监听

        参数2后面提及协议再说。可以设个不大不小的整数。

        listensocket_是我们先前创建套接字返回的文件描述符,这个描述符被用来监听了,监听的是客户端的链接请求,因为请求也是通信,所以我们要先创建套接字,如果有链接请求从网络中来,os会把链接请求转成数据保存在监听套接字对应的文件中,上层就从这个文件中读取链接。

  1. // 3 开始监听
  2. if (listen(listensocket_, backlog)) // 返回0,监听成功
  3. {
  4. std::cout << "listen error " << strerror(errno) << std::endl;
  5. exit(LISTEN_ERR);
  6. }

4 启动服务器

        当有请求来了,我们当然要调用函数去处理,参数很熟悉,sockfd是我们先前用的listensockt_,因为请求都在这个文件内。

  1. void start()
  2. {
  3. while (true)
  4. {
  5. // 获取链接
  6. struct sockaddr_in sock; // 头文件<netinet/in.h>
  7. socklen_t len = sizeof(sock);
  8. int socket = accept(listensocket_, (sockaddr *)&sock, &len); // 不保存吗
  9. if (socket < 0)
  10. {
  11. // std::cout << "accept err" << std::endl;
  12. exit(SOCKET_ERR);
  13. }
  14. std::cout << "accept success" << std::endl;
  15. // 开始发消息,此时我们不能让主线程去发消息,不然就无法链接其它的客户端了
  16. std::string clientip = inet_ntoa(sock.sin_addr);
  17. u_int16_t clientport = ntohs(sock.sin_port);
  18. server(sock,clientip, clientport);
  19. }
  20. }
  21. void server(int sock, std::string ip, uint16_t port)
  22. {
  23. ;
  24. }

        此时收到请求后,我们也就获得了客户端的ip和端口,接下来就用ip和端口传给server函数实现通信。可是为什么accept又返回一个文件描述符,为什么要有两个套接字呢?在udp服务器中我们只创建了一个文件,意味着所有客户端发来的消息都在这个文件中,读取的时候其实很容易读取到a客户端的数据处理完发给了b客户端,那对于a客户端来说,数据就缺失了,所以udp的通信确实是不考虑完不完整的,所以tcp为了保证客户端数据的独立性,就每接收一次链接就创建一个文件,内部一定会把客户端的ip和端口号和这个文件绑定,这样下次客户端的数据来的时候就会根据ip和端口号判断放在哪个文件中了。

        接下来看看server函数内如何通信。直接调用read函数读,调用write函数写,奇怪,为什么先前udp服务器不可以用read,而是用recvfrom,也不是用write,而是用sendto,据我了解,read和write是面向字节流的,udp服务端我们打开文件的时候是指明面向数据报的,read用面向字节流读取面向数据报的文件会出问题。后面讲tcp,udp协议,了解了面向字节流和面向数据报就理解得更深刻了。

  1. void server(int sock, std::string ip, uint16_t port)
  2. {
  3. char buffer[1024] = {0};
  4. int n = read(sock, buffer, sizeof(buffer) - 1);
  5. if (n > 0)
  6. {
  7. buffer[n] = 0;
  8. // 写回给客户端
  9. write(sock, ret.c_str(), ret.size());
  10. }
  11. else if (n == 0)
  12. {
  13. close(sock);
  14. std::cout << name << " 断开连接" << std::endl;
  15. }
  16. else
  17. {
  18. close(sock);
  19. exit(READ_ERR);
  20. }
  21. }

   可是直接输出又有点单调,所以我们做了些修改。调用回调方法对数据做处理。

    

         func_就是func_t定义的变量,可以接收一个可调用对象,这个可调用对象的类型是string(string),也就是返回值是string,参数也是string。 

   

       数据处理方法由外部定义。如下就是完整的定义服务端对象和启动。

  1. std::string echo(std::string message)
  2. {
  3. return message;
  4. }
  5. int main(int argc,char*argv[])
  6. {
  7. if(argc != 2)
  8. {
  9. usage(argv[1]);
  10. std::cout<<"port error"<<strerror(errno)<<std::endl;
  11. exit(USAGE_ERR);
  12. }
  13. u_int16_t port = atoi(argv[1]);
  14. std::shared_ptr<TcpServer> tcp = std::make_shared<TcpServer>(echo,port);
  15. tcp->InitServer();
  16. tcp->start();
  17. return 0;
  18. }

相应构造函数也要修改。

三 客户端编写

        同样客户端不用自己bind。那要不要listen,accept呢? 我认为是不需要的,这两个函数的意义在于等待别人来链接,一般来说都是客户端主动连接服务端,很少有服务端来主动找客户端的,并且获取链接方便后面给对方发数据,前面还说了可以保证服务端收到来自客户端数据的独立和安全。

        而客户端本身不用担心多个服务端发来的数据混杂,虽然我们手机上有多个客户端,但是我们的客户端都是一个个进程,创建的套接字文件是独立的,服务端是因为会有多个客户端和它通信才要创建多个文件,我们这里是一个客户端对应一个服务端。所以通信步骤如下。

1 创建套接字

2 发起链接

        用的是下面这个connect函数,参数列表也是非常熟悉。

        直接开始准备初始化sock结构体。

        因为我们不能一链接失败就退出,要尝试重连几次,就像我们打游戏没网,也是会有尝试重连选项的。

  1. int main(int argc, char *argv[])  ip地址不能是任意的,必须知道服务端的ip地址和端口号
  2. {
  3. if (argc != 3)
  4. {
  5. usage(argv[0]);
  6. std::cout << "stage error" << strerror(errno) << std::endl;
  7. exit(USAGE_ERR);
  8. }
  9. const std::string ip_ = argv[1];
  10. u_int16_t port = atoi(argv[2]);
  11. int socket_ = socket(AF_INET, SOCK_STREAM, 0);
  12. if (socket_ < 0)
  13. {
  14. std::cout << "create socket error" << strerror(errno) << std::endl;
  15. exit(SOCKET_ERR);
  16. }
  17. std::cout << "create socket successs" << std::endl;
  18. // 打开网络文件
  19. // 不用客户端自己绑定端口号和ip地址
  20. struct sockaddr_in sock;
  21. sock.sin_addr.s_addr = inet_addr(ip_.c_str()); // 将字符串类型的地址转为四字节地址,而且是网络字节序了
  22. sock.sin_port = htons(port);
  23. sock.sin_family = AF_INET;
  24. int len = sizeof(sock);
  25. // 开始连接
  26. int timenum = 5;
  27. while (connect(socket_, (sockaddr *)&sock, len) < 0)
  28. {
  29. sleep(1);
  30. std::cout << "开始重连:" << std::endl;
  31. timenum--;
  32. if (timenum == 0)
  33. break;
  34. }
  35. if (timenum <= 0)
  36. {
  37. std::cout << "链接失败" << std::endl;
  38. exit(CON_ERR);
  39. }
  40. return 0;
  41. }

        接下来就是我们客户端直接把消息写到文件中,然后read读取服务端返回的数据。

       

四 实验测试 

        测试1

      服务端bug:如果客户端不给我们发消息,我们就会阻塞在read这里,就不能调用accept接收新连接了,所以我们应该安排一个线程去调用server函数来收发消息

          注意:我服务端代码里的server函数只能读一次和发一次消息给客户端,如果写成死循环后面引进线程池还会出问题,因为线程数量有限,多个客户端来链接,线程就会不够,这里不会,因为此时我们是一个线程负责收发消息给一个客户端。

  1. void *recv(void *arg)
  2. {
  3. // 收消息
  4. int socket_ = *((int *)arg);
  5. while (true)
  6. {
  7. char buffer[1024] = {0};
  8. int n = read(socket_, buffer, sizeof(buffer) - 1);
  9. if (n > 0)
  10. {
  11. buffer[n] = '\0';
  12. std::cout << "server echo# " << buffer << std::endl;
  13. }
  14. else if (n == 0)
  15. {
  16. close(socket_);
  17. std::cout << "server quit" << std::endl;
  18. }
  19. else
  20. {
  21. close(socket_);
  22. std::cout << "client read err" << strerror(errno) << std::endl;
  23. exit(READ_ERR);
  24. }
  25. }
  26. }
  27. void start()
  28. {
  29. while (true)
  30. {
  31. // 获取链接
  32. struct sockaddr_in sock; // 头文件<netinet/in.h>
  33. bzero(&sock, sizeof(sock));
  34. socklen_t len = sizeof(sock);
  35. int socket = accept(listensocket_, (sockaddr *)&sock, &len); // 不保存吗
  36. if (socket < 0)
  37. {
  38. lg_(ErrorLevel::Info,"accept err");
  39. // std::cout << "accept err" << std::endl;
  40. exit(SOCKET_ERR);
  41. }
  42. std::cout << "accept success" << std::endl;
  43. // 开始发消息,此时我们不能让主线程去发消息,不然就无法链接其它的客户端了
  44. std::string clientip = inet_ntoa(sock.sin_addr);
  45. u_int16_t clientport = ntohs(sock.sin_port);
  46. pthread_t id;
  47. pthread_create(&id,nullptr,recv,ThreadDta);
  48. }
  49. }

        ThreadData类内包含ip和端口,server函数实现也被放入了静态成员函数recv中,我这里只是演示一下,只会把最后版本放出来下面我们引入线程池来做优化,我们希望在accept链接前就创建好线程了,提高响应速度。

引进线程池

        线程池:内部负责创建线程,我们外部构建任务,放入线程池中,内部线程池会去执行。

 先来看看任务构建,外部传入一个套接字,ip,端口号,可调用对象构建任务,线程拿到任务后调用可调用对象。

  1. #define NUM 5
  2. class Task
  3. {
  4. public:
  5. using func_t = std::function<void(int,std::string,u_int16_t)>;
  6. Task()
  7. {
  8. ;
  9. }
  10. Task(int sock,std::string ip,uint16_t port,func_t func)
  11. : socket_(sock), ip_(ip), port_(port),func_(func)
  12. {
  13. ;
  14. }
  15. void operator()()
  16. {
  17. func_(socket_,ip_,port_);
  18. }
  19. int socket_;
  20. func_t func_;
  21. std::string ip_;
  22. u_int16_t port_;
  23. };

        使用如下,构建任务,并且入队列,这里面还用了bind语法。

        然后我大致说一下线程池内部实现,以及我们什么时候控制线程池去执行任务。成员如下,有任务队列保存任务,还有vector<Thread>保存多个线程。

        我们线程池内存的也不是线程id,而是封装后的Thread类。代码如下,可以不关心内部实现。

  1. class Thread
  2. {
  3. public:
  4. typedef enum
  5. {
  6. NEW = 1,
  7. RUNING,
  8. EXIT
  9. }status;
  10. typedef void* (*fun_t)(void*);
  11. Thread()
  12. {
  13. ;
  14. }
  15. Thread(int num, fun_t fun, void* arg)
  16. :id_(0),fun_(fun),arg_(arg),status_(NEW)
  17. {
  18. name_ = "thread->" + std::to_string(num);
  19. }
  20. ~Thread()
  21. {
  22. ;
  23. }
  24. static void * threadRun(void*arg)
  25. {
  26. Thread* th = (Thread*) arg;
  27. th->fun_(th->arg_);
  28. return nullptr;
  29. }
  30. void Run()
  31. {
  32. int n = pthread_create(&id_,nullptr,threadRun,(void*)this);
  33. if(n != 0)//成功返回0,不成功返回错误码
  34. exit(4);
  35. status_ = RUNING;
  36. }
  37. void join()
  38. {
  39. pthread_join(id_,nullptr);
  40. status_ = EXIT;
  41. }
  42. std::string getname()
  43. {
  44. return name_;
  45. }
  46. int getstatus()
  47. {
  48. return status_;
  49. }
  50. pthread_t getid()
  51. {
  52. if(status_ == RUNING)
  53. return id_;
  54. else
  55. {
  56. std::cout<<name_<<" not create ";
  57. return 1;
  58. }
  59. }
  60. pthread_t id_;
  61. std::string name_;//线程名
  62. status status_;//线程状态
  63. fun_t fun_;//线程执行函数
  64. void* arg_;//线程参数
  65. };

        我们只需要知道我们要线程池初始化thread对象时要传一个执行函数和参数即可,i就是内部用来构建线程名的,不用关心。

        外部通过线程池的静态函数获取单例对象。

        线程池内调用Thread类内方法创建线程。

        Thread类内的Run方法。

        线程池内部实现。

  1. template <class T>
  2. class threadPool
  3. {
  4. threadPool(int size = NUM) // vp_存的自定义类型要有默认构造,不然这里初始化会找不到默认构造!
  5. : vp_(size)
  6. {
  7. pthread_mutex_init(&mutex_, nullptr);
  8. pthread_cond_init(&Consumer, nullptr);
  9. pthread_cond_init(&Productor, nullptr);
  10. }
  11. ~threadPool()
  12. {
  13. for (auto &e : vp_) // 复用Thread join方法回收线程
  14. {
  15. e.join();
  16. }
  17. pthread_mutex_destroy(&mutex_);
  18. pthread_cond_destroy(&Consumer);
  19. pthread_cond_destroy(&Productor);
  20. }
  21. threadPool(const threadPool<T>& sh) = delete;
  22. threadPool<T> operator=(const threadPool<T>& sh) = delete;
  23. public:
  24. void init()
  25. {
  26. for (int i = 0; i < NUM; i++)
  27. {
  28. vp_[i] = (Thread(i, threadRun, this));//this指针是给内部传参数的
  29. }
  30. }
  31. void Lock()
  32. {
  33. pthread_mutex_lock(&mutex_);
  34. }
  35. void Unlock()
  36. {
  37. pthread_mutex_unlock(&mutex_);
  38. }
  39. static void *threadRun(void *arg)
  40. {
  41. // pthread_detach(pthread_self());
  42. threadPool<T> *tp = static_cast<threadPool<T> *>(arg);
  43. // 执行任务
  44. while (true)
  45. {
  46. T data;
  47. tp->pop(data);
  48. data();
  49. }
  50. }
  51. bool Full()
  52. {
  53. return tasks_.size() == NUM;
  54. }
  55. bool Empty()
  56. {
  57. return tasks_.size() == 0;
  58. }
  59. void start()
  60. {
  61. for (auto &e : vp_) // 复用Thread Run方法创建线程
  62. {
  63. e.Run();
  64. }
  65. }
  66. void push(const T &data)
  67. {
  68. {
  69. LockGuard lg(&mutex_);
  70. while (Full())
  71. {
  72. pthread_cond_wait(&Productor, &mutex_);
  73. }
  74. tasks_.push(data);
  75. }
  76. pthread_cond_signal(&Consumer);
  77. }
  78. void pop(T &data)
  79. {
  80. {
  81. LockGuard lg(&mutex_);
  82. // 检查是否有任务
  83. while (Empty())
  84. {
  85. pthread_cond_wait(&Consumer, &mutex_);
  86. }
  87. data = tasks_.front();
  88. tasks_.pop();
  89. }
  90. pthread_cond_signal(&Productor);
  91. }
  92. static threadPool<T>* getthreadPool()
  93. {
  94. if(tp_ == nullptr)//减少加锁次数
  95. {
  96. LockGuard lg(&Poolmutex_);
  97. if (tp_ == nullptr)
  98. {
  99. tp_ = new threadPool<T>();
  100. tp_->init();
  101. tp_->start();
  102. }
  103. }
  104. return tp_;
  105. }
  106. std::queue<T> tasks_; // 任务队列
  107. std::vector<Thread> vp_; // 线程池,不能存指针,内部要解引用访问的
  108. pthread_mutex_t mutex_;
  109. pthread_cond_t Consumer;
  110. pthread_cond_t Productor;
  111. static threadPool<T>* tp_;
  112. static pthread_mutex_t Poolmutex_;
  113. };
  114. template<class T>
  115. threadPool<T>*threadPool<T>::tp_ = nullptr;
  116. template<class T>
  117. pthread_mutex_t threadPool<T>::Poolmutex_ = PTHREAD_MUTEX_INITIALIZER;

        综上,外部线程获取单例线程池对象并且push任务到队列,内部线程pop任务出来并执行。由于我们的线程池并没有设计扩容功能,所以线程是有限的,而线程池内部线程执行的任务是我们外部传入的server函数,如果server函数是个死循环,就会导致无法执行其它客户端的任务,所以我们把server函数内的死循环改了。

五 守护进程

1 概念介绍

        为什么要有守护进程呢?

        因为我们目前起的进程如果把中端窗口一关闭,此时就会导致服务停了,那总不能让屏幕一直开着吧,所以我们让这个进程在后台运行,也就是守护进程化。

我们以前在讲进程状态的时候,用过下面这条命令,但是有几个成员一直没提及,那就是PGID和SID以及TTY。

        PGID表是进程组,我们在命令行可以一次性起多个进程,这些进程都被归属于某个进程组被管理起来,进程组id一般是第一个创建的进程id,例如我们./server起了一个进程,这个进程内部也起了多个进程,此时这些进程都会被划分在一个进程组中,此时组长是server。

        tty表示终端文件,终端就是我们打开xshell显示的那个窗口,所以当我们在命令行输入指令,都是云服务将结果输出到文件,文件经过网络发送到我们的主机上。

在一个终端下起的进程的终端文件是一样的,父进程是一样的,都是bash,而且还都属于某个进程组,进程组以第一个创建的进程id命名,不是bash。例如sleep 100 | sleep 100 &我们就在后台一次性起了两个进程,它们属于一个进程组。

        所以./server不再是启动一个进程了,我们应该说是启动一个任务,因为serve程序内部可能也会创建进程,所以需要一个更大的概念-任务来描述,jobs可以查看当前会话的任务。

        左侧的是任务码,我们可以把一个后台拉到前台运行,fg+ 任务码,然后ctrl+c就可以结束这个进程了。

        将前台的任务回退为后台,Ctrl+z。

        细节,当我们把sleep拉回前台运行时,此时bash命令就没了,因为我们./server就是把一个任务变成了前台,bash就变成后台,一个终端只能有一个前台进程,可以简单理解前台进程就是要和我们的键盘交互的,我们只能给一个进程喂指令,所以一个终端只有一个前台进程,当我们ctrl+z把前台进程变成后台进程后,此时bash命令行又回来了,因为它自动把自己变成前台进程了。

        那什么是SID呢,我们称为会话id,22103其实是我们的bash进程,会话id以一个会话内的首进程id命名,什么是会话呢?当我们登录xshell时,linux就会建立一个会话,将bash以及bash创建进程管理在其中,有时候bash创建的进程(例如./server)内部又创建了许多进程,为了将server和它创建的进程关联起来,就有了进程组。       

        注销的理解:以前我们的电脑上是有个注销选项的,注销和重启是不同的,注销是删掉会话内的所有进程,重启则是整个系统进程都要重启了。守护进程化,就是对server进程独立开一个会话,这样用户注销就不会影响我这个守护进程了。使用如下接口。

返回值:会话ID。

2 守护进程化实现

  1. void Daemon()
  2. {
  3. pid_t ret = setsid();
  4. if((int)ret == -1)
  5. {
  6. cout<<"setsid err:错误码: "<<errno<<" 错误信息:"<<strerror(errno)<<endl;
  7. exit(SETSID_ERR);
  8. }
  9. }

        然后我们在server.cc中调用一下,我们整个进程就变成守护进程啦。对进程组的其它进程无影响?如果我们是像这里一样实现的话,大概率会出错,首先我们这里只有一个server进程,

       

        server进程就必定是组长,组长进程不能从会话中独立出去,为什么不能走呢,我想是因为组长进程内有着管理组内进程的方法,如果走了就管理不了其它的进程了,深究的话就得讨论为什么组长走了就不能管理其它进程了,难道我们不能再选一个组长吗? 当然我说的容易,实现起来可能比较冗余,所以就禁止我们对组长进程进行守护进程化。

        优化如下。

        我们在Daemon()函数中创建子进程,让父进程退出,此时子进程就变成孤儿进程了,被os接管了,此时这个孤儿进程不会是组长,此时孤儿进程再将自己独立出去。

        变成守护进程后,一直在后台执行start函数,这个函数内是在接收链接,并且创建任务到队列中,让内部的线程池去执行通信任务。

然后我们还要忽略一些常见错误信号,让我们的守护进程不会随随便便就退出。

  1. signal(SIGPIPE,SIG_IGN);
  2. signal(SIGCHLD,SIG_IGN);

        已经成为守护进程了,就不应该和键盘显示器关联了,我们可以直接关闭显示器和键盘文件,但是这样我们使用cout,cin会直接出错。所以我们打开一个特殊文件,让cin读不到数据,直接返回,写入的数据也会被丢弃。

  1. //守护进程化
  2. void Daemon()
  3. {
  4. 子进程去创建新会话
  5. if(fork() > 0)
  6. exit(0);
  7. pid_t ret = setsid();
  8. if((int)ret == -1)
  9. {
  10. cout<<"setsid err:错误码: "<<errno<<" 错误信息:"<<strerror(errno)<<endl;
  11. exit(SETSID_ERR);
  12. }
  13. int fd = open("/dev/null",O_RDWR);
  14. if(fd < 0)
  15. {
  16. cout<<"open err:错误码: "<<errno<<" 错误信息:"<<strerror(errno)<<endl;
  17. exit(OPEN_ERR);
  18. }
  19. //关闭输入输出
  20. dup2(fd,0);
  21. dup2(fd,1);
  22. dup2(fd,2);
  23. }

        守护进程只能kill掉。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小丑西瓜9/article/detail/309586
推荐阅读
相关标签
  

闽ICP备14008679号