赞
踩
对于客户端而言,Nginx是服务器,对于后端服务器而言,Nginx是客户端。
HTTP1.1之后,HTTP协议支持持久连接,也就是长连接,优点在于在一个TCP连接上可以传送多个HTTP请求和响应,减少了建立和关闭连接的消耗和延迟。
如果我们使用了nginx去作为反向代理或者负载均衡,从客户端过来的长连接请求就会被转换成短连接发送给服务器端(默认情况下,Nginx到上游服务器的请求时短连接)。
我们要想做到Client与Nginx之间保持长连接,需要:
1、Client发送过来的请求携带"keep-alive"header。
2、Nginx设置支持keep-alive
默认情况下,nginx已经开启了对client连接的 keepalive 支持。对于特殊场景,可以调整相关参数。
- http {
-
- keepalive_timeout 120s; # 客户端链接超时时间。为0的时候禁用长连接。
-
- keepalive_requests 10000; # 在一个长连接上可以服务的最大请求数目。
-
- # 当达到最大请求数目且所有已有请求结束后,连接被关闭。
-
- # keepalive_requests 默认值为100
-
- }
大多数情况下,keepalive_requests = 100也够用,但是对于 QPS 较高的场景,非常有必要加大这个参数,以避免出现大量连接被生成再抛弃的情况,减少TIME_WAIT。
QPS=10000 时,客户端每秒发送 10000 个请求 (通常建立有多个长连接),每个连接只能最多跑 100 次请求,意味着平均每秒钟就会有 100 个长连接因此被 nginx 关闭。
同样意味着为了保持 QPS,客户端不得不每秒中重新新建 100 个连接。
因此,如果用netstat命令看客户端机器,就会发现有大量的TIME_WAIT的socket连接 (即使此时keep alive已经在 Client 和 NGINX 之间生效)。
Nginx配置到上游服务器的长连接如下:
- upstream tomcats {
- server 192.168.1.190:8080;
- keepalive 32;
- }
-
- server {
- listen 80;
- server_name www.tomcats.com;
-
- location / {
- proxy_pass http://tomcats;
- proxy_http_version 1.1;
- # 设置Connection为空串,以禁止传递头部到后端
- # http1.0中默认值Connection: close
- proxy_set_header Connection "";
- }
- }
-
- # 默认情况下 Nginx 访问后端都是用的短连接(HTTP1.0),一个请求来了,Nginx 新开一个和后端的连接,
- # 请求结束连接回收。HTTP1.1之后,HTTP协议支持持久连接,也就是长连接,优点在于在一个TCP连接上可以# 传送多个HTTP请求和响应,减少了建立和关闭连接的消耗和延迟。
配置与上游服务器的长连接需要在upstream模块中配置keepalive
这个参数和之前http里面的 keepalive_timeout 不一样。
这个参数的含义是,连接池里面最大的空闲连接数量。
upstream中,有一个参数特别的重要,就是keepalive。
这个参数和之前http里面的 keepalive_timeout 不一样。
这个参数的含义是,连接池里面最大的空闲连接数量。
不理解?没关系,我们来举个例子:
有一个HTTP服务,作为upstream服务器接收请求,响应时间为100毫秒。
要求性能达到10000 QPS,我们需要在nginx与upstream服务器(上游服务器)之间建立大概1000条HTTP请求。(1000/0.1s=10000)
假设请求非常的均匀平稳,每一个请求都是100ms,请求结束会被马上放入连接池并置为idle(空闲)状态。
我们以0.1s为单位:
1. 我们现在keepalive的值设置为10,每0.1s钟有1000个连接
2. 第0.1s的时候,我们一共有1000个请求收到并释放
3. 第0.2s的时候,我们又来了1000个请求,在0.2s结束的时候释放
请求和应答都比较均匀,0.1s释放的连接正好够用,不需要建立新连接,且连接池中没有idle状态的连接。
应答非常平稳,但是请求不平稳的时候
4. 第0.3s的时候,我们只有500个请求收到,有500个请求因为网络延迟等原因没有进来
这个时候,Nginx检测到连接池中有500个idle状态的连接,就直接关闭了(500-10)个连接
5. 第0.4s的时候,我们收到了1500个请求,但是现在池里面只有(500+10)个连接,所以Nginx不得不重新建立了(1500-510)个连接。
如果在第4步的时候,没有关闭那490个连接的话,只需要重新建立500个连接。
请求非常平稳,但是应答不平稳的时候
4. 第0.3s的时候,我们一共有1500个请求收到
但是池里面只有1000个连接,这个时候,Nginx又创建了500个连接,一共1500个连接
5. 第0.3s的时候,第0.3s的连接全部被释放,我们收到了500个请求
Nginx检测到池里面有1000个idle状态的连接,所以不得不释放了(1000-10)个连接
造成连接数量反复震荡的一个推手,就是这个keepalive 这个最大空闲连接数。
上面的两种情况说的都是 keepalive 设置的不合理导致Nginx有多次释放与创建连接的过程,造成资源浪费。
keepalive 这个参数设置一定要小心,尤其是对于 QPS 要求比较高或者网络环境不稳定的场景,一般根据 QPS 值和 平均响应时间能大致推算出需要的长连接数量。
然后将keepalive设置为长连接数量的10%到30%。
- http {
-
- map $http_upgrade $connection_upgrade {
- default upgrade;
- '' close;
- }
-
- upstream backend {
-
- server 192.168.0.1:8080 weight=1 max_fails=2 fail_timeout=30s;
-
- server 192.168.0.2:8080 weight=1 max_fails=2 fail_timeout=30s;
-
- keepalive 300;
-
- }
-
- server {
-
- listen 8080 default_server;
-
- server_name "";
-
- location / {
-
- proxy_pass http://backend;
-
-
-
- proxy_connect_timeout 15; #与upstream server的连接超时时间(没有单位,最大不可以超过75s)
-
- proxy_read_timeout 60s; #nginx会等待多长时间来获得请求的响应
-
- proxy_send_timeout 12s; #发送请求给upstream服务器的超时时间
-
- proxy_http_version 1.1;
-
- proxy_set_header Upgrade $http_upgrade;
-
- proxy_set_header Connection $connection_upgrade;
-
- }
-
- }
-
- }
http里面的map的作用是:
让转发到代理服务器的 "Connection" 头字段的值,取决于客户端请求头的 "Upgrade" 字段值。
如果 $http_upgrade没有匹配,那 "Connection" 头字段的值会是upgrade。
如果 $http_upgrade为空字符串的话,那 "Connection" 头字段的值会是 close。
NGINX支持WebSocket。
对于NGINX将升级请求从客户端发送到后台服务器,必须明确设置Upgrade和Connection标题。
这也算是上面情况所非常常用的场景。
HTTP的Upgrade协议头机制用于将连接从HTTP连接升级到WebSocket连接,Upgrade机制使用了Upgrade协议头和Connection协议头。
为了让Nginx可以将来自客户端的Upgrade请求发送到后端服务器,Upgrade和Connection的头信息必须被显式的设置。
在nginx的配置文件中,如果当前模块中没有proxy_set_header的设置,则会从上级别继承配置。
继承顺序为:http, server, location。
如果在下一层使用proxy_set_header修改了header的值,则所有的header值都可能会发生变化,之前继承的所有配置将会被丢弃。
所以,尽量在同一个地方进行proxy_set_header,否则可能会有别的问题。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。