当前位置:   article > 正文

Nginx_nginx 默认是轮训机制

nginx 默认是轮训机制

1. 什么是Nginx?

Nginx是一个 轻量级/高性能的反向代理Web服务器,他实现非常高效的反向代理、负载平衡,他可以处理2-3万并发连接数,官方监测能支持5万并发,现在中国使用nginx网站用户有很多,例如:新浪、网易、 腾讯等。

2. 为什么要用Nginx?

  • 跨平台、配置简单、方向代理、高并发连接:处理2-3万并发连接数,官方监测能支持5万并发,内存消耗小:开启10个nginx才占150M内存 ,nginx处理静态文件好,耗费内存少,
  • 而且Nginx内置的健康检查功能:如果有一个服务器宕机,会做一个健康检查,再发送的请求就不会发送到宕机的服务器了。重新将请求提交到其他的节点上。

使用Nginx的话还能:

1、 节省宽带:支持GZIP压缩,可以添加浏览器本地缓存;

2、 稳定性高:宕机的概率非常小;

3、 接收用户请求是异步的;

3. 为什么Nginx性能这么高?

因为他的事件处理机制:异步非阻塞事件处理机制:运用了epoll模型,提供了一个队列,排队解决

4. Nginx怎么处理请求的?

nginx接收一个请求后,首先由listen和server_name指令匹配server模块,再匹配server模块里的location,location就是实际地址

  1. server {
  2. 第一个Server区块开始,表示一个独立的虚拟主机站点
  3. listen 80; 提供服务的端口,默认80
  4. server_name localhost; 提供服务的域名主机名
  5. location / {
  6. 第一个location区块开始
  7. root html; 站点的根目录,相当于Nginx的安装目录
  8. index index.html index.htm; 默认的首页文件,多个用空格分开
  9. } 第一个location区块结果
  10. }

5. 什么是正向代理和反向代理?

1、 正向代理就是一个人发送一个请求直接就到达了目标的服务器;

2、 反方代理就是请求统一被Nginx接收,nginx反向代理服务器接收到之后,按照一定的规则分发给;了后端的业务处理服务器进行处理了

6. 使用“反向代理服务器的优点是什么?

反向代理服务器可以隐藏源服务器的存在和特征。它充当互联网云和web服务器之间的中间层。这对于安全方面来说是很好的,特别是当您使用web托管服务时。

7. Nginx的优缺点?

优点:

1、 占内存小,可实现高并发连接,处理响应快;

2、 可实现http服务器、虚拟主机、方向代理、负载均衡;

3、 Nginx配置简单;

4、 可以不暴露正式的服务器IP地址;

  • 缺点: 动态处理差:nginx处理静态文件好,耗费内存少,但是处理动态页面则很鸡肋,现在一般前端用nginx作为反向代理抗住压力,

8. Nginx应用场景?

1、 http服务器Nginx是一个http服务可以独立提供http服务可以做网页静态服务器;

2、 虚拟主机可以实现在一台服务器虚拟出多个网站,例如个人网站使用的虚拟机;

3、 反向代理,负载均衡当网站的访问量达到一定程度后,单台服务器不能满足用户的请求时,需要;用多台服务器集群可以使用nginx做反向代理。并且多台服务器可以平均分担负载,不会应为某台服务器负载高宕机而某台服务器闲置的情况。

4、 nginz中也可以配置安全管理、比如可以使用Nginx搭建API接口网关,对每个接口服务进行拦截;

9. Nginx目录结构有哪些?

  1. [root@ddkk.com ~]# tree /usr/local/nginx
  2. /usr/local/nginx
  3. ├── client_body_temp
  4. ├── conf Nginx所有配置文件的目录
  5. │ ├── fastcgi.conf fastcgi相关参数的配置文件
  6. │ ├── fastcgi.conf.default fastcgi.conf的原始备份文件
  7. │ ├── fastcgi_params fastcgi的参数文件
  8. │ ├── fastcgi_params.default
  9. │ ├── koi-utf
  10. │ ├── koi-win
  11. │ ├── mime.types 媒体类型
  12. │ ├── mime.types.default
  13. │ ├── nginx.conf Nginx主配置文件
  14. │ ├── nginx.conf.default
  15. │ ├── scgi_params scgi相关参数文件
  16. │ ├── scgi_params.default
  17. │ ├── uwsgi_params uwsgi相关参数文件
  18. │ ├── uwsgi_params.default
  19. │ └── win-utf
  20. ├── fastcgi_temp fastcgi临时数据目录
  21. ├── html Nginx默认站点目录
  22. │ ├── 50x.html 错误页面优雅替代显示文件,例如当出现502错误时会调
  23. 用此页面
  24. │ └── index.html 默认的首页文件
  25. ├── logs Nginx日志目录
  26. │ ├── access.log 访问日志文件
  27. │ ├── error.log 错误日志文件
  28. │ └── nginx.pid pid文件,Nginx进程启动后,会把所有进程的ID号写
  29. 到此文件
  30. ├── proxy_temp 临时目录
  31. ├── sbin Nginx命令目录
  32. │ └── nginx Nginx的启动命令
  33. ├── scgi_temp 临时目录
  34. └── uwsgi_temp 临时目录

10. Nginx配置文件nginx.conf有哪些属性模块?

  1. worker_processes 1; worker进程的数量
  2. events {
  3. 事件区块开始
  4. worker_connections 1024; 每个worker进程支持的最大连接数
  5. } 事件区块结束
  6. http {
  7. HTTP区块开始
  8. include mime.types; Nginx支持的媒体类型库文件
  9. default_type application/octet-stream; 默认的媒体类型
  10. sendfile on; 开启高效传输模式
  11. keepalive_timeout 65; 连接超时
  12. server {
  13. 第一个Server区块开始,表示一个独立的虚拟主机站点
  14. listen 80; 提供服务的端口,默认80
  15. server_name localhost; 提供服务的域名主机名
  16. location / {
  17. 第一个location区块开始
  18. root html; 站点的根目录,相当于Nginx的安装目录
  19. index index.html index.htm; 默认的首页文件,多个用空格分开
  20. } 第一个location区块结果
  21. error_page 500502503504 /50x.html; 出现对应的http状态码时,使用50x.html回应客户
  22. location = /50x.html {
  23. location区块开始,访问50x.html
  24. root html; 指定对应的站点目录为html
  25. }
  26. }
  27. }
10.1配置文件详解 
  1. \#定义Nginx运行的用户和用户组
  2. user www www;
  3. #nginx进程数,建议设置为等于CPU总核心数。
  4. worker_processes 8;
  5. #全局错误日志定义类型,[ debug | info | notice | warn | error | crit ]
  6. error_log /usr/local/nginx/logs/error.log info;
  7. #进程pid文件
  8. pid /usr/local/nginx/logs/nginx.pid;
  9. #指定进程可以打开的最大描述符:数目
  10. #工作模式与连接数上限
  11. #这个指令是指当一个nginx进程打开的最多文件描述符数目,理论值应该是最多打开文件数(ulimit -n)与nginx进程数相除,但是nginx分配请求并不是那么均匀,所以最好与ulimit -n 的值保持一致。
  12. #现在在linux 2.6内核下开启文件打开数为65535,worker_rlimit_nofile就相应应该填写65535
  13. #这是因为nginx调度时分配请求到进程并不是那么的均衡,所以假如填写10240,总并发量达到3-4万时就有进程可能超过10240了,这时会返回502错误。
  14. worker_rlimit_nofile 65535;
  15. events
  16. {
  17. #参考事件模型,use [ kqueue | rtsig | epoll | /dev/poll | select | poll ]; epoll模型
  18. #是Linux 2.6以上版本内核中的高性能网络I/O模型,linux建议epoll,如果跑在FreeBSD上面,就用kqueue模型。
  19. #补充说明:
  20. #与apache相类,nginx针对不同的操作系统,有不同的事件模型
  21. #A)标准事件模型
  22. #Select、poll属于标准事件模型,如果当前系统不存在更有效的方法,nginx会选择select或poll
  23. #B)高效事件模型
  24. #Kqueue:使用于FreeBSD 4.1+, OpenBSD 2.9+, NetBSD 2.0 和 MacOS X.使用双处理器的MacOS X系统使用kqueue可能会造成内核崩溃。
  25. #Epoll:使用于Linux内核2.6版本及以后的系统。
  26. #/dev/poll:使用于Solaris 7 11/99+,HP/UX 11.22+ (eventport),IRIX 6.5.15+ 和 Tru64 UNIX 5.1A+
  27. #Eventport:使用于Solaris 10。 为了防止出现内核崩溃的问题, 有必要安装安全补丁。
  28. use epoll;
  29. #单个进程最大连接数(最大连接数=连接数*进程数)
  30. #根据硬件调整,和前面工作进程配合起来用,尽量大,但是别把cpu跑到100%就行。每个进程允许的最多连接数,理论上每台nginx服务器的最大连接数为。
  31. worker_connections 65535;
  32. #keepalive超时时间。
  33. keepalive_timeout 60;
  34. #客户端请求头部的缓冲区大小。这个可以根据你的系统分页大小来设置,一般一个请求头的大小不会超过1k,不过由于一般系统分页都要大于1k,所以这里设置为分页大小。
  35. #分页大小可以用命令getconf PAGESIZE 取得。
  36. #[root@web001 ~]# getconf PAGESIZE
  37. #4096
  38. #但也有client_header_buffer_size超过4k的情况,但是client_header_buffer_size该值必须设置为“系统分页大小”的整倍数。
  39. client_header_buffer_size 4k;
  40. #这个将为打开文件指定缓存,默认是没有启用的,max指定缓存数量,建议和打开文件数一致,inactive是指经过多长时间文件没被请求后删除缓存。
  41. open_file_cache max=65535 inactive=60s;
  42. #这个是指多长时间检查一次缓存的有效信息。
  43. #语法:open_file_cache_valid time 默认值:open_file_cache_valid 60 使用字段:http, server, location 这个指令指定了何时需要检查open_file_cache中缓存项目的有效信息.
  44. open_file_cache_valid 80s;
  45. #open_file_cache指令中的inactive参数时间内文件的最少使用次数,如果超过这个数字,文件描述符一直是在缓存中打开的,如上例,如果有一个文件在inactive时间内一次没被使用,它将被移除。
  46. #语法:open_file_cache_min_uses number 默认值:open_file_cache_min_uses 1 使用字段:http, server, location 这个指令指定了在open_file_cache指令无效的参数中一定的时间范围内可以使用的最小文件数,如果使用更大的值,文件描述符在cache中总是打开状态.
  47. open_file_cache_min_uses 1;
  48. #语法:open_file_cache_errors on | off 默认值:open_file_cache_errors off 使用字段:http, server, location 这个指令指定是否在搜索一个文件时记录cache错误.
  49. open_file_cache_errors on;
  50. }
  51. #设定http服务器,利用它的反向代理功能提供负载均衡支持
  52. http
  53. {
  54. #文件扩展名与文件类型映射表
  55. include mime.types;
  56. #默认文件类型
  57. default_type application/octet-stream;
  58. #默认编码
  59. #charset utf-8;
  60. #服务器名字的hash表大小
  61. #保存服务器名字的hash表是由指令server_names_hash_max_size 和server_names_hash_bucket_size所控制的。参数hash bucket size总是等于hash表的大小,并且是一路处理器缓存大小的倍数。在减少了在内存中的存取次数后,使在处理器中加速查找hash表键值成为可能。如果hash bucket size等于一路处理器缓存的大小,那么在查找键的时候,最坏的情况下在内存中查找的次数为2。第一次是确定存储单元的地址,第二次是在存储单元中查找键 值。因此,如果Nginx给出需要增大hash max size 或 hash bucket size的提示,那么首要的是增大前一个参数的大小.
  62. server_names_hash_bucket_size 128;
  63. #客户端请求头部的缓冲区大小。这个可以根据你的系统分页大小来设置,一般一个请求的头部大小不会超过1k,不过由于一般系统分页都要大于1k,所以这里设置为分页大小。分页大小可以用命令getconf PAGESIZE取得。
  64. client_header_buffer_size 32k;
  65. #客户请求头缓冲大小。nginx默认会用client_header_buffer_size这个buffer来读取header值,如果header过大,它会使用large_client_header_buffers来读取。
  66. large_client_header_buffers 4 64k;
  67. #设定通过nginx上传文件的大小
  68. client_max_body_size 8m;
  69. #开启高效文件传输模式,sendfile指令指定nginx是否调用sendfile函数来输出文件,对于普通应用设为 on,如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络I/O处理速度,降低系统的负载。注意:如果图片显示不正常把这个改成off
  70. #sendfile指令指定 nginx 是否调用sendfile 函数(zero copy 方式)来输出文件,对于普通应用,必须设为on。如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络IO处理速度,降低系统uptime。
  71. sendfile on;
  72. #开启目录列表访问,合适下载服务器,默认关闭。
  73. autoindex on;
  74. #此选项允许或禁止使用socke的TCP_CORK的选项,此选项仅在使用sendfile的时候使用
  75. tcp_nopush on;
  76. tcp_nodelay on;
  77. #长连接超时时间,单位是秒
  78. keepalive_timeout 120;
  79. #FastCGI相关参数是为了改善网站的性能:减少资源占用,提高访问速度。下面参数看字面意思都能理解。
  80. fastcgi_connect_timeout 300;
  81. fastcgi_send_timeout 300;
  82. fastcgi_read_timeout 300;
  83. fastcgi_buffer_size 64k;
  84. fastcgi_buffers 4 64k;
  85. fastcgi_busy_buffers_size 128k;
  86. fastcgi_temp_file_write_size 128k;
  87. #gzip模块设置
  88. gzip on; #开启gzip压缩输出
  89. gzip_min_length 1k; #最小压缩文件大小
  90. gzip_buffers 4 16k; #压缩缓冲区
  91. gzip_http_version 1.0; #压缩版本(默认1.1,前端如果是squid2.5请使用1.0
  92. gzip_comp_level 2; #压缩等级
  93. gzip_types text/plain application/x-javascript text/css application/xml; #压缩类型,默认就已经包含textml,所以下面就不用再写了,写上去也不会有问题,但是会有一个warn。
  94. gzip_vary on;
  95. #开启限制IP连接数的时候需要使用
  96. #limit_zone crawler $binary_remote_addr 10m;
  97. #负载均衡配置
  98. upstream jh.w3cschool.cn {
  99. #upstream的负载均衡,weight是权重,可以根据机器配置定义权重。weigth参数表示权值,权值越高被分配到的几率越大。
  100. server 192.168.80.121:80 weight=3;
  101. server 192.168.80.122:80 weight=2;
  102. server 192.168.80.123:80 weight=3;
  103. #nginx的upstream目前支持4种方式的分配
  104. #1、轮询(默认)
  105. #每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
  106. #2、weight
  107. #指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。
  108. #例如:
  109. #upstream bakend {
  110. # server 192.168.0.14 weight=10;
  111. # server 192.168.0.15 weight=10;
  112. #}
  113. #2、ip_hash
  114. #每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。
  115. #例如:
  116. #upstream bakend {
  117. # ip_hash;
  118. # server 192.168.0.14:88;
  119. # server 192.168.0.15:80;
  120. #}
  121. #3、fair(第三方)
  122. #按后端服务器的响应时间来分配请求,响应时间短的优先分配。
  123. #upstream backend {
  124. # server server1;
  125. # server server2;
  126. # fair;
  127. #}
  128. #4、url_hash(第三方)
  129. #按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。
  130. #例:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法
  131. #upstream backend {
  132. # server squid1:3128;
  133. # server squid2:3128;
  134. # hash $request_uri;
  135. # hash_method crc32;
  136. #}
  137. #tips:
  138. #upstream bakend{#定义负载均衡设备的Ip及设备状态}{
  139. # ip_hash;
  140. # server 127.0.0.1:9090 down;
  141. # server 127.0.0.1:8080 weight=2;
  142. # server 127.0.0.1:6060;
  143. # server 127.0.0.1:7070 backup;
  144. #}
  145. #在需要使用负载均衡的server中增加 proxy_pass http://bakend/;
  146. #每个设备的状态设置为:
  147. #1.down表示单前的server暂时不参与负载
  148. #2.weight为weight越大,负载的权重就越大。
  149. #3.max_fails:允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream模块定义的错误
  150. #4.fail_timeout:max_fails次失败后,暂停的时间。
  151. #5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。
  152. #nginx支持同时设置多组的负载均衡,用来给不用的server来使用。
  153. #client_body_in_file_only设置为On 可以讲client post过来的数据记录到文件中用来做debug
  154. #client_body_temp_path设置记录文件的目录 可以设置最多3层目录
  155. #location对URL进行匹配.可以进行重定向或者进行新的代理 负载均衡
  156. }
  157. #虚拟主机的配置
  158. server
  159. {
  160. #监听端口
  161. listen 80;
  162. #域名可以有多个,用空格隔开
  163. server_name www.w3cschool.cn w3cschool.cn;
  164. index index.html index.htm index.php;
  165. root /data/www/w3cschool;
  166. #对******进行负载均衡
  167. location ~ .*.(php|php5)?$
  168. {
  169. fastcgi_pass 127.0.0.1:9000;
  170. fastcgi_index index.php;
  171. include fastcgi.conf;
  172. }
  173. #图片缓存时间设置
  174. location ~ .*.(gif|jpg|jpeg|png|bmp|swf)$
  175. {
  176. expires 10d;
  177. }
  178. #JS和CSS缓存时间设置
  179. location ~ .*.(js|css)?$
  180. {
  181. expires 1h;
  182. }
  183. #日志格式设定
  184. #$remote_addr与$http_x_forwarded_for用以记录客户端的ip地址;
  185. #$remote_user:用来记录客户端用户名称;
  186. #$time_local: 用来记录访问时间与时区;
  187. #$request: 用来记录请求的url与http协议;
  188. #$status: 用来记录请求状态;成功是200
  189. #$body_bytes_sent :记录发送给客户端文件主体内容大小;
  190. #$http_referer:用来记录从那个页面链接访问过来的;
  191. #$http_user_agent:记录客户浏览器的相关信息;
  192. #通常web服务器放在反向代理的后面,这样就不能获取到客户的IP地址了,通过$remote_add拿到的IP地址是反向代理服务器的iP地址。反向代理服务器在转发请求的http头信息中,可以增加x_forwarded_for信息,用以记录原有客户端的IP地址和原来客户端的请求的服务器地址。
  193. log_format access '$remote_addr - $remote_user [$time_local] "$request" '
  194. '$status $body_bytes_sent "$http_referer" '
  195. '"$http_user_agent" $http_x_forwarded_for';
  196. #定义本虚拟主机的访问日志
  197. access_log /usr/local/nginx/logs/host.access.log main;
  198. access_log /usr/local/nginx/logs/host.access.404.log log404;
  199. #对 "/" 启用反向代理
  200. location / {
  201. proxy_pass http://127.0.0.1:88;
  202. proxy_redirect off;
  203. proxy_set_header X-Real-IP $remote_addr;
  204. #后端的Web服务器可以通过X-Forwarded-For获取用户真实IP
  205. proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
  206. #以下是一些反向代理的配置,可选。
  207. proxy_set_header Host $host;
  208. #允许客户端请求的最大单文件字节数
  209. client_max_body_size 10m;
  210. #缓冲区代理缓冲用户端请求的最大字节数,
  211. #如果把它设置为比较大的数值,例如256k,那么,无论使用firefox还是IE浏览器,来提交任意小于256k的图片,都很正常。如果注释该指令,使用默认的client_body_buffer_size设置,也就是操作系统页面大小的两倍,8k或者16k,问题就出现了。
  212. #无论使用firefox4.0还是IE8.0,提交一个比较大,200k左右的图片,都返回500 Internal Server Error错误
  213. client_body_buffer_size 128k;
  214. #表示使nginx阻止HTTP应答代码为400或者更高的应答。
  215. proxy_intercept_errors on;
  216. #后端服务器连接的超时时间_发起握手等候响应超时时间
  217. #nginx跟后端服务器连接超时时间(代理连接超时)
  218. proxy_connect_timeout 90;
  219. #后端服务器数据回传时间(代理发送超时)
  220. #后端服务器数据回传时间_就是在规定时间之内后端服务器必须传完所有的数据
  221. proxy_send_timeout 90;
  222. #连接成功后,后端服务器响应时间(代理接收超时)
  223. #连接成功后_等候后端服务器响应时间_其实已经进入后端的排队之中等候处理(也可以说是后端服务器处理请求的时间)
  224. proxy_read_timeout 90;
  225. #设置代理服务器(nginx)保存用户头信息的缓冲区大小
  226. #设置从被代理服务器读取的第一部分应答的缓冲区大小,通常情况下这部分应答中包含一个小的应答头,默认情况下这个值的大小为指令proxy_buffers中指定的一个缓冲区的大小,不过可以将其设置为更小
  227. proxy_buffer_size 4k;
  228. #proxy_buffers缓冲区,网页平均在32k以下的设置
  229. #设置用于读取应答(来自被代理服务器)的缓冲区数目和大小,默认情况也为分页大小,根据操作系统的不同可能是4k或者8k
  230. proxy_buffers 4 32k;
  231. #高负荷下缓冲大小(proxy_buffers*2
  232. proxy_busy_buffers_size 64k;
  233. #设置在写入proxy_temp_path时数据的大小,预防一个工作进程在传递文件时阻塞太长
  234. #设定缓存文件夹大小,大于这个值,将从upstream服务器传
  235. proxy_temp_file_write_size 64k;
  236. }
  237. #设定查看Nginx状态的地址
  238. location /NginxStatus {
  239. stub_status on;
  240. access_log on;
  241. auth_basic "NginxStatus";
  242. auth_basic_user_file confpasswd;
  243. #htpasswd文件的内容可以用apache提供的htpasswd工具来产生。
  244. }
  245. #本地动静分离反向代理配置
  246. #所有jsp的页面均交由tomcat或resin处理
  247. location ~ .(jsp|jspx|do)?$ {
  248. proxy_set_header Host $host;
  249. proxy_set_header X-Real-IP $remote_addr;
  250. proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
  251. proxy_pass http://127.0.0.1:8080;
  252. }
  253. #所有静态文件由nginx直接读取不经过tomcat或resin
  254. location ~ .*.(htm|html|gif|jpg|jpeg|png|bmp|swf|ioc|rar|zip|txt|flv|mid|doc|ppt|
  255. pdf|xls|mp3|wma)$
  256. {
  257. expires 15d;
  258. }
  259. location ~ .*.(js|css)?$
  260. {
  261. expires 1h;
  262. }
  263. }
  264. }

11. Nginx静态资源?

静态资源访问,就是存放在nginx的html页面,我们可以自己编写

12. 如何用Nginx解决前端跨域问题?

使用Nginx转发请求。把跨域的接口写成调本域的接口,然后将这些接口转发到真正的请求地址。

13. Nginx虚拟主机怎么配置?

1、 基于域名的虚拟主机,通过域名来区分虚拟主机——应用:外部网站;

2、 基于端口的虚拟主机,通过端口来区分虚拟主机——应用:公司内部网站,外部网站的管理后台;

3、 基于ip的虚拟主机;

基于虚拟主机配置域名

需要建立/data/www /data/bbs目录,windows本地hosts添加虚拟机ip地址对应的域名解析;对应域名网站目录下新增index.html文件;

  1. #当客户端访问www.lijie.com,监听端口号为80,直接跳转到data/www目录下文件
  2. server {
  3. listen 80;
  4. server_name www.lijie.com;
  5. location / {
  6. root data/www;
  7. index index.html index.htm;
  8. }
  9. }
  10. #当客户端访问www.lijie.com,监听端口号为80,直接跳转到data/bbs目录下文件
  11. server {
  12. listen 80;
  13. server_name bbs.lijie.com;
  14. location / {
  15. root data/bbs;
  16. index index.html index.htm;
  17. }
  18. }

基于端口的虚拟主机

使用端口来区分,浏览器使用域名或ip地址:端口号 访问

  1. #当客户端访问www.lijie.com,监听端口号为8080,直接跳转到data/www目录下文件
  2. server {
  3. listen 8080;
  4. server_name 8080.lijie.com;
  5. location / {
  6. root data/www;
  7. index index.html index.htm;
  8. }
  9. }
  10. #当客户端访问www.lijie.com,监听端口号为80直接跳转到真实ip服务器地址 127.0.0.1:8080
  11. server {
  12. listen 80;
  13. server_name www.lijie.com;
  14. location / {
  15. proxy_pass http://127.0.0.1:8080;
  16. index index.html index.htm;
  17. }
  18. }

14. location的作用是什么?

location指令的作用是根据用户请求的URI来执行不同的应用,也就是根据用户请求的网站URL进行匹配,匹配成功即进行相关的操作。

location的语法能说出来吗?注意:~ 代表自己输入的英文字母

匹配符匹配规则优先级
=精确匹配1
^~以某个字符串开头2
~区分大小写的正则匹配3
~*不区分大小写的正则匹配4
!~区分大小写不匹配的正则5
!~*不区分大小写不匹配的正则6
/通用匹配,任何请求都会匹配到7

Location正则案例

示例:

  1. #优先级1,精确匹配,根路径
  2. location =/ {
  3. return 400;
  4. }
  5. #优先级2,以某个字符串开头,以av开头的,优先匹配这里,区分大小写
  6. location ^~ /av {
  7. root /data/av/;
  8. }
  9. #优先级3,区分大小写的正则匹配,匹配/media*****路径
  10. location ~ /media {
  11. alias /data/static/;
  12. }
  13. #优先级4 ,不区分大小写的正则匹配,所有的****.jpg|gif|png 都走这里
  14. location ~* .*\.(jpg|gif|png|js|css)$ {
  15. root /data/av/;
  16. }
  17. #优先7,通用匹配
  18. location / {
  19. return 403;
  20. }

15. 限流怎么做的?

Nginx限流就是限制用户请求速度,防止服务器受不了

限流有3种

1、 正常限制访问频率(正常流量);

2、 突发限制访问频率(突发流量);

3、 限制并发连接数;

Nginx的限流都是基于漏桶流算法,底下会说道什么是桶铜流

实现三种限流算法****1、正常限制访问频率(正常流量):

限制一个用户发送的请求,我Nginx多久接收一个请求。

Nginx中使用ngx_http_limit_req_module模块来限制的访问频率,限制的原理实质是基于漏桶算法原理来实现的。在nginx.conf配置文件中可以使用limit_req_zone命令及limit_req命令限制单个IP的请求处理频率。

  1. #定义限流维度,一个用户一分钟一个请求进来,多余的全部漏掉
  2. limit_req_zone $binary_remote_addr zone=one:10m rate=1r/m;
  3. #绑定限流维度
  4. server{
  5. location/seckill.html{
  6. limit_req zone=zone;
  7. proxy_pass http://lj_seckill;
  8. }
  9. }
  • 1r/s代表1秒一个请求,1r/m一分钟接收一个请求, 如果Nginx这时还有别人的请求没有处理完,Nginx就会拒绝处理该用户请求。
2、突发限制访问频率(突发流量):
  • 限制一个用户发送的请求,我Nginx多久接收一个。
  • 上面的配置一定程度可以限制访问频率,但是也存在着一个问题:如果突发流量超出请求被拒绝处理,无法处理活动时候的突发流量,这时候应该如何进一步处理呢?Nginx提供burst参数结合nodelay参数可以解决流量突发的问题,可以设置能处理的超过设置的请求数外能额外处理的请求数。我们可以将之前的例子添加burst参数以及nodelay参数:
  1. #定义限流维度,一个用户一分钟一个请求进来,多余的全部漏掉
  2. limit_req_zone $binary_remote_addr zone=one:10m rate=1r/m;
  3. #绑定限流维度
  4. server{
  5. location/seckill.html{
  6. limit_req zone=zone burst=5 nodelay;
  7. proxy_pass http://lj_seckill;
  8. }
  9. }

为什么就多了一个 burst=5 nodelay; 呢,多了这个可以代表Nginx对于一个用户的请求会立即处理前五个,多余的就慢慢来落,没有其他用户的请求我就处理你的,有其他的请求的话我Nginx就漏掉不接受你的请求

3、 限制并发连接数

  • Nginx中的ngx_http_limit_conn_module模块提供了限制并发连接数的功能,可以使用limit_conn_zone指令以及limit_conn执行进行配置。接下来我们可以通过一个简单的例子来看下:
  1. http {
  2. limit_conn_zone $binary_remote_addr zone=myip:10m;
  3. limit_conn_zone $server_name zone=myServerName:10m;
  4. }
  5. server {
  6. location / {
  7. limit_conn myip 10;
  8. limit_conn myServerName 100;
  9. rewrite / http://www.lijie.net permanent;
  10. }
  11. }

上面配置了单个IP同时并发连接数最多只能10个连接,并且设置了整个虚拟服务器同时最大并发数最多只能100个链接。当然,只有当请求的header被服务器处理后,虚拟服务器的连接数才会计数。刚才有提到过Nginx是基于漏桶算法原理实现的,实际上限流一般都是基于漏桶算法和令牌桶算法实现的。接下来我们来看看两个算法的介绍:

16. 漏桶流算法和令牌桶算法知道?

漏桶算法

  • 漏桶算法是网络世界中流量整形或速率限制时经常使用的一种算法,它的主要目的是控制数据注入到网络的速率,平滑网络上的突发流量。漏桶算法提供了一种机制,通过它,突发流量可以被整形以便为网络提供一个稳定的流量。也就是我们刚才所讲的情况。漏桶算法提供的机制实际上就是刚才的案例:突发流量会进入到一个漏桶,漏桶会按照我们定义的速率依次处理请求,如果水流过大也就是突发流量过大就会直接溢出,则多余的请求会被拒绝。所以漏桶算法能控制数据的传输速率。

令牌桶算法

  • 令牌桶算法是网络流量整形和速率限制中最常使用的一种算法。典型情况下,令牌桶算法用来控制发送到网络上的数据的数目,并允许突发数据的发送。Google开源项目Guava中的RateLimiter使用的就是令牌桶控制算法。令牌桶算法的机制如下:存在一个大小固定的令牌桶,会以恒定的速率源源不断产生令牌。如果令牌消耗速率小于生产令牌的速度,令牌就会一直产生直至装满整个令牌桶。

17. 为什么要做动静分离?

  • Nginx是当下最热的Web容器,网站优化的重要点在于静态化网站,网站静态化的关键点则是是动静分离,动静分离是让动态网站里的动态网页根据一定规则把不变的资源和经常变的资源区分开来,动静资源做好了拆分以后,我们则根据静态资源的特点将其做缓存操作。
  • 让静态的资源只走静态资源服务器,动态的走动态的服务器
  • Nginx的静态处理能力很强,但是动态处理能力不足,因此,在企业中常用动静分离技术。
  • 对于静态资源比如图片,js,css等文件,我们则在反向代理服务器nginx中进行缓存。这样浏览器在请求一个静态资源时,代理服务器nginx就可以直接处理,无需将请求转发给后端服务器tomcat。 若用户请求的动态文件,比如servlet,jsp则转发给Tomcat服务器处理,从而实现动静分离。这也是反向代理服务器的一个重要的作用。

18. Nginx怎么做的动静分离?

  • 只需要指定路径对应的目录。location/可以使用正则表达式匹配。并指定对应的硬盘中的目录。如下:(操作都是在Linux上)
  1. location /image/ {
  2. root /usr/local/static/;
  3. autoindex on;
  4. }

1、 创建目录;

  1. mkdir /usr/local/static/image

1、 进入目录;

  1. cd /usr/local/static/image
  1. 放一张照片上去#
  1. 1.jpg

1、 重启nginx;

  1. sudo nginx -s reload

1、 打开浏览器输入server_name/image/1.jpg就可以访问该静态图片了;

19. Nginx负载均衡的算法怎么实现的?策略有哪些?

  • 为了避免服务器崩溃,大家会通过负载均衡的方式来分担服务器压力。将对台服务器组成一个集群,当用户访问时,先访问到一个转发服务器,再由转发服务器将访问分发到压力更小的服务器。
  • Nginx负载均衡实现的策略有以下五种:

1轮询(默认)

  • 每个请求按时间顺序逐一分配到不同的后端服务器,如果后端某个服务器宕机,能自动剔除故障系统。
  1. upstream backserver {
  2. server 192.168.0.12;
  3. server 192.168.0.13;
  4. }

2权重 weight

  • weight的值越大分配
  • 到的访问概率越高,主要用于后端每台服务器性能不均衡的情况下。其次是为在主从的情况下设置不同的权值,达到合理有效的地利用主机资源。
  1. upstream backserver {
  2. server 192.168.0.12 weight=2;
  3. server 192.168.0.13 weight=8;
  4. }
  • 权重越高,在被访问的概率越大,如上例,分别是20%,80%。

3ip_hash( IP绑定)

  • 每个请求按访问IP的哈希结果分配,使来自同一个IP的访客固定访问一台后端服务器, 并且可以有效解决动态网页存在的session共享问题
  1. upstream backserver {
  2. ip_hash;
  3. server 192.168.0.12:88;
  4. server 192.168.0.13:80;
  5. }

4fair(第三方插件)

  • 必须安装upstream_fair模块。
  • 对比 weight、ip_hash更加智能的负载均衡算法,fair算法可以根据页面大小和加载时间长短智能地进行负载均衡,响应时间短的优先分配。
  1. upstream backserver {
  2. server server1;
  3. server server2;
  4. fair;
  5. }
  • 哪个服务器的响应速度快,就将请求分配到那个服务器上。

**5、url_hash(第三方插件)**必须安装Nginx的hash软件包按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,可以进一步提高后端缓存服务器的效率。

  1. upstream backserver {
  2. server squid1:3128;
  3. server squid2:3128;
  4. hash $request_uri;
  5. hash_method crc32;
  6. }

20. Nginx配置高可用性怎么配置?

  • 当上游服务器(真实访问服务器),一旦出现故障或者是没有及时相应的话,应该直接轮训到下一台服务器,保证服务器的高可用
  • Nginx配置代码:
  1. server {
  2. listen 80;
  3. server_name www.lijie.com;
  4. location / {
  5. ### 指定上游服务器负载均衡服务器
  6. proxy_pass http://backServer;
  7. ###nginx与上游服务器(真实访问的服务器)超时时间 后端服务器连接的超时时间_发起握手等候响应超时时间
  8. proxy_connect_timeout 1s;
  9. ###nginx发送给上游服务器(真实访问的服务器)超时时间
  10. proxy_send_timeout 1s;
  11. ### nginx接受上游服务器(真实访问的服务器)超时时间
  12. proxy_read_timeout 1s;
  13. index index.html index.htm;
  14. }
  15. }

21. Nginx怎么判断别IP不可访问?

  1. # 如果访问的ip地址为192.168.9.115,则返回403
  2. if ($remote_addr = 192.168.9.115) {
  3. return 403;
  4. }

22. 怎么限制浏览器访问?

  1. ## 不允许谷歌浏览器访问 如果是谷歌浏览器返回500
  2. if ($http_user_agent ~ Chrome) {
  3. return 500;
  4. }

23. Rewrite全局变量是什么?

变量含义
$args这个变量等于请求行中的参数,同$query_string
$content length请求头中的Content-length字段。
$content_type请求头中的Content-Type字段。
$document_root当前请求在root指令中指定的值。
$host请求主机头字段,否则为服务器名称。
$http_user_agent客户端agent信息
$http_cookie客户端cookie信息
$limit_rate这个变量可以限制连接速率。
$request_method客户端请求的动作,通常为GET或POST。
$remote_addr客户端的IP地址。
$remote_port客户端的端口。
$remote_user已经经过Auth Basic Module验证的用户名。
$request_filename当前请求的文件路径,由root或alias指令与URI请求生成。
$schemeHTTP方法(如http,https)。
$server_protocol请求使用的协议,通常是HTTP/1.0或HTTP/1.1。
$server_addr服务器地址,在完成一次系统调用后可以确定这个值。
$server_name服务器名称。
$server_port请求到达服务器的端口号。
$request_uri包含请求参数的原始URI,不包含主机名,如”/foo/bar.php?arg=baz”。
$uri不带请求参数的当前URI,
$uri不包含主机名,如”/foo/bar.html”。
$document_uri与$uri相同。
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/神奇cpp/article/detail/772919
推荐阅读
相关标签
  

闽ICP备14008679号