当前位置:   article > 正文

Nginx性能优化配置_worker_processes auto

worker_processes auto

一、全局优化

  1. # 工作进程数
  2. worker_processes auto; # 建议 CPU核心数|CPU线程数
  3. # 最大支持的连接(open-file)数量;最大值受限于 Linux open files (ulimit -n)
  4. # 建议公式:worker_rlimit_nofile > worker_processes * worker_connections
  5. worker_rlimit_nofile 65535;
  6. events {
  7. use epoll; # 高效的IO多路复用(RedHat6+ 都支持 epoll)
  8. multi_accept on; # 设置一个进程是否同时接受多个网络连接
  9. worker_connections 10240; # 单个工作进程,可承载的最大连接数;
  10. }

二、 与客户端之间的优化

 

  1. http {
  2. ###### 零拷贝技术
  3. sendfile on; # 开启不读到(应用本身)内存,直接通过系统发出数据
  4. #sendfile_max_chunk 2m; # 每个进程每次调用传输数量不能大于设定的值,默认0为无上限。
  5. ###### 网络传输
  6. # on:累积到一定容量的数据再发,发送次数少
  7. # off:有数据就发,发送次数多,占用网络资源
  8. tcp_nopush on;
  9. ###### 长连接;用户端比较分散,keepalive 默认值已经足够,个人不建议重设
  10. ###### 响应数据 开启压缩模式
  11. gzip on;
  12. gzip_vary on; # 为兼容老浏览器,追加到Header的压缩标注
  13. gzip_proxied any; # 所有代理请求都压缩,也可指定类型
  14. gzip_comp_level 2; # 压缩等级1-9(比例)等级越大 压缩越高 越耗CPU
  15. gzip_min_length 128; # 压缩前提,当返回内容大于指定时再压缩
  16. gzip_types text/css text/xml image/svg+xml; # 指定压缩的文件类型;更多压缩项可参考 mime.types
  17. }

 三、 与后端服务之间的优化

  1. http {
  2. upstream backend_A {
  3. # ...
  4. # 长连接;所有请求汇聚到后端服务器,并发时是有必要在此基础上重配 keepalive 的
  5. # 以下 keepalive 需要 http 1.1 版本,并且 header connection close
  6. keepalive 100; # 每个Worker与后端的连接池中,保持指定量的空闲连接数(QPS的10%)
  7. keepalive_time 1h; # 每个长连接的(忙碌+空闲)总时长,超出后强制失效
  8. keepalive_timeout 60s; # 每个长连接,最大空闲时长,超出后自动关闭长连接
  9. keepalive_requests 1000; # 每次长连接支持的 Request 次数,超出后自动关闭
  10. }
  11. server {
  12. location \ {
  13. proxy_pass http://backend_A;
  14. proxy_http_version 1.1; # 1.1 支持 keep-live
  15. proxy_set_header connection ""; # 覆盖客户端的连接头
  16. }
  17. }
  18. }

四、 扩展优化

多级缓存:通过 Nginx 实现各种缓存的配置,浏览器缓存、CDN缓存、Nginx内存、代理缓存、后端服务应用缓存等。

资源静态化 ssi 模块:请求结果生成静态页,Nginx设置拦截,更多的请求直接读静态页后返回;减少后端请求,定时生成静态页。

静态资源同步 rsync:每台服务都安装,监控目录变化,把生成的静态页推送到多台服务器。

合并请求 concat 第三方模块:将多个静态资源文件 合并为一次请求加载完成,减少并发量;淘宝示例:??xxx.js,yyy.js,zzz.js

五、优化项梳理

 

1、worker_processes 工作进程最大连接数

worker进程数(worker_processes )默认为 1 ,单进程最大连接数(worker_connections)为1024

  • 每个 worker 进程都是单线程的进程,它们会调用各个模块以实现多种多样的功能

  • 如果这些模块确认不会出现阻塞式的调用,那么有多少CPU内核就应该配置多少个进程

  • 反之,如果有可能出现阻塞式调用,那么需要配置稍多一些的worker进程

例如:如果业务方面会致使 用户请求 大量读取 本地磁盘上的静态资源文件,而且服务器上的内存较小,以至于 大部分的请求 访问 静态资源文件 时,都必须读取磁盘(磁头的寻址是缓慢的),而不是内存中的磁盘缓存,那么磁盘 IO 调用可能会 阻塞 住 worker 进程少量时间,进而导致服务整体性能下降。

运行工作进程个数一般设置CPU的核心或者核心数x2

如果不了解CPU的核数,可以top命令后按1来看

  1. # 编辑ng的配置文件
  2. > vi /usr/local/nginx/conf/nginx.conf
  3. > worker_processes 4;
  4. # 保存退出
  5. # 重新加载ng配置文件
  6. > /usr/local/nginx/sbin/nginx-s reload
  7. # 查看进程情况
  8. > ps -aux | grep nginx |grep -v grep

2、worker_cpu_affinity工作进程绑定CPU内核 

假定每一个 worker 进程都是非常繁忙的,如果多个 worker 进程都在抢同一个 CPU,那么这就会出现 同步问题。

反之,如果每一个 worker 进程都独享一个 CPU,就在 内核的调度 策略上实现了完全的 并发。

注意:worker_cpu_affinity 配置仅对 Linux 操作系统有效。

  1. # 如:如果有`2`颗`CPU`内核,就可以进行如下配置
  2. worker_processes 2;
  3. worker_cpu_affinity 10 01;
  4. # 如:如果有`4`颗`CPU`内核,就可以进行如下配置
  5. worker_processes 4;
  6. worker_cpu_affinity 1000 0100 0010 0001;
  7. # 如:如果有`8`颗`CPU`内核,就可以进行如下配置
  8. worker_processes 8;
  9. worker_cpu_affinity 00000001 00000010 00000100 0000100000010000 00100000 01000000 10000000;

8个以上性能不会再提升了,而且稳定性变得更低,所以worker_processes 最多开8个就可以了。

3、worker_rlimit_nofile打开文件的最大限制

每个进程的最大文件打开数,所以最好与ulimit -n的值保持一致。

linux一切皆文件,每一次用户发起请求就会生成一个文件句柄,文件句柄可以理解为就是一个索引,所有文件句柄就会随着请求量的增多,而进程调用的频率增加,文件句柄的产生就会越多,系统对文件句柄默认的限制是1024个,对于nginx来说需要改大一点。

4、work_connections连接数

work_connections表示每个worker(子进程)可以创建多少个连接,默认1024,最大是65535

worker_connections的数值根据操作系统允许打开的最大文件数目设定。

从用户的角度,http 1.1协议下,由于浏览器默认使用两个并发连接,因此计算方法:

  • nginx作为http服务器

max_clients = worker_processes * worker_connections/2

  • nginx作为反向代理服务器:

max_clients = worker_processes * worker_connections/4

为啥除以4呢?

因为在反向代理时,浏览器会和nginx建立2条连接,nginx也会建立对应的2条连接到后端服务器,所以需要除以4。

5、连接超时时间设置

主要目的是保护服务器资源,CPU,内存,控制连接数,因为建立连接也是需要消耗资源的。

  1. keepalive_timeout 60;
  2. tcp_nodelay on;
  3. client_header_buffer_size 4k;
  4. open_file_cache max=102400 inactive=20s;
  5. open_file_cache_valid 30s;
  6. open_file_cache_min_uses 1;
  7. client_header_timeout 15;
  8. client_body_timeout 15;
  9. reset_timeout_connection on;
  10. send_timeout 15;
  11. server_tokens off;
  12. client_max_body_size 10m;
  • keepalive_timeout:客户端连接保持会话超时时间,超过这个时间,服务器断开这个链接。

  • tcp_nodelay:也是防止网络阻塞,需要keepalived参数。

  • client_header_buffer_size:客户端请求头部的缓冲区大小,这个可以根据系统分页大小来设置,一般一个请求头的大小不会超过1k,不过由于一般系统分页都要大于1k,所以这里设置为分页大小。分页大小可以用命令getconf PAGESIZE取得。

  • open_file_cache:这个将为打开文件指定缓存,默认是没有启用的,max指定缓存数量,建议和打开文件数一致,inactive 是指经过多长时间文件没被请求后删除缓存。

  • open_file_cache_valid:这个是指多长时间检查一次缓存。

  • open_file_cache_min_uses:open_file_cache指令中的inactive 参数时间内文件的最少使用次数,如果超过这个数字,文件描述符一直是在缓存中打开的。

  • client_header_timeout:设置请求头的超时时间。也可以把这个设置低些,如果超过这个时间没有发送任何数据,nginx将返回request time out的错误。

  • client_body_timeout:设置请求体的超时时间。可以把这个设置低些,超过这个时间没有发送任何数据,和上面一样的错误提示。

  • reset_timeout_connection:告诉nginx关闭不响应的客户端连接。这将会释放那个客户端所占有的内存空间。

  • send_timeout:响应客户端超时时间,这个超时时间仅限于两个活动之间的时间,如果超过这个时间,客户端没有任何活动,nginx关闭连接。

  • server_tokens:关闭nginx版本,符合等保要求。

  • client_max_body_size:上传文件大小限制。

6、GZIP压缩设置

  1. gzip on;
  2. gzip_min_length 1k;
  3. gzip_buffers 4 32k;
  4. gzip_http_version 1.1;
  5. gzip_comp_level 6;
  6. gzip_types text/plain text/css text/javascript application/json application/javascript;
  7. gzip_vary on;
  • gzip_min_length:设置允许压缩的页面最小字节数,页面字节数从header头的Content-Length中获取,默认值是0,不管页面多大都进行压缩,建议设置成大于1K。

  • gzip_buffers:压缩缓冲区大小,表示申请4个单位为32K的内存作为压缩结果流缓存,默认值是申请与原始数据大小相同的内存空间来存储gzip压缩结果。

  • gzip_http_version:压缩版本,用于设置识别HTTP协议版本,默认是1.1,目前大部分浏览器已经支持GZIP解压,使用默认即可。

  • gzip_comp_level:压缩比例,用来指定GZIP压缩比,1压缩比最小,处理速度最快,9压缩比最大,传输速度快,但是处理慢,也比较消耗CPU资源。

  • gzip_types text/css text/xml application/javascript:用来指定压缩的类型,text/html类型总是会被压缩

  • gzip_vary:  varyheader支持,此选项可以让前端的缓存服务器缓存经过GZIP压缩的页面,例如用Squid缓存经过nginx压缩的数据。

注意:gzip_types 默认是不压缩css和js的。

7、proxy超时设置

  • proxy_connect_timeout:后端服务器连接的超时时间

  • proxy_send_timeout:后端服务器数据回传时间

  • proxy_read_timeout:连接成功后,等候后端服务器响应时间

  • proxy_buffers:4是数量,32k是大小。该指令设置缓存区的大小和数量,从被代理的后端服务器取得的第一部分响应内容,会放置到这里,默认情况下,一个缓存区的大小等于内存页面大小,可能是4k也可能是8k取决于平台。

  • proxy_busy_buffers_size:nginx分配一部分缓冲区来用于向客户端发送数据。大小通常是proxy_buffers单位大小的两倍,默认是8k/16k。

8、proxy_set_header配置

它用来设定被代理服务器接收到的header信息。

proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;用来设置被代理端接收到的远程客户端IP,如果不设置,则header信息中并不会透传远程真实客户端的IP地址。

也可以加一写安全校验字段。

Access-Log缓存

  1. # 工作进程数
  2. worker_processes auto; # 建议 CPU核心数|CPU线程数
  3. # 最大支持的连接(open-file)数量;最大值受限于 Linux open files (ulimit -n)
  4. # 建议公式:worker_rlimit_nofile > worker_processes * worker_connections
  5. worker_rlimit_nofile 65535;
  6. events {
  7. use epoll; # 高效的IO多路复用(RedHat6+ 都支持 epoll)
  8. multi_accept on; # 设置一个进程是否同时接受多个网络连接
  9. worker_connections 10240; # 单个工作进程,可承载的最大连接数;
  10. }

9、Access-Log缓存 

access_log /mnt/logs/nginx-access.log buffer=64k gzip flush=1m
  • buffer 设置指定要使用的缓冲区的大小

  • flush 多长时间后把缓冲区中的条目写入文件

记录日志的I/O开销比较高,可以利用这个功能,降低写日志文件的频率,从而提高性能。

10、Expires缓存

  1. # 增加客户端过期请求,可以路径,也可以是文件夹
  2. location ~ ^/(images|javascript|js|css|media|static)/ {
  3. expires 360d;
  4. }

一般通过这个配置,缓存图片/JS/CSS等静态文件到浏览器,减少每次的网络请求,加快网页浏览速度。

  1. proxy_cache_path /data/nginx/cache levels=1:2 keys_zone=page_cache:10m inactive=1d max_size=200M;
  2. server {
  3. location / {
  4. proxy_cache page_cache;
  5. proxy_pass http://backend;
  6. proxy_cache_bypass $http_pragma;
  7. proxy_cache_purge page_cache "$scheme$request_method$proxy_host$request_uri";
  8. proxy_no_cache $cookie_nocache $arg_nocache$arg_comment;
  9. proxy_cache_min_uses 90;
  10. }
  11. }

11、静态资源防盗链 

防盗链:通过在其自身网站程序里调用其他网站的资源,然后在自己的网站上显示这些调用的资源,使得被盗链的那一端消耗带宽资源。

  • 通过 HTTP referer实现防盗链

  • 水印,品牌宣传,你的带宽,服务器足够

  • 防火墙,直接控制,前提是你知道IP来源

  • 防盗链策略下面的方法是直接给予404的错误提示

#第一种,匹配后缀location ~ .*.(gif|jpg|jpeg|png|bm|swf|flv|rar|zip|gz|bz2)$ { # 指定需要使用防盗链的媒体资源 access_log off; # 不记录日志 expires 15d; # 设置缓存时间 valid_referers none blocked *.test.com *.abc.com; # 表示仅允许这些域名访问上面的媒体资源 if ($invalid_referer) { # 如果域名不是上面指定的地址就返回403    return 403 }}
#第二种,绑定目录location /images {  root /web/www/img; vaild_referers none blocked *.test.com *.abc.com; if ($invalid_referer) { return 403; }}

参数说明

  • none :不存在的Referer头(直接访问,比如直接在浏览器打开一个图片)

  • blocked :意为根据防火墙伪装Referer头,如:“Referer:XXXX”

  • server_names :为一个或多个服务器的列表

12、非法user_agent拦截

进入到Nginx安装目录下的conf目录,编写代码为 agent_deny.conf

 切换到ng安装目录> cd ../nginx/conf# 新配置文件> vim agent_deny.conf
#禁止Scrapy等工具的抓取if ($http_user_agent ~* (Scrapy|Curl|HttpClient)) {     return 403;}#禁止指定UA及UA为空的访问if ($http_user_agent ~ "FeedDemon|JikeSpider|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Python-urllib|lightDeckReports Bot|YYSpider|DigExt|YisouSpider|HttpClient|MJ12bot|heritrix|EasouSpider|Ezooms|^$" ) {     return 403;            }#禁止非GET|HEAD|POST方式的抓取if ($request_method !~ ^(GET|HEAD|POST)$) {    return 403;}

将此文件添加到nginx.conf

  1. > cd ../
  2. > vi nginx.conf
  3. include agent_deny.conf
  4. # 保存,退出,重启
  5. > ./nginx -s reload

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/423852
推荐阅读
相关标签
  

闽ICP备14008679号