美文网首页
nginx优化配置及方法论

nginx优化配置及方法论

作者: 心似南风 | 来源:发表于2020-08-07 14:13 被阅读0次

    1、优化方法论

    从软件层面提升硬件使用效率

    • 增大CPU的利用率
    • 增大内存的利用率
    • 增大磁盘IO的利用率
    • 增大网络带宽的利用率

    提升硬件规格

    • 网卡:万兆网卡,例如10G, 25G, 40G等
    • 磁盘:固态硬盘
    • CPU:更快的主频,更多的核心,更大的缓存,更优的架构
    • 内存:更快的访问速度

    2、Nginx相关优化配置

    2.1如何增大Nginx使用CPU的有效时长

    能够使用全部CPU资源

    • master-worker多进程架构
      worker进程数量应当小于等于CPU核数

    Nginx进程间不做无用功浪费CPU资源

    • worker进程不应在繁忙时,主动让出CPU
    • worker进程间不应由于争抢造成资源耗散
    • worker进程数量应当等于CPU核数
    • worker进程不应调用一些API导致主动让出CPU
      比如使用openresty调用第三方模块

    不被其他进程争抢资源

    • 提升优先级占用CPU更长的时间
    • 减少操作系统上耗资源的非Nginx进程

    设置worker进程的数量

    通过合理的设置worker的进程数量,提高cpu利用率,cpu设置等于或者小于核数
    查看cpu核数的方法 grep "processor" /proc/cpuinfo |wc -l

    Syntax: worker processes number auto;
    Default: worker_processes 1;
    Context: main
    

    为何一个CPU就可以同时运行多个进程?

    • 宏观上并行,微观上串行
    • 把进程的运行时间分为一段段的时间片
    • OS调度系统依次选择每个进程,最多执行时间片指定的时长


      image.png
    • 阻塞API引发的时间片内主动让出CPU
      -速度不一致引发的阻塞API
      -硬件执行速度不一致,例如CPU和磁盘
    • 业务场景产生的阻塞API
      -例如同步读网络报文

    2.2、减少进程间切换

    -何为进程间切换
    • 是指CPU从一个进程或线程切换到另一个进程或线程
    • 类别
    • 主动切换
    • 被动切换:时间片耗尽
    • 减少被动切换
    • 增大进程优先级

    2.2.1、减入被动进程间切换的配置-设置worker进程优先级
    nginx默认是没有开启利用多核cpu的配置的。需要通过增加worker_cpu_affinity配置参数来充分利用多核cpu
    当CPU在运行的时候,如果一颗CPU始终固定的去运行同一个进程,当用户连接到进程的时候,用固定的CPU响应用户的请求,CPU中有缓存,就可以重复的使用CPU中缓存的数据。如果进程一开始运行在第一颗CPU上,运行一会跑到第二颗CPU上,就意味着原来的缓存信息在第二颗CPU上无法使用,还需要重新加载,带来资源的浪费,影响效率
    绑定Nginx worker进程到指定的CPU内核

    Syntax: worker_cpu_affinity cpumask
    worker_cpu_affinity auto [cpumask];
    Default: -;
    Context: main
    

    2.3Nginx 事件处理模型优化

    Nginx 的连接处理机制在不同的操作系统中会采用不同的 I/O 模型,在 linux 下,Nginx 使用 epoll 的 I/O 多路复用模型,在 Freebsd 中使用 kqueue 的 I/O 多路复用模型 不过这个选项没必要设置,因为nginx会自动选择最有效的方法作为默认项

    Syntax: use method;
    Default: —
    Context: events
    

    2.4.单个进程允许的客户端最大连接数

    通过调整控制连接数的参数来调整 Nginx 单个进程允许的客户端最大连接数,更多的worker的connection数量对会占用更多的内存,一般一个connection约232字节,而且event也约96字节,一个连接就是232+96*2

    Syntax: worker_connections number;
    Default: 1024
    Context: events
    

    2.5 配置Nginx worker进程最大打开文件数

    Syntax: worker_rlimit_nofile number;
    Default: -
    Context: events
    

    上面两个参数都受最大文件句柄数限制,当运行的服务需要大并发进程运行时,如果不够,就会报出“too many open files” file-max是内核可分配的最大文件数可通过 cat /proc/sys/fs/file-max 查看nr_open是单个进程可分配的最大文件数 可通过 cat /proc/sys/fs/nr_open 查看但是也不是不可修改可通过编辑/proc/sys/fs/file-max 修改 echo 30296 > /proc/sys/fs/file-max 单个进程分配文件数如上操作

    2.6 修改用户的最大文件句柄数限制

    临时修改 ulimit -HSn limit
    永久修改 vi /etc/security/limits.conf
    -H选项和-S选项分别表示对给定资源的硬限制(hard limit)和软限制(soft limit)进行设置。
    硬限制(hard limit)一旦被设置以后就不能被非root用户修改,软限制(soft limit)可以增长达到硬限制(hard limit)。
    如果既没有指定-H选项也没有指定-S选项,那么硬限制(hard limit)和软限制(soft limit)都会被设置。

    总结:

    • a.所有进程打开的文件描述符数不能超过/proc/sys/fs/file-max
    • b.单个进程打开的文件描述符数不能超过user limit中nofile的soft limit
    • c.nofile的soft limit不能超过其hard limit
    • d. nofile的hard limit不能超过/proc/sys/fs/nr_open

    3. 网络相关

    什么是SYN攻击?

    攻击者短时间伪造不同IP地址的SYN报文,快速占满backlog队列,使服务器不能为正常用户服务,SYN攻击是所有黑客攻击事件中最常见又最容易被利用的一种攻击手法,由来已久,破坏威力巨大。SYN攻击属于DOS攻击的一种, 它利用TCP协议缺陷,通过发送大量的半连接请求,耗费CPU和内存资源

    TCP连接握手示意图

    image.png

    SYN_SENT 状态

    • net.ipv4.tcp_syn_retries = 6
    -主动建立连接时,发SYN的重试次数
    • net.ipv4.ip_local_port_range = 32768 60999
    -建立连接时本地口可用范围

    SYN_RCVD 状态

    • net.ipv4.tcp_max_syn_backlog
    -SYN_RCVD状态连接的最大数
    • net.ipv4.tcp_synack_retries
    -被动建立连接时,发SYN/ACK的重试次数


    image.png

    如何应对SYN攻击?
      SYN攻击的原理就是向服务器发送SYN数据包,并伪造源IP地址。服务器在收到SYN数据包时,会将连接加入backlog队列,并向源IP发送SYN-ACK数据包,并
    等待ACK数据包,以完成三次握手建立连接。 由于源IP地址是伪造的不存在主机IP,所以服务器无法收到ACK数据包,并会不断重发,同时backlog队列被不断被
    攻击的SYN连接占满,导致无法处理正常的连接小号cpu资源。
    1、减少SYN-ACK数据包的重发次数(默认是5次)
    sysctl -w net.ipv4.tcp_synack_retries=3
    sysctl -w net.ipv4.tcp_syn_retries=3
    2、增大backlog队列(默认是1024)
    • net.core.netdev_max_backlog
    -接收自网卡、但未被内核协议栈处理的报文队列长度
    • net.ipv4.tcp_max_syn_backlog
    -SYN_RCVD状态连接的最大个数
    sysctl -w net.ipv4.tcp_max_syn_backlog=2048
    3、超出处理能力时,对新来的SYN丢弃连接
    • net.ipv4.tcp_abort_on_overflow
    4、生成验证cookie,重连
    • net.ipv4.tcp_syncookies = 1
    -当SYN队列满后,新的SYN不进A队列,计算出cookie再以SYN+ACK中的序列号返回客户端,正常客户端发报文时,服
    务端根据报文中携带的cookie重新恢复连接
    注意:synccookies是妥协版的TCP协议,失去了很多功能,所以先应优化服务端应用程序的负载能力,加大应用程序 backlog值

    Tcp Fast Open

    开启TFO,加速tcp处理


    image.png

    net.ipv4.tcp_fastopen :系统开启TFO功能
    • 0 :关闭
    • 1 :作为客户端时可以使用TFO
    • 2 :作为服务器时可以使用TFO
    • 3 :无论作为客户端还是服务器,都可以使用TFO

    禁用Nagle算法?

    • Nagle算法
      -避免一个连接上同时存在大量小报文 . 最多只存在要给小报文 . 合并多个小报文一起发送
      -提高带宽利用率
      吞吐量优先:启用Nagle算法,tcp_nodelay off
      低时延优先:禁用Nagle算法,tcp_nodelay on

    示例:禁用跟启用Nagle算法示意


    image.png
    image.png
    Syntax: tcp_nodelay on | off;
    Default: tcp_nodelay on;
    Context: http, server, location
    

    Gzip指令

    nginx中gzip的主要作用就是用来减轻服务器的带宽问题,经过gzip压缩后的页面大小可以变为原来的30%甚至更小,这样用户浏览页面时的速度会快很多。gzip的压缩页面需要浏览器和服务器双方都支持,实际上就是服务器端压缩,传到浏览器后浏览器解压缩并解析。目前的大多数浏览器都支持解析gzip压缩过的页面。

    参数说明:

    语法:gzip on | off;
    默认值:gzip off;
    作用域:http, server, location, if in location
    语法:gzip_min_length length;
    默认值:gzip_min_length 20;
    作用域:http, server, location
    说明:
    设置允许压缩的页面最小字节数,页面字节数从header头中的Content-Length中进行获取。因为过小的文件内容压缩之后效果不明显,甚至会比不压缩时
    更大,所以一般建议长度不小于1000或1k。
    响应头响应浏览器使用gzip解压


    image.png
    • gzip_buffers
      语法: gzip_buffers number size;
      默认值: gzip_buffers 32 4k|16 8k;
      作用域: http, server, location
      说明:
      设置response响应的缓冲区大小。32 4k代表以4k为单位将响应数据以4k的32倍(128k)的大小申请内存。如果没有设置,缓冲区的大小默认为整个响应页
      面的大小。

    • gzip_comp_level
      语法:gzip_comp_level level;
      默认值:gzip_comp_level 1;
      作用域:http, server, location
      说明:
      设置gzip的压缩级别,可接受的范围是从1到9,数字越大压缩率越高,但更消耗CPU,一般设置6即可。

    • gzip_types
      语法:gzip_types mime-type ...;
      默认值:gzip_types text/html;
      作用域:http, server, location
      说明:
      指定哪些类型的相应才启用gzip压缩,多个用空格分隔。通配符”*”可以匹配任意类型。
      不管是否指定”text/html”类型,该类型的响应总是启用压缩。
      一般js、css等文本文件都启用压缩,如application/x-javascript text/css application/xml 等。
      具体的文件类型对应的mimi-type可以参考conf/mime.types文件。

    • gzip_http_version
      语法:gzip_http_version 1.0 | 1.1;
      默认值:gzip_http_version 1.1;
      作用域:http, server, location
      说明:
      设置gzip压缩所需要的请求的最小HTTP版本,低于该版本不使用gzip压缩。一般不用修改,默认即可。

    • gzip_disable
      gzip_disable “MSIE [1-6].”
      语法:gzip_disable regex ...;
      默认值:—
      作用域:http, server, location
      说明:
      这个指令是在0.6.23版本增加的。
      如果请求的”User-Agent”头信息能被指定的正则表达式匹配,则对响应禁用gzip压缩功能。主要是为了兼容不支持gzip压缩的浏览器,比如IE6,不过IE6早就废弃了

    浏览器和服务器进行gzip压缩的请求和处理返回过程

    image.png
    整个请求过程来看,开启 gzip 和不开启 gzip 功能,其 http 的请求和返回过程是一致的,不同的是参数。
    当开启HTTP的 gzip 功能时,客户端发出 http 请求时,会通过 headers 中的 Accept-Encoding 属性告诉服务器“我支持 gzip 解压,解压格式(算法)
    deflate , sdch 为:”。```Accept-Encoding:gzip,deflate,sdch`

    注意,不是request说自己支持解压,Nginx返回response数据的时候就一定会压缩。这还要看本次Nginx返回数据的格式是什么,如果返回数据的原始数据格式,和设置的gzip_types相符合,这时Nginx才会进行压缩。
    Nginx 返回 response headers 是,如果数据被压缩了,就会在 Content-Encoding属性中标示 gzip ,表示接下来返回的 response
    content 是经过压缩的;并且在 Content-Type 属性中表示数据的原始格式。 最后返回经过压缩的 response content 给客户端,客户端再进行解压。这里注意一下,在客户端发送的 headers 里面,有一个 deflate,sdch 。这是两种压缩算法

    • 减少磁盘IO
    • 优化读取
    • Sendfile 零拷贝
    • 内存盘、SSD盘
    • 减少写入
    • AIO
    • 增大 error_log级别
    • 关闭 access_log
    • 压缩 access_log
    • 是否启用proxy buffering?
    • syslog 替代本地IO
    • 线程池thread pool

    直接IO绕开磁盘高速缓存

    先看下概念


    image.png

    适用于大文件:直接IO

    当磁盘上的文件大小超过size后,启用directIO功能,避免Buffered IO模式下磁盘页缓存中的拷贝消耗

    Syntax: directio size | off;
    Default: directio off;
    Context: http, server, location
    Syntax: directioaligiunent 512;
    Default: directioalignment size;
    Context: http, server, location
    
    image.png
    Syntax: aio on | off | threads[=pool];
    Default: aio off;
    Context: http, server, location
    
    • 异步读IO线程池
      编译时需要加上 --with-threads


      image.png
    • 定义线程池
      根据前面的了解,如果我们的服务器是个静态资源服务器,就适合使用异步IO线程池 Syntax: thread_pool name threads=number [max_queue=number];
      Default:thread_pool default threads=32 max_queue=65536; Context:main

    • sendfile零拷贝提升性能
      减少内存拷贝次数


      image.png

    相关文章

      网友评论

          本文标题:nginx优化配置及方法论

          本文链接:https://www.haomeiwen.com/subject/gpkhdktx.html