美文网首页
nginx知识

nginx知识

作者: 栗子daisy | 来源:发表于2020-08-31 10:11 被阅读0次

原文:前端开发者必备的 Nginx 知识

nginx是一个高性能的HTTP和反向代理服务器,也是一个通用的TCP/UDP代理服务器,最初由俄罗斯人Igor Sysoev编写。
nginx在应用程序中的作用: 解决跨域、 请求过滤、配置gzip、 负载均衡、 静态资源服务器

nginx现在几乎是众多大型网站的必用技术,大多数情况下,我们不需要亲自去配置它,但是了解它在应用程序中所担任的角色,以及如何解决这些问题是非常必要的。

下面我将从nginx在企业中的真实应用来解释nginx在应用程序中起到的作用。

为了便于理解,首先先来了解一下一些基础知识, nginx是一个高性能的反向代理服务器那么什么是反向代理呢?

正向代理与反向代理

代理是在服务器和客户端之间假设的一层服务器,代理将接收客户端的请求并将它转发给服务器,然后将服务端的响应转发给客户端。

不管是正向代理还是反向代理,实现的都是上面的功能。
一句话解释正向代理,正向代理的对象是客户端,服务器端看不到真正的客户端。
一句话解释反向代理,反向代理的对象是服务端,客户端看不到真正的服务端。
(我们通过第三方服务器访问服务器集群的内容,但是我们并不知道是哪一台服务器提供的内容)


image

正向代理

正向代理,意思是一个位于客户端和原始服务器(origin server)之间的服务器,为了从原始服务器取得内容,客户端向代理发送一个请求并指定目标(原始服务器),然后代理向原始服务器转交请求并将获得的内容返回给客户端。

正向代理是为我们服务的,即为客户端服务的,客户端可以根据正向代理访问到它本身无法访问到的服务器资源。

正向代理对我们是透明的,对服务端是非透明的,即服务端并不知道自己收到的是来自代理的访问还是来自真实客户端的访问。

反向代理

反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个反向代理服务器。

反向代理是为服务端服务的,反向代理可以帮助服务器接收来自客户端的请求,帮助服务器做请求转发,负载均衡等。

反向代理对服务端是透明的,对我们是非透明的,即我们并不知道自己访问的是代理服务器,而服务器知道反向代理在为他服务。

webpack中proxy配置(反向代理): 该配置是为了解决前后端联调时出现的跨域问题,将后端域名下的请求代理到本地,从而避免跨域请求;

        '/api/': {  //在本地新建一个/api的访问路径
                target:'http://baidu.com/',//要访问的接口域名
                changeOrigin:true,//是否跨域
                pathRewrite: {//在代理过程中是否替换掉/api/路径
                '^/api/':''
            }
        },

请求地址解析:此时访问的接口地址在本地被解析为 localhost:80/api/***
访问的真实地址是http://baidu.com/***

基本配置

配置结构

下面是一个nginx配置文件的基本结构:

image
events {
}
http
{
    server
    {
        location path
        {
            ...
        }
        location path
        {
            ...
        }
     }
    server
    {
        ...
    }
}
  • main:nginx的全局配置,对全局生效。
  • events:配置影响nginx服务器或与用户的网络连接。
  • http:可以嵌套多个server,配置代理,缓存,日志定义等绝大多数功能和第三方模块的配置。
  • server:配置虚拟主机的相关参数,一个http中可以有多个server。
  • location:配置请求的路由,以及各种页面的处理情况。
  • upstream:配置后端服务器具体地址,负载均衡配置不可或缺的部分。

内置变量

下面是 nginx一些配置中常用的内置全局变量,你可以在配置的任何位置使用它们。

变量名 功能
$host 请求信息中的 Host,如果请求中没有 Host行,则等于设置的服务器名
$request_method 客户端请求类型,如 GETPOST
$remote_addr 客户端的 IP地址
$args 请求中的参数
$content_length 请求头中的 Content-length字段
$http_user_agent 客户端agent信息
$http_cookie 客户端cookie信息
$remote_addr 客户端的IP地址
$remote_port 客户端的端口
$server_protocol 请求使用的协议,如 HTTP/1.0、·HTTP/1.1`
$server_addr 服务器地址
$server_name 服务器名称
$server_port 服务器的端口号

解决跨域

先追本溯源以下,跨域究竟是怎么回事。

跨域的定义

同源策略限制了从同一个源加载的文档或脚本如何与来自另一个源的资源进行交互。这是一个用于隔离潜在恶意文件的重要安全机制。通常不允许不同源间的读操作。

同源的定义

如果两个页面的协议,端口(如果有指定)和域名都相同,则两个页面具有相同的源。

image

nginx解决跨域的原理

例如:

  • 前端server的域名为:fe.server.com

  • 后端服务的域名为:dev.server.com

现在我在 fe.server.comdev.server.com发起请求一定会出现跨域。

现在我们只需要启动一个nginx服务器,将 server_name设置为 fe.server.com,然后设置相应的location以拦截前端需要跨域的请求,最后将请求代理回 dev.server.com。如下面的配置:

server {
        listen   80;
        server_name  fe.server.com;
        location / {
                proxy_pass dev.server.com;
        }
}

这样可以完美绕过浏览器的同源策略: fe.server.com访问 nginxfe.server.com属于同源访问,而 nginx对服务端转发的请求不会触发浏览器的同源策略。

请求过滤

根据状态码过滤

error_page  500  501  502  503  504   506 /50x.html;
    location = /50x.html {     
#将跟路径改编为存放html的路径。
        root /root/static/html;
    }

根据URL名称过滤,精准匹配URL,不匹配的URL全部重定向到主页。

location / {
rewrite  ^.*$ /index.html  redirect;
}

根据请求类型过滤。

if ( $request_method !~ ^(GET|POST|HEAD)$ ) {
return  403;
}

配置gzip

image

GZIP是规定的三种标准HTTP压缩格式之一。目前绝大多数的网站都在使用 GZIP传输 HTMLCSSJavaScript 等资源文件。

对于文本文件, GZip 的效果非常明显,开启后传输所需流量大约会降至 1/4~1/3

并不是每个浏览器都支持 gzip的,如何知道客户端是否支持 gzip呢,请求头中的 Accept-Encoding来标识对压缩的支持。

image

启用 gzip同时需要客户端和服务端的支持,如果客户端支持 gzip的解析,那么只要服务端能够返回 gzip的文件就可以启用 gzip了,我们可以通过 nginx的配置来让服务端支持 gzip。下面的 responecontent-encoding:gzip,指服务端开启了 gzip的压缩方式。

image
gzip on;
gzip_http_version 1.1;
gzip_comp_level 5;
gzip_min_length 1000;
gzip_types text/csv text/xml text/css text/plain text/javascript application/javascript application/x-javascript application/json application/xml;`

gzip

  • 开启或者关闭 gzip模块

  • 默认值为 off

  • 可配置为 on/off

gziphttpversion

  • 启用 GZip 所需的 HTTP 最低版本

  • 默认值为 HTTP/1.1

这里为什么默认版本不是 1.0呢?

HTTP 运行在 TCP 连接之上,自然也有着跟 TCP 一样的三次握手、慢启动等特性。

启用持久连接情况下,服务器发出响应后让 TCP连接继续打开着。同一对客户/服务器之间的后续请求和响应可以通过这个连接发送。

为了尽可能的提高 HTTP 性能,使用持久连接就显得尤为重要了。

HTTP/1.1默认支持 TCP持久连接, HTTP/1.0 也可以通过显式指定 Connection:keep-alive来启用持久连接。对于 TCP持久连接上的 HTTP 报文,客户端需要一种机制来准确判断结束位置,而在 HTTP/1.0中,这种机制只有 Content-Length。而在 HTTP/1.1中新增的 Transfer-Encoding:chunked 所对应的分块传输机制可以完美解决这类问题。

nginx同样有着配置 chunked的属性 chunked_transfer_encoding,这个属性是默认开启的。

Nginx在启用了 GZip的情况下,不会等文件 GZip 完成再返回响应,而是边压缩边响应,这样可以显著提高 TTFB( TimeToFirstByte,首字节时间,WEB 性能优化重要指标)。这样唯一的问题是, Nginx 开始返回响应时,它无法知道将要传输的文件最终有多大,也就是无法给出 Content-Length这个响应头部。

所以,在 HTTP1.0中如果利用 Nginx启用了 GZip,是无法获得 Content-Length的,这导致HTTP1.0中开启持久链接和使用 GZip只能二选一,所以在这里 gzip_http_version默认设置为 1.1

gzipcomplevel

  • 压缩级别,级别越高压缩率越大,当然压缩时间也就越长(传输快但比较消耗cpu)。

  • 默认值为 1

  • 压缩级别取值为 1-9

gzipminlength

  • 设置允许压缩的页面最小字节数, Content-Length小于该值的请求将不会被压缩

  • 默认值: 0

  • 当设置的值较小时,压缩后的长度可能比原文件大,建议设置 1000以上

gzip_types

  • 要采用gzip压缩的文件类型( MIME类型)

  • 默认值: text/html(默认不压缩 js/ css)

负载均衡

什么是负载均衡

如上面的图,前面是众多的服务窗口,下面有很多用户需要服务,我们需要一个工具或策略来帮助我们将如此多的用户分配到每个窗口,来达到资源的充分利用以及更少的排队时间。

把前面的服务窗口想像成我们的后端服务器,而后面终端的人则是无数个客户端正在发起请求。负载均衡就是用来帮助我们将众多的客户端请求合理的分配到各个服务器,以达到服务端资源的充分利用和更少的请求时间。

nginx如何实现负载均衡

Upstream指定后端服务器地址列表
upstream balanceServer {
server 10.1.22.33:12345;
server 10.1.22.34:12345;
server 10.1.22.35:12345;
}

在server中拦截响应请求,并将请求转发到Upstream中配置的服务器列表。
server {
server_name fe.server.com;
listen 80;
location /api {
proxy_pass http://balanceServer;
}
}

上面的配置只是指定了nginx需要转发的服务端列表,并没有指定分配策略。

nginx实现负载均衡的策略

轮询策略

默认情况下采用的策略,将所有客户端请求轮询分配给服务端。这种策略是可以正常工作的,但是如果其中某一台服务器压力太大,出现延迟,会影响所有分配在这台服务器下的用户。

upstream balanceServer {
server 10.1.22.33:12345;
server 10.1.22.34:12345;
server 10.1.22.35:12345;
}

最小连接数策略

将请求优先分配给压力较小的服务器,它可以平衡每个队列的长度,并避免向压力大的服务器添加更多的请求。

upstream balanceServer {
least_conn;
server 10.1.22.33:12345;
server 10.1.22.34:12345;
server 10.1.22.35:12345;
}

image

最快响应时间策略

依赖于NGINX Plus,优先分配给响应时间最短的服务器。

upstream balanceServer {
fair;
server 10.1.22.33:12345;
server 10.1.22.34:12345;
server 10.1.22.35:12345;
}

客户端ip绑定

来自同一个ip的请求永远只分配一台服务器,有效解决了动态网页存在的session共享问题。
upstream balanceServer {
ip_hash;
server 10.1.22.33:12345;
server 10.1.22.34:12345;
server 10.1.22.35:12345;
}

静态资源服务器

location ~* \.(png|gif|jpg|jpeg)$ {
root /root/static/;
autoindex on;
access_log off;
expires 10h;# 设置过期时间为10小时
}

匹配以 png|gif|jpg|jpeg为结尾的请求,并将请求转发到本地路径, root中指定的路径即nginx本地路径。同时也可以进行一些缓存的设置。

nginx常用命令

  • 启动nginx

$ nginx

  • 当你敲完nginx的时候,并没有任何反应,此时你只需访问localhost:8080(默认)即可


  • 关闭nginx : $ nginx -s stop

  • 如果出现下图情况,不要惊慌,是因为之前nginx被启动过了

  • 只需nginx -s stop,停止nginx服务

  • 然后再次启动nginx即可

  • 重启nginx

$ nginx -s reload

  • 每次修改完.conf文件就需要重启nginx

  • 检查配置

  • 检查修改的nginx.conf配置是否正确

  • nginx -t

  • 如果出现下面ok和successfull就代表正确了,其他的都不对

 nginx: the configuration file /usr/local/etc/nginx/nginx.conf syntax is ok nginx: configuration file /usr/local/etc/nginx/nginx.conf test is successful

对于我们前端来说正常工作当中,倒是不需要过多的修改nginx的。我们之所以修改nginx配置,是为了做一些反向代理罢了

proxy_pass

nginx反向代理主要通过proxy_pass来配置,将你项目的开发机地址填写到proxy_pass后面,正常的格式为proxy_pass URL即可

server {    listen 80;    location / {      
  proxy_pass http://10.10.10.10:20186;   
 }}

Upstream模块实现负载均衡

  • ip_hash指令

  • server指令

  • upstream指令及相关变量

上面写的三个指令,我们直接通过代码来一一分析

// 修改nginx.confworker_processes 1;
events {    
worker_connections 1024;}
http {   
 upstream firstdemo {        server 39.106.145.33;        server 47.93.6.93;    }    
server {      
  listen 8080;       
 location / {            proxy_pass http://firstdemo;        }   
 }}
  • worker_processes

  • 工作进程数,和CPU核数相同

  • worker_connections

  • 每个进程允许的最大连接数

  • upstream模块

  • 负载均衡就靠它

  • 语法格式:upstream name {}

  • 里面写的两个server分别对应着不同的服务器

  • server模块

  • 实现反向代理

  • listen监督端口号

  • location / {}访问根路径

  • proxy_pass http://firstdemo,代理到firstdemo里两个服务器上

上面修改了nginx.conf之后,别忘了最重要的一步重启nginx

那么再次访问localhost:8080,会看到如下图页面

image

还有另一个页面

每次刷新都会访问不同的服务器,这样就做到了负载均衡处理

不过,更应该做到的是当用户第一次访问到其中一台服务器后,下次再访问的时候就直接访问该台服务器就好了,不用总变化了。那么就发挥了ip_hash的威力了

// 省略...   
 upstream firstdemo {        
ip_hash;        
server 39.106.145.33;        server 47.93.6.93;    }

ip_hash它的作用是如果第一次访问该服务器后就记录,之后再访问都是该服务器了,这样比如第一次访问是33服务器,那之后再访问也会分配为33服务器访问了

工作中的简单使用

在公司开发项目的时候,遇到设计,产品走查环节的时候,不能每次都让他们去配一个host,毕竟这样不友好,走查起来有麻烦。所以更应该给他们直观的感受,既给一个访问地址就可以看到样子

下面给大家看一下,我正常在公司时nginx做的反向代理配置,和咱们上面的如出一辙,只是加了一个server_name,用指定的域名去访问即可

server {    
listen       80;   
 server_name  chd.news.so.m.qss.test.so.com ;    
auth_basic off;   
 location / {        
proxy_pass    http://10.10.10.10:20186;       
 proxy_set_header Host $host;    
    proxy_redirect off;    
    proxy_set_header X-Real-IP $remote_addr;     
   proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;      
  proxy_connect_timeout 60;    
    proxy_read_timeout 600; 
       proxy_send_timeout 600; 
   }}

每次修改完nginx配置后不要忘记重启nginx才能生效,这样只需要访问chd.news.so.m.qss.test.so.com这个地址就可以查看我的开发环境,进行走查了。

Nginx 反向代理与负载均衡
前端工程师不可不知的 Nginx 知识

相关文章

网友评论

      本文标题:nginx知识

      本文链接:https://www.haomeiwen.com/subject/cuxusktx.html