美文网首页
nginx-反向代理&负载均衡

nginx-反向代理&负载均衡

作者: 屎香味十足 | 来源:发表于2021-01-04 22:52 被阅读0次

    什么是反向代理

    有反向代理,那也就有正向的了,正向就是:客户端=>服务端;

    反向代理指的是代理服务器接受http请求,然后再将请求转发给其他指定服务器,即分发请求;如下:

    image.png

    网上说反向代理能提升网站性能,但其实不是的,反而可能还会降低,因为中间多了一层转发;说能提升网站性能的前提是搭配负载均衡;多个后端服务集群统一由反向代理服务器进行请求分发,这样就避免了单台服务器的性能瓶颈影响整个平台的稳定。

    配置反向代理

    最简单的配置

    这也是我们经常做的前端反向代理配置

     location /api {
        proxy_pass http://www.51fubei.com/;
    }
    

    完整的配置

    这是完整的反向代理配置,

    location /api {
        add_header Cache-Control no-cache; // 设置response header
      add_header Content-Encoding gzip; // 设置response header
      proxy_set_header   Host local.baidu.com; // HTTP header 中的 Host 含义为所请求的目的主机名。当 nginx 作为反向代理使用,而后端真实 web 服务器设置有类似 防盗链功能 ,或者根据 HTTP header 中的 Host 字段来进行 路由 或 过滤 功能的话,若作为反向代理的 nginx 不重写请求头中的 Host 字段,将会导致请求失败。
      proxy_set_header   X-Forwarded-For  $proxy_add_x_forwarded_for; // HTTP header 中的 X_Forward_For 表示该条 http 请求是由谁发起的。如果反向代理服务器不重写该请求头的话,那么后端真实 web 服务器在处理时会认为所有的请求都来自反向代理服务器。如果后端 web 服务器有防攻击策略的话,那么反向代理服务器对应的 ip 地址就会被封掉。
      proxy_set_header   X-Real-IP        $remote_addr; // 真是IP
      proxy_pass         http://www.51fubei.com/;
      
      default_type  application/octet-stream; #默认文件类型,默认为text/plain
      #access_log off; #取消服务日志    
      log_format myFormat ' $remote_addr–$remote_user [$time_local] $request $status $body_bytes_sent $http_referer $http_user_agent $http_x_forwarded_for'; #自定义格式
      access_log log/access.log myFormat;  #combined为日志格式的默认值
      sendfile on;   #允许sendfile方式传输文件,默认为off,可以在http块,server块,location块。
      sendfile_max_chunk 100k;  #每个进程每次调用传输数量不能大于设定的值,默认为0,即不设上限。
      keepalive_timeout 65;  #连接超时时间,默认为75s,可以在http,server,location块。
      proxy_connect_timeout 1;   #nginx服务器与被代理的服务器建立连接的超时时间,默认60秒
      proxy_read_timeout 1; #nginx服务器想被代理服务器组发出read请求后,等待响应的超时间,默认为60秒。
      proxy_send_timeout 1; #nginx服务器想被代理服务器组发出write请求后,等待响应的超时间,默认为60秒。
      proxy_http_version 1.0 ; #Nginx服务器提供代理服务的http协议版本1.0,1.1,默认设置为1.0版本。
      #proxy_method get;    #支持客户端的请求方法。post/get;
      proxy_ignore_client_abort on;  #客户端断网时,nginx服务器是否终端对被代理服务器的请求。默认为off。
      proxy_ignore_headers "Expires" "Set-Cookie";  #Nginx服务器不处理设置的http相应投中的头域,这里空格隔开可以设置多个。
      proxy_intercept_errors on;    #如果被代理服务器返回的状态码为400或者大于400,设置的error_page配置起作用。默认为off。
      proxy_headers_hash_max_size 1024; #存放http报文头的哈希表容量上限,默认为512个字符。
      proxy_headers_hash_bucket_size 128; #nginx服务器申请存放http报文头的哈希表容量大小。默认为64个字符。
      proxy_next_upstream timeout;  #反向代理upstream中设置的服务器组,出现故障时,被代理服务器返回的状态值。error|timeout|invalid_header|http_500|http_502|http_503|http_504|http_404|off
      #proxy_ssl_session_reuse on; 默认为on,如果我们在错误日志中发现“SSL3_GET_FINSHED:digest check failed”的情况时,可以将该指令设置为off。
    }
    

    设置了add_header后,可以直接访问代理服务的时候,在response头中看到,这边添加了一个Cache-Control no-cache,如下:

    image.png

    设置了proxy_set_header后,在服务端请求中可以看到代理请求的header内容,这边自己起了一个node服务,然后把request的内容打印输出了,这边配置了Host、X-Forwarded-For、X-Real-IP,最终服务端接收到的header头信息如下:

    image.png

    负载均衡

    什么是负载均衡?其实比较容易理解,可以理解成餐厅门口有一个接待员,然后来1位顾客A,接待员就把顾客A分配给了服务员A,再来一位顾客B,接待员就分配给服务员B;如果一下来来了10位,则招待员就分别分配给服务员A、B、C、D、E,平均每个服务员接待两个,平均大家的工作量,而不会一个很忙,一个很闲;如果有一个服务员上厕所,那原本她的那个顾客会转给其他几个服务员接待;

    专业的表述是:按照一定算法【权重、轮训 】,将客户端请求转发到不同应用服务器上,减轻单个服务器压力,提高系统并发量;并且能移除故障,通过心跳检测方式,判断应用服务器是否正常工作,如果某一台服务器宕机了,则会自动将请求发送到其他应用服务器去;如果检测到服务器恢复了,则再添加到集群中来处理请求;如下图所示:

    image.png

    热备

    如果主要服务器挂了,则会被备份服务器

    upstream nodeserver {
        server 127.0.0.1:8001;
        server 127.0.0.1:8002 backup; #如果127.0.0.1:8001挂了,则会走127.0.0.1:8002
    }
        
    server {
            listen       8080;
            server_name  localhost;
    
            #charset koi8-r;
    
            #access_log  logs/host.access.log  main;
    
            location / {
                root   html;
                index  index.html index.htm;
            }
            location /api {
                add_header Cache-Control no-cache;
                proxy_pass http://nodeserver/;
                proxy_set_header Host local.baidu.com;
                proxy_set_header   X-Forwarded-For  $proxy_add_x_forwarded_for;
                proxy_set_header   X-Real-IP        $remote_addr;
                proxy_connect_timeout 30s;
            }
    }
    

    轮训算法

    轮训算法每一台服务器的权重都是1,表示平均分配,所有请求按照顺序分配,如上图就是轮训平均分配请求;

    upstream nodeserver {
        server 127.0.0.1:8001;
        server 127.0.0.1:8002;
    }
    

    image.png

    加权轮训算法

    这边可以设置权重大小,比如服务器A性能好一些,权重给3;服务器B性能差一些,权重给2;服务器C配置最差,权重给1;这个时候分配请求的量就会按照权重来按比例分配,50%的请求给到了A;33%的请求给到了B;17%的请求给到了C; 如下图:

    image.png

    这边以两台服务器来做测试,8002的权重是2;8001的权重是1,结果如下:

    upstream nodeserver {
        server 127.0.0.1:8001 weight=1;
        server 127.0.0.1:8002 weight=2;
    }
    
    image.png

    ip_hash

    每个请求按访问ip的hash结果分配,这样每个访客固定访问一个应用服务器,可以解决session共享的问题。

    image.png

    这边以两台服务器来做测试,结果如下:

    upstream nodeserver {
        server 127.0.0.1:8001;
        server 127.0.0.1:8002;
      ip_hash;
    }
    

    最终请求只走到了8001这台服务器,因为我请求ip没有变;

    image.png

    当我8001端口服务器挂了之后,请求就会被分配到8002端口服务器;

    image.png

    其他配置

    upstream nodeserver {
        server 127.0.0.1:8001 down; #表示当前的server暂时不参与负载
        server 127.0.0.1:8002 Weight=3; #默认是1,表示平均分配;weight越大,负载的权重就越大
      server 127.0.0.1:8003 max_fails=1 fail_timeout=10s; #允许请求失败的次数;默认是1,当超过最大次数时,返回proxy_next_upstream模块定义的错误,判断该节点不可用,判断不可用后10秒内请求不会 转发到此节点,直到10秒后重新检测节点健康情况;
      server 127.0.0.1:8003 backup; #其他服务器挂了之后,再请求backup服务器,所以这台服务器是兜底的,压力也是最轻的;
    }
    

    相关文章

      网友评论

          本文标题:nginx-反向代理&负载均衡

          本文链接:https://www.haomeiwen.com/subject/lomboktx.html