美文网首页
nginx负载均衡实例配置

nginx负载均衡实例配置

作者: 攻城老狮 | 来源:发表于2020-08-31 10:40 被阅读0次

    0 效果

    通过访问nginx,实现负载均衡,可以以某种算法交替访问部署的多台tomcat服务器。

    例如:访问 http://62.234.149.220/edu/test.html ,会交替跳转到 http://62.234.149.220:8001/edu/test.htmlhttp://62.234.149.220:8002/edu/test.html

    1 准备工作

    1.1 使用docker启动两台tomcat服务

    docker run -d -p 8001:8080 --name tomcat01 tomcat
    docker run -d -p 8002:8080 --name tomcat02 tomcat
    

    1.2 在各tomcat容器中添加edu项目文件夹,并且在里面写入html文件用于测试负载均衡效果

    # 配置第一台tomcat服务
    docker exec -it tomcat01 bash
    cd webapps
    mkdir edu
    cd edu
    touch test.html
    echo "<h1>8001 tomcat<h1>" > test.html
    exit
    # 配置第二台tomcat服务
    docker exec -it tomcat02 bash
    cd webapps
    mkdir edu
    cd edu
    touch test.html
    echo "<h1>8002 tomcat<h1>" > test.html
    exit
    

    1.3 测试通过本地浏览器是否可以正常访问两个tomcat项目

    http://62.234.149.220:8001/edu/test.html 
    http://62.234.149.220:8002/edu/test.html 
    

    2 具体配置

    2.1 使用docker启动nginx服务

    docker run -d -p 80:80 --name mynginx nginx
    

    2.3 进入nginx容器并修改配置文件

    • 进入容器的配置文件目录
    docker exec -it mynginx bash
    cd /etc/nginx
    vim nginx.config
    
    • 修改配置文件,实现负载均衡
    #user  nobody;
    worker_processes  1;
    
    #error_log  logs/error.log;
    #error_log  logs/error.log  notice;
    #error_log  logs/error.log  info;
    
    #pid        logs/nginx.pid;
    
    
    events {
        worker_connections  1024;
    }
    
    
    http {
        include       mime.types;
        default_type  application/octet-stream;
    
        #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
        #                  '$status $body_bytes_sent "$http_referer" '
        #                  '"$http_user_agent" "$http_x_forwarded_for"';
    
        #access_log  logs/access.log  main;
    
        sendfile        on;
        #tcp_nopush     on;
    
        #keepalive_timeout  0;
        keepalive_timeout  65;
        ##########################################################
        upstream myserver{
            server 62.234.149.220:8001;
            server 62.234.149.220:8002;
        }
    
        # another virtual host using mix of IP-, name-, and port-based configuration
        server {
            listen       80;
            server_name  62.234.149.220;
    
            location  / {
               proxy_pass http://myserver;
            }
        }
        ##########################################################
    
        # HTTPS server
        #
        #server {
        #    listen       443 ssl;
        #    server_name  localhost;
    
        #    ssl_certificate      cert.pem;
        #    ssl_certificate_key  cert.key;
    
        #    ssl_session_cache    shared:SSL:1m;
        #    ssl_session_timeout  5m;
    
        #    ssl_ciphers  HIGH:!aNULL:!MD5;
        #    ssl_prefer_server_ciphers  on;
    
        #    location / {
        #        root   html;
        #        index  index.html index.htm;
        #    }
        #}
    
    }
    
    • 退出docker容器,并重启nginx
    docker restart mynginx
    

    2.4 测试

    • 在本地的浏览器中输入url地址访问nginx,实现负载均衡。默认为轮询算法。8001和8002端口的tomcat会交替执行
    http://62.234.149.220/edu/test.html
    

    3 常用的负载均衡算法

    3.1 轮询算法

    nginx的负载均衡默认使用轮询算法,实现交替接收请求。

    3.2 权重算法 weight

    weight代表权重,weight与访问比例正相关。多用于后端服务器性能不均的情况。weight的值越高说明权重越大。

    具体配置片段:说明8002的服务器的权重是8001的两倍

      upstream myserver{
          server 62.234.149.220:8001 weight=5;
          server 62.234.149.220:8002 weight=10;
      }
    

    3.3 ip哈希的算法 ip_hash

    每个请求按照访问ip的hash结果分配。可以使得每个固定的ip访问后端的固定服务器。解决了session共享的问题。

    具体配置片段:

    upstream myserver{
        ip_hash;
        server 62.234.149.220:8001;
        server 62.234.149.220:8002;
    }
    

    3.4 第三方算法 fair

    按照后端服务器的响应时间来分配请求。响应时间端的优先分配。

    具体配置片段:

    upstream myserver{
        server 62.234.149.220:8001;
        server 62.234.149.220:8002;
        fair;
    }
    

    相关文章

      网友评论

          本文标题:nginx负载均衡实例配置

          本文链接:https://www.haomeiwen.com/subject/arkusktx.html