Nginx+Tomcat实现负载均衡

作者: 会跳舞的机器人 | 来源:发表于2016-08-03 22:53 被阅读1102次

    一、环境准备

    Tomcat1:192.168.31.103
    Tomcat2:192.168.31.117
    Nginx:192.168.31.154
    在103和117上分别部署相同的Tomcat程序,修改index.jsp页面,把内容改为各自的IP地址
    Nginx的安装请参考:http://www.jianshu.com/p/2a31c0b8bec9

    二、修改配置文件nginx.conf

    在http节点中增加:
    ## user-api upstream user-api { server 192.168.31.103:8080 weight=3; server 192.168.31.117:8080 weight=3; } server { listen 80; server_name 192.168.31.154; location / { proxy_pass http://user-api/; } }
    upstream为Nginx的负载均衡模块,里面定义了负载应用的列表。
    server{}为虚拟主机配置,server_name为虚拟主机的IP或者域名,多个域名之间用空格隔开,listen为监听的端口,location / 表示监听80端口下面的所有请求,proxy_pass配置为:http + upstream名称
    以上配置完成后,执行./nginx -t命令检测配置是否有错,再执行./ngin -s reload命令进行更新。

    说明:

    upstream按照轮询(默认)方式进行负载,每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。虽然这种方式简便、成本低廉。
    但缺点是:可靠性低和负载分配不均衡。适用于图片服务器集群和纯静态页面服务器集群。
    除此之外,upstream还有其它的分配策略,分别如下:
    1、weight(权重)
    指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。如下所示,10.0.0.88的访问比率要比10.0.0.77的访问比率高一倍。
    upstream linuxidc{ server 10.0.0.77 weight=5; server 10.0.0.88 weight=10; }

    2、ip_hash(访问ip)
    每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。
    upstream favresin{ ip_hash; server 10.0.0.10:8080; server 10.0.0.11:8080; }

    3、fair(第三方)
    按后端服务器的响应时间来分配请求,响应时间短的优先分配。与weight分配策略类似。
    upstream favresin{ server 10.0.0.10:8080; server 10.0.0.11:8080; fair; }

    4、url_hash(第三方)
    按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。
    注意:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法。
    upstream resinserver{ server 10.0.0.10:7777; server 10.0.0.11:8888; hash $request_uri; hash_method crc32; }
    upstream还可以为每个设备设置状态值,这些状态值的含义分别如下:
    down 表示单前的server暂时不参与负载.
    weight 默认为1.weight越大,负载的权重就越大。
    max_fails :允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream 模块定义的错误.
    fail_timeout : max_fails次失败后,暂停的时间。
    backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。
    upstream bakend{ #定义负载均衡设备的Ip及设备状态 ip_hash; server 10.0.0.11:9090 down; server 10.0.0.11:8080 weight=2; server 10.0.0.11:6060; server 10.0.0.11:7070 backup; }

    三、测试

    访问http://192.168.31.154/dreyer-user-api/index.jsp

    Paste_Image.png Paste_Image.png

    不断的刷新页面,我们会发现应用会在117和103之间随机切换,这表明通过Nginx来实现Tomcat应用的负载均衡目的达到。

    四、附录实例

    nginx.conf
    <pre><code>

    user www www;

    user root;
    worker_processes 4;
    error_log logs/error.log;

    error_log logs/error.log notice;

    error_log logs/error.log info;

    pid logs/nginx.pid;
    events {
    use epoll;
    worker_connections 40960;
    }

    load modules compiled as Dynamic Shared Object (DSO)

    dso {

    load ngx_http_fastcgi_module.so;

    load ngx_http_rewrite_module.so;

    }

    http {
    include mime.types;
    default_type application/octet-stream;
    #log_format main '$remote_addr - $remote_user [$time_local] "$request" '
    # '$status $body_bytes_sent "$http_referer" '
    # '"$http_user_agent" "$http_x_forwarded_for"';
    #access_log logs/access.log main;
    sendfile on;
    #tcp_nopush on;
    tcp_nodelay on;
    types_hash_max_size 2048;
    server_names_hash_max_size 512;
    server_names_hash_bucket_size 128;
    #keepalive_timeout 0;
    keepalive_timeout 280;
    gzip on;
    gzip_comp_level 3;
    gzip_types text/plain text/css text/javascript application/x-javascript application/javascript application/xml application/json;
    client_header_buffer_size 128k;
    large_client_header_buffers 4 256k;

    proxy_headers_hash_max_size 51200;
    proxy_headers_hash_bucket_size 6400;
    
    ## 配置包含的文件信息
    include /opt/nginx/conf/tools/*.conf;
    include /opt/nginx/sites-enabled/*.conf;
    

    }
    </code></pre>
    在包含的文件信息中摘取几段
    ## dev-pay-api(单节点) server { listen 80; server_name xxxx.cn; location / { proxy_pass http://172.16.xx.xx:8089/; add_header 'Access-Control-Allow-Origin' '*'; add_header 'Access-Control-Allow-Credentials' 'true'; add_header 'Access-Control-Allow-Methods' 'POST, GET, OPTIONS,PUT,DELETE'; add_header 'Access-Control-Allow-Headers' '*,token'; proxy_set_header Host $http_host; proxy_set_header Cookie $http_cookie; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; client_max_body_size 100m; } }

    ## qa-web-pay-api(双机负载均衡) upstream qa_web_pay_api { server 172.16.xx.xx:8089 weight=3; server 172.16.xx.xx:8089 weight=3; } server { listen 80; server_name xxxx.com; location / { proxy_pass http://qa_web_pay_api/; add_header 'Access-Control-Allow-Origin' '*'; add_header 'Access-Control-Allow-Credentials' 'true'; add_header 'Access-Control-Allow-Methods' 'POST, GET, OPTIONS,PUT,DELETE'; add_header 'Access-Control-Allow-Headers' '*,token'; proxy_set_header Host $http_host; proxy_set_header Cookie $http_cookie; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; client_max_body_size 100m; } }

    ## test-web-b(前端代码,前后端分离的模式) server { listen 80; server_name xxxx.com; rewrite ^(.*)$ https://$host$1 permanent; location / { root /usr/local/www/test-web-b; try_files $uri $uri/ /index.html =404; } }

    相关文章

      网友评论

      • 小小小胡:楼主,如果后端停掉一台,会出现很卡顿的现象,直到nginx连接超时的情况,请问这个怎么处理呀?

      本文标题:Nginx+Tomcat实现负载均衡

      本文链接:https://www.haomeiwen.com/subject/rnccsttx.html