Nginx+tomcat完整配置

作者: 编程界的小学生 | 来源:发表于2017-03-27 12:56 被阅读168次
    #运行用户
    #语法:user user [group]
    #默认值:nobody nobody
    #user nobody;
    #启动进程,通常设置成和cpu的数量相等
    worker_processes 4;
    pid /usr/local/nginx/nginx.pid;
    #单个worker进程所能够打开的最大文件数
    worker_rlimit_nofile 102400;
    
    #工作模式及连接数上限
    events {
        #epoll是多路复用IO(I/O Multiplexing)中的一种方式,仅用于linux2.6以上内核,可以大大提高nginx的性能
        use epoll;
        #单个后台worker process进程的最大并发链接数
        # 并发总数是 worker_processes 和 worker_connections 的乘积
        # 即 max_clients = worker_processes * worker_connections
        # 在设置了反向代理的情况下,max_clients = worker_processes * worker_connections / 4  为什么
        # 为什么上面反向代理要除以4,应该说是一个经验值
        # 根据以上条件,正常情况下的Nginx Server可以应付的最大连接数为:4 * 8000 = 32000
        # worker_connections 值的设置跟物理内存大小有关
        # 因为并发受IO约束,max_clients的值须小于系统可以打开的最大文件数
        # 而系统可以打开的最大文件数和内存大小成正比,一般1GB内存的机器上可以打开的文件数大约是10万左右
        # 我们来看看360M内存的VPS可以打开的文件句柄数是多少:
        # $ cat /proc/sys/fs/file-max
        # 输出 34336
        # 32000 < 34336,即并发连接总数小于系统可以打开的文件句柄总数,这样就在操作系统可以承受的范围之内
        # 所以,worker_connections 的值需根据 worker_processes 进程数目和系统可以打开的最大文件总数进行适当地进行设置
        # 使得并发总数小于操作系统可以打开的最大文件数目
        # 其实质也就是根据主机的物理CPU和内存进行配置
        # 当然,理论上的并发总数可能会和实际有所偏差,因为主机还有其他的工作进程需要消耗系统资源。
        # ulimit -SHn 65535
        worker_connections 102400;
    }
    
    http { 
        include mime.types;
        default_type application/octet-stream;
        #配合error_page code一起用,当发生失败时,自动跳转到error_page指定的路页面
        fastcgi_intercept_errors on;
        charset utf-8;
        #在Nginx0.6.35的版本中,配置多个 server 虚拟主机,必须要在配置文档中加上如下这句配置
        server_names_hash_bucket_size 128;
        #设定请求缓冲
        #先根据client_header_buffer_size配置的值分配一个buffer,如果分配的buffer无法容纳 request_line/request_header,那么就会再次根据
        #large_client_header_buffers配置的参数分配large_buffer,如果large_buffer还是无法容纳,那么就会返回414(处理request_line)/400(处理request_header)错误。
        client_header_buffer_size 16k;
        large_client_header_buffers 4 64k;
        #控制全局nginx所有请求报文大小
        client_max_body_size 300m;
        #sendfile 指令指定 nginx 是否调用 sendfile 函数(zero copy 方式)来输出文件
        #对于普通应用,必须设为 on,
        #如果用来进行下载等应用磁盘IO重负载应用,可设置为 off
        #以平衡磁盘与网络I/O处理速度,降低系统的uptime.
        sendfile on;
        #告诉nginx在一个数据包里发送所有头文件,而不一个接一个的发送
        tcp_nopush on;
        #给客户端分配keep-alive链接超时时间。服务器将在这个超时时间过后关闭链接。我们将它设置低些可以让ngnix持续工作的时间更长。
        keepalive_timeout 60;
        #告诉nginx不要缓存数据,而是一段一段的发送--当需要及时发送数据时,就应该给应用设置这个属性,这样发送一小块数据信息时就不能立即得到返回值。
        tcp_nodelay on;
        #处理客户端请求体buffer大小。用来处理POST提交数据,上传文件等。
        client_body_buffer_size 512k;
    
        #开启gzip压缩,若想关闭gzip压缩,则需要注释掉这句话,或者将on换成off
        gzip on;
        #配置允许压缩的页面的最小字节数,页面字节数从header头中的Content-Length中获>取,建议设置成1k,因为如果数据小于1k,他也会压缩成1k,这样会起到反作用。
        gzip_min_length 1k;
        #4个16k的数据流用于存储gzip的压缩结果数据流
        gzip_buffers 4 16k;
        #支持的http版本为1.1
        gzip_http_version 1.1;
        设置数据的压缩等级。这个等级可以是1-9之间的任意数值,9是最慢但是压缩比最大的。我们设置为4,这是一个比较折中的设置。
        gzip_comp_level 4;
        #判断客户端是否支持gzip技术,若不支持则不会进行gzip处理
        gzip_vary on;
    
        upstream web_app {
            server www.chentongwei.cn;
            server www.chentongwei.cn:8081 weight=2;
        }
    
        server {
            listen 8080;
            server_name www.chentongwei.cn;
            index index.jsp index.html index.htm;
            #发布目录/usr/local/games/fly
            root /usr/local/games/fly;
            
            location ~ .*\.(html|htm|gif|jpg|jpeg|bmp|png|ico|txt|css|js)$ {
                #expires定义用户浏览器缓存的时间为3天,如果静态页面不常更新,可以设置更长,这样可以节省带宽和缓解服务器的压力
                expires 3d;
            }
    
            location /testNginx {
                #proxy_next_upstream选项标识tomcat返回以下(http_500 http_502 http_504 error timeout #invalid_header)错误码都会进行重试另外一台服务器。这个对于读请求没有关系,如果对于写请求就会发生多次提交事件。
                #解决方案:去掉proxy_next_upstream.
                proxy_next_upstream http_502 http_504 error timeout invalid_header;
                #后端的Web服务器可以通过X-Forwarded-For获取用户真实IP
                proxy_set_header Host $host;
                proxy_set_header X-Real-IP $remote_addr;
                proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
                #value设置为上面的upstream的集群名字
                proxy_pass http://web_app;
            }
    
            #error_page 404 /404.html;
            #error_page 500 502 503 504  /50x.html;
    
            #设置为OFF可以为被代理服务器发出的相对重定向增加主机名
            proxy_redirect off;
            #后端的Web服务器可以通过X-Forwarded-For获取用户真实IP
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            #允许客户端请求的最大单文件字节数
            client_max_body_size 10m;
            #缓冲区代理缓冲用户端请求的最大字节数
            client_body_buffer_size 128k;
            #nginx跟后端服务器连接超时时间(代理连接超时)
            proxy_connect_timeout 90;
            #连接成功后,后端服务器响应时间(代理接收超时)
            proxy_read_timeout 90;
            #设置代理服务器(nginx)保存用户头信息的缓冲区大小
            proxy_buffer_size 4k;
            #proxy_buffers缓冲区,网页平均在32k以下的话,这样设置
            proxy_buffers 6 32k;
            #高负荷下缓冲大小(proxy_buffers*2)
            proxy_busy_buffers_size 64k;
            #设定缓存文件夹大小,大于这个值,将从upstream服务器传
            proxy_temp_file_write_size 64k;
        }
    }
    

    若有兴趣,欢迎来加入群,【Java初学者学习交流群】:458430385,此群有Java开发人员、UI设计人员和前端工程师。有问必答,共同探讨学习,一起进步!
    欢迎关注我的微信公众号【Java码农社区】,会定时推送各种干货:


    qrcode_for_gh_577b64e73701_258.jpg

    相关文章

      网友评论

        本文标题:Nginx+tomcat完整配置

        本文链接:https://www.haomeiwen.com/subject/mqcrottx.html