一. 配置结构
http:可以嵌套多个 server,配置代理,缓存,日志定义等绝大多数功能和第三方模块的配置。
二. 内置变量
三. 请求转发(解决跨域)
如使用一个前端域名 fe.server.com 向一个后端域名 dev.server.com 发送请求,会出现跨域。nginx 解决跨域:启动一个 nginx 服务器,将 server_name
设置为 fe.server.com, 然后设置相应的 location
以拦截前端需要跨域的请求,最后将请求代理回 dev.server.com:
server {
listen 80;
server_name fe.server.com;
location / {
proxy_pass dev.server.com;
}
}
四. 请求过滤
- 根据状态码过滤:
error_page 500 501 502 503 504 506 /50x.html;
location = /50x.html {
# 将跟路径改编为存放 html 的路径。
root /root/static/html;
}
- 根据 URL 名称过滤,精准匹配 URL,不匹配的 URL 全部重定向到主页:
location / {
rewrite ^.*$ /index.html redirect;
}
- 根据请求类型过滤:
if ( $request_method !~ ^(GET|POST|HEAD)$ ) {
return 403;
}
五. 配置 gzip
启用 gzip 同时需要客户端和服务端的支持。
客户端请求头有:Accept-Encoding: gzip, deflate
标识;
服务器端响应:Content-Encoding:gzip
。
gzip on;
gzip_http_version 1.1;
gzip_comp_level 5;
gzip_min_length 1000;
gzip_types text/csv text/xml text/css text/plain text/javascript application/javascript application/x-javascript application/json application/xml;
gzip_http_version
: 启用 GZip 所需的 HTTP 最低版本,默认值为HTTP/1。
这里为什么默认版本不是 1.0 呢?
HTTP 运行在 TCP 连接之上,自然也有着跟 TCP 一样的三次握手、慢启动等特性。
启用持久连接情况下,服务器发出响应后让 TCP 连接继续打开着。同一对客户 / 服务器之间的后续请求和响应可以通过这个连接发送。
为了尽可能的提高 HTTP 性能,使用持久连接就显得尤为重要了。
HTTP/1.1
默认支持 TCP 持久连接,HTTP/1.0
也可以通过显式指定 Connection: keep-alive
来启用持久连接。对于 TCP 持久连接上的 HTTP 报文,客户端需要一种机制来准确判断结束位置,而在 HTTP/1.0
中,这种机制只有 Content-Length
。而在 HTTP/1.1
中新增的 Transfer-Encoding: chunked
所对应的分块传输机制可以完美解决这类问题。
nginx 同样有着配置 chunked
的属性 chunked_transfer_encoding
,这个属性是默认开启的。
Nginx 在启用了 GZip 的情况下,不会等文件 GZip 完成再返回响应,而是边压缩边响应,这样可以显著提高 TTFB(Time To First Byte,首字节时间,WEB 性能优化重要指标)
。这样唯一的问题是,Nginx 开始返回响应时,它无法知道将要传输的文件最终有多大,也就是无法给出 Content-Length
这个响应头部。
所以,在 HTTP1.0
中如果利用 Nginx 启用了 GZip,是无法获得 Content-Length
的,这导致 HTTP1.0 中开启持久链接和使用GZip 只能二选一
,所以在这里 gzip_http_version 默认设置为 1.1。
六. 负载均衡
Upstream 指定后端服务器地址列表:
upstream balanceServer {
server 10.1.22.33:12345;
server 10.1.22.34:12345;
server 10.1.22.35:12345;
}
在 server 中拦截响应请求,并将请求转发到 Upstream 中配置的服务器列表:
server {
server_name fe.server.com;
listen 80;
location /api {
proxy_pass http://balanceServer;
}
}
分配策略:
- 轮询策略:默认情况下采用的策略,将所有客户端请求轮询分配给服务端。这种策略是可以正常工作的,但是如果其中某一台服务器压力太大,出现延迟,会影响所有分配在这台服务器下的用户。
- 最小连接数策略:将请求优先分配给压力较小的服务器,它可以平衡每个队列的长度,并避免向压力大的服务器添加更多的请求。
- 最快响应时间策略:依赖于 NGINX Plus,优先分配给响应时间最短的服务器。
- 客户端 ip 绑定:来自同一个 ip 的请求永远只分配一台服务器,有效解决了动态网页存在的 session 共享问题。
网友评论