一、Nginx的反向代理与负载均衡
Nginx除了实现基本的Web Server功能之外还可以作为正向代理与反向代理。正向代理与反向代理的区别在于代理的对象不一样。正向代理的对象是客户端,反向代理的对象是服务端。做正向代理时,当客户端发起请求其访问目标应该是后端真实服务器;做反向代理时,客户端发起请求其目标应该是代理服务器本身,由代理服务器把后端真实服务器上的数据发给了客户端。反向代理通常是作为负载均衡来分发流量给后端的应用程序服务器,以此来提高性能。比如前端是一台Nginx作为负载均衡的分发器,后端是多台Apache搭建的Web Server,当访问流量很大时,就让Nginx分发请求给后端多台服务器,让它们分工响应。
二、Nginx负载均衡模块:ngx_http_upstream_module
要实现Nginx负载均衡需要用到 ngx_http_upstream_module
模块和 proxy_pass
模块。其中 ngx_http_upstream_module
模块只能定义在 nginx.conf
的 http
字段中,该模块定义了需要反向代理的服务器池,然后进行负载均衡,最终再由 proxy_pass
模块进行反向代理。代理方式支持 fastcgi_pass
、 memcached_pass
、 uwsgi
等。
1. ngx_http_upstream_module中upstream常用参数
server
:负载均衡后端服务器的IP或域名,不写端口的话默认是80。高并发场景用域名,再通过DNS进行负载均衡
weight
:后端服务器权重,默认为1,权重越大接收的请求越多。例: weight=5
max_fails
:检查节点的健康状态并允许请求失败的次数,达到该次数就将节点下线。默认为1,0表示禁止失败尝试。例: max_fails=2
fail_timeout
:max_fails失败次数达到限制后暂停该节点服务的时间,默认是10秒。例: fail_timeout=10s
backup
:热备配置,当服务池中所有服务器均出现问题后会自动上线 backup
服务器
down
:标志服务器不可用,不参与负载均衡。这个参数通常配合 IP_HASH
使用
max_conns
:限制最大连接数,通常对后端服务器硬件不一致的情况进行配置
keepalive
:限制空闲长连接的最大数量
keepalive_timeout
:空闲长连接的最长保持时间
keepalive_requests
:每个长连接最多可以处理的请求数
3. upstream配置示例
upstream linuxe_backend {
server 192.168.1.110 down; #标记该源站后端已不可用
server 192.168.1.120 backup; #其他节点挂了后该节点自动上线
server 192.168.1.130 max_failes=1 fail_timeout=10s weight-5;
server backend1.linuxe.cn 8080 weight=3
keepalive 32; #最多允许32个长连接
keepalive_timeout 30s; #每个长连接保持30秒
keepalive_requests 100; #每个长连接允许100个请求
}
3. upstream负载均衡的算法
轮询算法(默认算法):每个请求会依次分配给后端不同的应用程序服务器,不理会后端服务器的实际压力。如下面代码,当用户访问www.myserver.com站点时,Nginx会负载平衡分配给后端的三个服务器。使用ab做压力测试可以看到在加了负载均衡后Time per request(每个请求平均消耗时间)降低、Request per second(每秒请求数)提升。如果没有配置upstream模块而只使用proxy_pass模块,可以实现反向代理的作用。
http { #upstream模块包含在http模块下
upstream myserver{ #定义upstream名字,下面会引用
server 192.168.1.100; #指定后端服务器地址
server 192.168.1.110; #指定后端服务器地址
server 192.168.1.120; #指定后端服务器地址
}
server {
listen 80;
server name www.myserver.com;
location / {
proxy_pass http://myserver; #引用upstream
}
}
}
加权负载均衡:权重越大的服务器,被分配到的次数就会越多,通常用于后端服务器性能不一致的情况。在下面代码中,每3个请求都分配给192.168.1.100,然后第4个请求会分配给192.168.1.110,如此循环下去
http {
upstream myserver{
server 192.168.1.100 weight=3; #指定后端服务器地址,权重为3
server 192.168.1.110;
}
server {
listen 80;
server name www.myserver.com;
location / {
proxy_pass http://myserver;
}
}
}
IP HASH:当同IP进行重复访问时会被指定到上次访问到的服务器,可以解决动态网站SESSION共享问题。如果需要将客户与后端一台服务器“绑定”起来,可以使用ip-hash负载平衡。这样可以确保来自相同客户机的请求总是指向相同的服务器除非该服务器不可用。
upstream myserver {
ip_hash; #采用IP HASH算法
server 192.168.1.100;
server 192.168.1.110;
server 192.168.1.120;
}
基于URL的HASH:当客户端多次访问同一个地址时分配到固定的节点
upstream myserver {
hash $request_uri;
server 192.168.1.100;
server 192.168.1.110;
server 192.168.1.120;
}
最少连接数轮询:哪个节点当前的连接数少就分配给哪个节点处理
least_conn;
三、Nginx反向代理模块:proxy_pass
五、线上配置示例
#先在nginx.conf中定义一组upstream
upstream pre-cloud_Backend {
server pre-cloud.website.com:8080;
ip_hash;
check interval=5000 rise=1 fall=3 timeout=30000;
check_http_expect_alive http_2xx http_3xx; #tengine的健康检查模块
}
#conf.d/下定义一个文件
server{
listen 80;
server_name cloud.website.com;
limit_conn perserver 10000;
location / {
proxy_next_upstream error timeout http_503 http_504 http_502; #如果请求当前节点触发了这里指定的条件就将请求转发到下一个机器
proxy_connect_timeout 500s;
proxy_read_timeout 500s;
proxy_send_timeout 500s;
proxy_set_header Host $http_host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $remote_addr;
proxy_pass http://pre-cloud_Backend;
}
}
太赞了