首页 > 技术文章 > Nginx的反向代理与负载均衡

liujunjun 2019-11-28 09:25 原文

集群是什么                                                     

       简单地说,集群就是指一组(若干个)相互独立的计算机,利用高速通信网络组成的一个较大的计算机服务系统,每个集群节点(即集群中的每台计算机)都是运行各自服务的独立服器。这些服务器之间可以彼此通信,协同向用户提供应用程序、系统资源和数据,并以单一系统的模式加以管理。当用户客户机请求集群系统时,集群给用户的感觉就是一个单一独立的服务器,而实际上用户请求的是一组集群服务器。

  打开谷歌、百度的页面,看起来好简单,也许你觉得用几分钟就可以制作出相似的网页,而实际上,这个页面的背后是由成千上万台服务器集群协同工作的结果。而这么多的服务器维护和管理,以及相互协调工作也许就是读者你未来的工作职责了。

  若要用一句话描述集群,即一堆服务器合作做同一件事,这些机器可能需要整个技术团队架构、设计和统一协调管理,这些机器可以分布在一个机房,也可以分布在全国全球各个地区的多个机房。

 为什么要有集群                                                       

高性能、价格有效性、可伸缩性、高可用性

透明性、可管理性、可编辑性

集群种类

负载均衡集群 LB 解决调度问题

高可用集群  HA 解决单点故障问题(keeplived

高性能计算集群         HP 、网络计算集群 GC

 硬件设备

F5 设备   A10

软件

nginx (7层  1.9版本之后支持4层)、LVS (4层)、HAproxy (4层 7层)

负载均衡概念说明

  对用户的访问请求进行调度管理

  对用户的访问请求进行压力分担

反向代理

  接收用户请求代替用户向后端访问

  反向代理与数据转发的区别

压力测试的方式

  ab (apache里的命令) 

  通过   yum install httpd-tools   获得

nginx反向代理实践

HOSTNAME IP 说明
master 192.168.1.222 Nginx 负载服务器
node1 192.168.1.221 web01服务器
node2 192.168.1.223 web02服务器

ip命令说明

ip address show  查看ip地址
ip route show  查看路由信息

反向代理与数据转发的区别

安装部署nginx过程(安装命令集)

yum -y install gcc*
yum -y install pcre-devel zlib-devel openssl openssl-devel
tar -zxf nginx-1.12.2.tar.gz 
cd nginx-1.12.2
./configure --prefix=/usr/local/nginx --conf-path=/etc/nginx/nginx.conf --user=nginx --group=nginx --error-log-path=/var/log/nginx/error.log --http-log-path=/var/log/nginx/access.log  --pid-path=/var/run/nginx/nginx.pid --lock-path=/var/lock/nginx/nginx.lock --with-http_ssl_module  --with-http_stub_status_module --with-http_gzip_static_module --with-http_flv_module --with-http_mp4_module --http-client-body-temp-path=/var/tmp/nginx/client --http-proxy-temp-path=/var/tmp/nginx/proxy --http-fastcgi-temp-path=/var/tmp/nginx/fastcgi --http-uwsgi-temp-path=/var/tmp/nginx/uwsgi
make && make install 
mkdir -pv /var/tmp/nginx/{client,fastcgi,proxy,uwsgi}

ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/
useradd -r -s /sbin/nologin nginx
nginx

 所有主机配置主机名和修改hosts文件。

[root@node1 ~]# cat /etc/hostname 
node1.ljj.com
[root@master ~]# cat /etc/hostname 
master.ljj.com
[root@node2 ~]# cat /etc/hostname
node2.ljj.com
[root@node1 ~]# cat /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.1.221   node1.ljj.com
192.168.1.222   master.ljj.com
192.168.1.223   node2.ljj.com

编写nginx配置文件(统一web服务器配置)

[root@node1 /]# cd /etc/nginx/
[root@node1 nginx]# cp nginx.conf nginx.conf.bak

server {
listen 80;
server_name baidu.ljj.com;
location / {
root html/bbs;
index index.html index.htm;
}
}
server {
listen 80;
server_name sina.ljj.com.;
location / {
root html/www;
index index.html index.htm;
}
}

 测试

[root@node1 bbs]# curl -H host:sina.ljj.com 192.168.1.221/index.html
192.168.1.221 sina.ljj.com
[root@node1 bbs]# curl -H host:baidu.ljj.com 192.168.1.221/index.html
192.168.1.221 baidu.ljj.com
[root@node1 bbs]# curl -H host:baidu.ljj.com 192.168.1.223/index.html
192.168.1.223 baidu.ljj.com
[root@node1 bbs]# curl -H host:sina.ljj.com 192.168.1.223/index.html
192.168.1.221 sina.ljj.com

 配置负载服务文件

worker_processes  1;
events {
    worker_connections  1024;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;     
upstream nginx_server {
        server 192.168.1.221:80;
        server 192.168.1.223:80;
        
    }
    server {
        listen 80;
        server_name baidu.ljj.com;
        location / {
            proxy_pass http://nginx_server;
        }
    }

 测试访问                                                                

[root@master nginx]# curl -H host:baidu.ljj.com 192.168.1.222/bbs.html
192.168.1.221 baidu.ljj.com
[root@master nginx]# curl -H host:baidu.ljj.com 192.168.1.222/bbs.html
192.168.1.223 baidu.ljj.com
[root@master nginx]# curl -H host:baidu.ljj.com 192.168.1.222/bbs.html
192.168.1.221 baidu.ljj.com
[root@master nginx]# curl -H host:baidu.ljj.com 192.168.1.222/bbs.html
192.168.1.223 baidu.ljj.com
[root@master nginx]# curl -H host:baidu.ljj.com 192.168.1.222/bbs.html
192.168.1.221 baidu.ljj.com

nginx中常用模块说明                 

ngx_http_status_module
ngx_http_ssl_module
ngx_http_log_module
ngx_http_upstream_module
ngx_http_proxy_module

模块调度算法

  ①. 定义轮询调度算法-rr-默认调度算法

 ②. 定义权重调度算法-wrr

  ③. 定义静态调度算法-ip_hash

  ④. 定义最小的连接数-least_conn

nginx反向代理相关两个模块

upstream 模块 类似与一个池塘,将nginx节点放置到池塘中

proxy模块  用池塘里面的nginx节点,利用pr oxy进行调用

 upstream模块核心参数简介

weight 权重

max_fails 抛得次数

fail_timeout 失败的超时时间

backup  备份

weight 参数实践 (权重)

 upstream 模块只能在http区块里

worker_processes  1;
events {
    worker_connections  1024;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;
    upstream backend {
        server 192.168.1.221:80 weight=1;
        server 192.168.1.223:80 weight=1;
        
    } 
    server {
        listen 80;
        index  index.html index.htm;
        server_name baidu.ljj.com;
        location / {
        root html;
        proxy_pass http://backend;
        }
    }

测试

[root@master nginx]# curl 192.168.1.222/bbs.html
192.168.1.221 baidu.ljj.com
[root@master nginx]# curl 192.168.1.222/bbs.html
192.168.1.223 baidu.ljj.com
[root@master nginx]# curl 192.168.1.222/bbs.html
192.168.1.221 baidu.ljj.com
[root@master nginx]# curl 192.168.1.222/bbs.html
192.168.1.223 baidu.ljj.com

其他的参数说明 

max_fails    失败的尝试次数

fail_timeout 失败后的再次尝试时间

upstream backend {
server 192.168.1.221:80 weight=1 max_fails=3 fail_timeout=10;
server
192.168.1.223:80 weight=1 max_fails=3 fail_timeout=10 backup;

测试把node2停了

[root@master nginx]# curl 192.168.1.222/bbs.html
192.168.1.221 baidu.ljj.com
[root@master nginx]# curl 192.168.1.222/bbs.html
192.168.1.221 baidu.ljj.com
[root@master nginx]# curl 192.168.1.222/bbs.html
192.168.1.221 baidu.ljj.com
[root@master nginx]# curl 192.168.1.222/bbs.html
192.168.1.221 baidu.ljj.com

测试把node1停了

[root@master nginx]# curl 192.168.1.222/bbs.html
192.168.1.223 baidu.ljj.com
[root@master nginx]# curl 192.168.1.222/bbs.html
192.168.1.223 baidu.ljj.com
[root@master nginx]# curl 192.168.1.222/bbs.html
192.168.1.223 baidu.ljj.com

upsrteam参数详细说明

upstream模块内参数 参数说明
server 192.168.1.221:80

负载均衡后面的RS配置,可以是IP或域名,如果端口不写,默认是80端口。

高并发场景下, IP可换成域名,通过 DNS做负载均衡。

weigth=1 代表服务器的权重,默认值是1。权重数字越大表示接受的请求比例越大。
max_fails=3

Nginx尝试连接后端主机失败的次数,这个值是配合 proxy_next_upstream、fastcgi_next_upstream和memcached_next_upstream 这三个参数来使用的。当nginx接收后端服务器返回这三个参数定义的状态码时,会将这个请求转发给正常工作的后端服务器,例如404、502、503、 Max_fails的默认值是1 ;

企业场景下建议2-3次。如京东1次,蓝汛10次,根据业务需求去配置

fail_timeout=10s max_fails定义的失败次数后,距离下次检查的间隔时间,默认是10s ;如果max_fails是5 ,它就检测5次,如果5次都是502,那么,它就会根据fail_timeout的值,等待10s再去检查,还是只检查一次,如果持续502,在不重新加载 Nginx配置的情况下,每隔10s都只检查一次。常规业务2~3秒比较合理,比如京东3秒,蓝汛3秒,可根据业务需求去配置。
backup

热备配置(RS节点的高可用),当前面激活的RS都失败后会自动启用热备RS这标志看这个服务器作为备份服务器,若主服务器全部宕机了,就会向它转发请求。

注意:当负载调度算法为ip_hash时,后端服务器在负载均衡调度中的状态不能是weight和backup。

down 这标志着服务器永远不可用,这个参数可配合ip_hash使用;类似与注释。

 

weight :调节服务器的请求分配权重。

上述命令的说明如下:

check :开启对该服务器健康检查。

  1.   check :开启对该服务器健康检查。
  2.   inter:设置连续两次的健康检查间隔时间,单位毫秒,默认值2000。
  3.   rise :指定多少次连续成功的健康检查后,即可认定该服务器处于可用状态。
  4.   fall :指定多少次不成功的健康检查后,即认为服务器为宕机状态,默认值3。
  5.   maxconn :指定可被发送到该服务器的最大并发连接数。

 虽然Nginx本身不支持一致性hash算法,但Nginx的分支Tengine支持。详细可见http://tengine.taobao.org/document_cn/http_upstream_consistent_hash_cn.html

 ip_hash 参数实践

每个访问的用户都会生成一个hash值。

      每个请求按客户端 IP的 hash结果分配,当新的请求到达时,先将其客户端 IP通过哈希算法哈希出一个值,在随后的客户端请求中,客户IP的咍希值只要相同,就会被分配至同一台服务器,该调度算法可以解决动态网页的session共享问题,但有时会导致请求分配不均,即无法保证1:1的负载均衡,因为在国内大多数公司都是NAT上网横式,多个客户端会对应_个外部IP ,所以,这些客户端都会被分配到同一节点服务器,从而导致请求分配不均。

          LVS负载均衡的-p参数、Keepalived配置里的 persistence jimeout 50参数都类似这个 Nginx里的ip_hash参数,其功能都可以解决动态网页的session共享问题。

http {
    include       mime.types;
    default_type  application/octet-stream;

    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    #access_log  logs/access.log  main;

    sendfile        on;
    #tcp_nopush     on;

    #keepalive_timeout  0;
    keepalive_timeout  65;

    #gzip  on;

        upstream backend {
        ip_hash;
        server 192.168.1.221:80 weight=1 max_fails=3 fail_timeout=10;
        server 192.168.1.223:80 weight=1 max_fails=3 fail_timeout=10;
        
    } 
    server {
        listen 80;
        index  index.html index.htm;
        server_name baidu.ljj.com;
        location / {
        root html;
        proxy_pass http://backend;
        }
    }

测试

[root@master nginx]# curl 192.168.1.222/bbs.html
192.168.1.221 baidu.ljj.com
[root@master nginx]# curl 192.168.1.222/bbs.html
192.168.1.221 baidu.ljj.com
[root@master nginx]# curl 192.168.1.222/bbs.html
192.168.1.221 baidu.ljj.com
[root@master nginx]# curl 192.168.1.222/bbs.html
192.168.1.221 baidu.ljj.com
[root@master nginx]# curl 192.168.1.222/bbs.html
192.168.1.221 baidu.ljj.com

least_conn 参数

看谁闲,谁闲发送给谁

least_conn算法会根据后端节点的连接数来决定分配情况,哪个机器连接数少就分发。

fair 参数

  看谁响应的快

  此算法会根据后端节点服务器的响应时间来分配请求,响应时间短的优先分配。这是更加智能的调度算法。此种算法可以依据页面大小和加载时间长短智能地进行负载均衝,也就是根据后端服务器的响应时间来分配请求,响应时间短的优先分配。Nginx本身不支持fair调度算法,如果需要使用这种调度算法,必须下载Nginx的相关模块upstream_fair。

示例如下: 

upstream backend {
server
192.168.1.221:80 weight=1 max_fails=3 fail_timeout=10; server 192.168.1.223:80 weight=1 max_fails=3 fail_timeout=10; fair;

除了上面这些算法外,还有一些第三方调度算法,例如:url_hash、一致性hash算法等.

 调度算法

  定义轮询调度算法 rr 默认调度算法   平均分配

  定义权重调度算法 wrr

  定义静态调度算法 ip-hash

  定义最小的连接数-least_conn

nginx负载均衡相关重要参数

Nginx反向代理重要参敎 解释说明
proxy.pass http://server_pools;  通过proxy_pass功能把用户的清求转向到反向代理定义的upstream服务器池
proxy_set_header Host $host 在代理向后端服务器发送的 http请求头中加入 host字段信息,用于当后端服务器配置有多个虚拟主机时,可以识别代理的是哪个虚拟主机。这是节点服务器多虚拟主机时的关键配置

proxy_set_header X-ForwardedFor

$remote_addr;

在代理向后端服务器发送的 http请求头中加入 X-Forward-For字段信息,用于后端服务器程序、日志等接收记录真实用户的 IP ,而不是代理服务器的IP这是反向代理时,节点服务器获取用户真实 IP的必要功能配置

 

反向代理排错思路

 01.先在master上访问后端节点进行测试

 02.在master上访问本地地址进行测试

 03.在浏览器上进行测试

 缓存、域名解析

 定义多个虚拟主机标签信息

http {
include mime.types;
default_type application/octet-stream;

#log_format main '$remote_addr - $remote_user [$time_local] "$request" '
# '$status $body_bytes_sent "$http_referer" '
# '"$http_user_agent" "$http_x_forwarded_for"';

#access_log logs/access.log main;

sendfile on;
#tcp_nopush on;

#keepalive_timeout 0;
keepalive_timeout 65;

#gzip on;

upstream nginx_server {
server 192.168.1.221:80;
server 192.168.1.223:80;

}
server {
listen 80;
server_name baidu.ljj.com;
location / {
proxy_pass http://nginx_server;
proxy_set_header Host $host;
}
}
server {
listen 80;
server_name sina.ljj.com;
location / {
proxy_pass http://nginx_server;
proxy_set_header Host $host;
}
}

X-Forwarded-For 参数

proxy_set_header X-Forwarded-For $remote_addr;

          代理的啥时候在后面显示真实的IP地址

http {
    include       mime.types;
    default_type  application/octet-stream;

    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    #access_log  logs/access.log  main;

    sendfile        on;
    #tcp_nopush     on;

    #keepalive_timeout  0;
    keepalive_timeout  65;

    #gzip  on;

        upstream nginx_server {
        server 192.168.1.221:80;
        server 192.168.1.223:80;

    }
    server {
        listen 80;
        server_name baidu.ljj.com;
        location / {
        proxy_pass http://nginx_server;
        proxy_set_header Host $host;
        proxy_set_header X-Forwarded-For $remote_addr;
        }
    }
    server {
        listen 80;
        server_name sina.ljj.com;
        location / {
        proxy_pass http://nginx_server;
        proxy_set_header Host $host;
        proxy_set_header X-Forwarded-For $remote_addr;
        }
    }

http proxy 模块相关参数说明

http proxy 模块相关参数  说明
proxy_set_header 设置http请求header项传给后端服务器节点,例如:可实现让代理后端的服务器节点获取访问客户端用户的真实IP地址
client_body_buffer_size 用于指定客户端请求主体缓冲区大小
proxy_connect_timeout 表示反向代理后端节点服务器连接的超时时间,即发起握手等候响应的超时时间
proxy_send_timeout 表示代理后端服务器的数据回传时间,即在规定时间内后端服务器必须传完所有数据,否则nginx将断开这个连接
proxy_read_timeout 设置nginx从代理的后端服务器获取信息的时间,表示连接建立成功后,nginx等待后端服务器的响应时间,其实是nginx已经进入后端的排队之中等候处理的时间
proxy_buffer_size 设置缓冲区大小,默认该缓冲区大小等于指令proxy_buffers设置的大小
proxy_buffers 设置缓冲区的数量和大小,nginx从代理的后端服务器获取的响应信息,会设置到缓冲区
proxy_busy_buffers_size 用于设置相同很忙时可以使用的proxy_buffers大小,官方推荐的大小为proxy_buffers * 2
proxy_trmp_file_write_size 指定proxy缓存临时文件的大小

 

相据URL目录地址转发的应用场景1.6 基于目录(uri)进行

转发--网站动静分离

  根据HTTP的URL进行转发的应用情况,被称为第7层(应用层)的负载均衡,而LVS的负载均衡一般用于TCP等的转发,因此被称为第4层(传输层)的负载均衡。

  在企业中,有时希望只用一个域名对外提供服务,不希望使用多个域名对应同一个产品业务,此时就需要在代理服务器上通过配置规则,使得匹配不同规则的请求会交给不同的服务器池处理。这类业务有:

  

推荐阅读