13 代理与负载均衡基础

代理

可以理解为中介,在没有代理的模式的情况下,都是客户端直接请求的服务端,在实际的情况下,为了安全,客户端往往无法直接向服务端发起请求,就需要用到代理服务,来实现通信。

  • 正向代理(vpn)

    用于内部上网,客户端<-->代理--->服务端

  • 反向代理

    用于公司的集群架构中,客户端-->代理<--->服务端

Nginx支持的协议

1.http
2.https
3.websocket
4.tcp/ip
5.rtmp
6.pop/imap
反向代理内容 Nginx模块
fastcgi(php) ngx_http_fastcgi_module
proxy(http,https,websocket,tomcat,java程序) ngx_http_proxy_module
uwsgi(python) ngx_http_uwsgi_module
grpc(golang) ngx_http_v2_module

Nginx配置代理

代理的语法

Syntax:	proxy_pass URL;
Default:	—
Context:	location, if in location, limit_except

location /name/ {
    proxy_pass http://127.0.0.1/remote/;
}

编写web01、web02网站

[root@web01 conf.d]# cat test.conf 
server {
	root /test;
	listen 80;
	server_name testweb01.com;

	location / {
	index index.html;
	}
}

[root@web02 conf.d]# cat test.conf 
server {
	root /test;
	listen 80;
	server_name testweb02.com;

	location / {
	index index.html;
	}
}

编写代理的配置文件

[root@lb01 conf.d]# cat test.conf 
server {
	listen 80;
	server_name linux.proxy.com;	

	location / {
		proxy_pass http://192.168.15.7;	#这里如果使用ip,没用域名,就是会返回默认的
		proxy_set_header Host $http_host;	#指定访问头
	}
}

Nginx代理的常用优化参数

添加发往后端服务器的请求头信息

Syntax:    proxy_set_header field value;
Default:    proxy_set_header Host $proxy_host;
            proxy_set_header Connection close;
Context:    http, server, location
 
# 用户请求的时候HOST的值是www.oldboy.com, 那么代理服务会像后端传递请求的还是www.oldboy.com
proxy_set_header Host $http_host;
# 将$remote_addr的值放进变量X-Real-IP中,$remote_addr的值为客户端的ip
proxy_set_header X-Real-IP $remote_addr;
# 客户端通过代理服务访问后端服务, 后端服务通过该变量会记录真实客户端地址
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

日志里面还可以配置 "$httpd_x_real_ip"

代理到后端的TCP连接、响应、返回等超时时间

#nginx代理与后端服务器连接超时时间(代理连接超时)
Syntax:  proxy_connect_timeout time;
Default: proxy_connect_timeout 60s;
Context: http, server, location

#nginx代理等待后端服务器的响应时间
Syntax:     proxy_read_timeout time;
Default:    proxy_read_timeout 60s;
Context:    http, server, location

#后端服务器数据回传给nginx代理超时时间
Syntax:  proxy_send_timeout time;
Default: proxy_send_timeout 60s;
Context: http, server, location

proxy_buffer代理缓冲区

#nignx会把后端返回的内容先放到缓冲区当中,然后再返回给客户端,边收边传, 不是全部接收完再传给客户端
Syntax:  proxy_buffering on | off;
Default: proxy_buffering on;
Context: http, server, location

#设置nginx代理保存用户头信息的缓冲区大小
Syntax:  proxy_buffer_size size;
Default: proxy_buffer_size 4k|8k;
Context: http, server, location

#proxy_buffers 缓冲区
Syntax:  proxy_buffers number size;
Default: proxy_buffers 8 4k|8k;
Context: http, server, location

将http的1.0配置为1.1

    location /http/ {
        proxy_pass http://http_backend;
        proxy_http_version 1.1;
        proxy_set_header Connection "";
      }

常用的优化配置

location / {
        proxy_pass http://127.0.0.1:8080;
        include proxy_params;
}

[root@lb01 ~]# vim /etc/nginx/proxy_params 
proxy_set_header Host $http_host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

proxy_connect_timeout 30;
proxy_send_timeout 60;
proxy_read_timeout 60;

proxy_buffering on;
proxy_buffer_size 32k;
proxy_buffers 4 128k;

负载均衡

将请求平均的分配给后端服务器,实现负载的分发,提升系统的吞吐量,请求性能,高容灾。

  • 负载均衡的名称
负载
负载均衡
LB
Load Balance
  • 公有云中常见的负载均衡
SLB	#阿里云的云产品
LB	#青云产品
CLB	#腾讯云产品
ULB	#Ucloud产品
  • 负载均衡软件
Nginx、Haproxy、LVS(纯代理)

负载均衡类型

#四层负载均衡
所谓四层负载均衡指的是OSI七层模型中的传输层,那么传输层Nginx已经能支持TCP/IP的控制,所以只需要对客户端的请求进行TCP/IP协议的包转发就可以实现负载均衡,那么它的好处是性能非常快、只需要底层进行应用处理,而不需要进行一些复杂的逻辑。

#七层负载均衡
七层负载均衡它是在应用层,那么它可以完成很多应用方面的协议请求,比如我们说的http应用的负载均衡,它可以实现http信息的改写、头信息的改写、安全应用规则控制、URL匹配规则控制、以及转发、rewrite等等的规则,所以在应用层的服务里面,我们可以做的内容就更多,那么Nginx则是一个典型的七层负载均衡SLB

#四层负载与七层负载区别
四层负载均衡数据包在底层就进行了分发,而七层负载均衡数据包则是在最顶层进行分发、由此可以看出,七层负载均衡效率没有四负载均衡高。
但七层负载均衡更贴近于服务,如:http协议就是七层协议,我们可以用Nginx可以作会话保持,URL路径规则匹配、head头改写等等,这些是四层负载均衡无法实现的。
注意:四层负载均衡不识别域名,七层负载均衡识别域名

Nginx负载均衡配置

Nginx要实现负载均衡需要用到proxy_pass代理模块配置.

Nginx负载均衡与Nginx代理不同地方在于,Nginx的一个location仅能代理一台服务器,而Nginx负载均衡则是将客户端请求代理转发至一组upstream虚拟服务池.

负载均衡配置语法 ngx_http_upstream_module

Syntax:	upstream name { ... }
Default:	—
Context:	http

upstream backend {
    server backend1.example.com;
    server backend2.example.com;
}

server {
	listen 80;
	server_name www.linux.com
    location / {
        proxy_pass http://backend;
    }
}

web01准备站点

[root@web01 conf.d]# vim node.conf 
server {
    listen 80;
    server_name node.linux.com;

    location / {
        root /code/node;
        inde index.html;
    }
}

[root@web01 conf.d]# mkdir /code/node
[root@web01 conf.d]# echo "我是web01......" > /code/node/index.html
[root@web01 conf.d]# systemctl restart nginx

web02准备站点

[root@web02 conf.d]# vim node.conf
server {
    charset 'utf-8';
    listen 80;
    server_name node.linux.com;

    location / {
        root /code/node;
        index index.html;
    }
}

[root@web02 conf.d]# mkdir /code/node
[root@web02 conf.d]# echo "我是web02......" > /code/node/index.html
[root@web02 conf.d]# systemctl restart nginx

配置负载均衡配置文件

[root@lb01 conf.d]# vim node_proxy.conf 
upstream node {
    server 172.16.1.7:80;
    server 172.16.1.8:80;
}

server {
    listen 80;
    server_name node.linux.com;

    location / {
        proxy_pass http://node;	#七层的是有协议,四层的是不需要写协议的
        include proxy_params;
    }
}

#检查include文件是否存在
[root@lb01 conf.d]# ll /etc/nginx/proxy_params 
-rw-r--r-- 1 root root 275 Feb 28 15:24 /etc/nginx/proxy_params
[root@lb01 conf.d]# systemctl restart nginx

#自行测试

配置优化文件

[root@Nginx ~]# vim /etc/nginx/proxy_params
proxy_set_header Host $http_host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
 
proxy_connect_timeout 30;
proxy_send_timeout 60;
proxy_read_timeout 60;
 
proxy_buffering on;
proxy_buffer_size 32k;
proxy_buffers 4 128k;

负载均衡状态码屏蔽

如果后台服务连接超时,Nginx是本身是有机制的,如果出现一个节点down掉的时候,Nginx会更据你具体负载均衡的设置,将请求转移到其他的节点上,但是,如果后台服务连接没有down掉,但是返回错误异常码了如:504、502、500,这个时候你需要加一个负载均衡的设置,如下:proxy_next_upstream http_500 | http_502 | http_503 | http_504 |http_404;意思是,当其中一台返回错误码404,500...等错误时,可以分配到下一台服务器程序继续处理,提高平台访问成功率。
server {
    listen 80;
    server_name node.linux.com;

    location / {
        proxy_pass http://node;
        proxy_next_upstream error timeout http_500 http_502 http_503 http_504;
    }
}

nginx 调度算法

调度算法 概述
轮询 按时间顺序逐一分配到不同的后端服务器(默认)
weight 加权轮询,weight值越大,分配到的访问几率越高
ip_hash 每个请求按访问IP的hash结果分配,这样来自同一IP的固定访问一个后端服务器
url_hash 按照访问URL的hash结果来分配请求,是每个URL定向到同一个后端服务器
least_conn 最少链接数,那个机器链接数少就分发

轮询配置方法

upstream node {
    server 172.16.1.7:80;
    server 172.16.1.8:80;
}

加权轮询配置方法

#访问根据配置的权重比例进行分配
upstream node {
    server 172.16.1.7:80 weight=5;
    server 172.16.1.8:80 weight=1;
}

ip_hash的配置方法

#根据访问的来源IP分配至同一台服务器
upstream node {
    server 172.16.1.7:80;
    server 172.16.1.8:80;
    ip_hash;
}
#经常使用这种方式进行会话保持

nginx负载均衡状态

状态 概述
down 当前的server暂时不参与负载均衡
backup 预留的备份服务器
max_fails 允许请求失败的次数
fail_timeout 经过max_fails失败后, 服务暂停时间
max_conns 限制最大的接收连接数

down状态配置测试

upstream node {
	#不参与负载均衡任何调度,一般停机维护或者上线的时候使用
    server 172.16.1.7:80 down;
    server 172.16.1.8:80;
}

backup状态配置测试

upstream node {
    server 172.16.1.7:80;
    server 172.16.1.8:80 backup;
}

访问错误状态

upstream node {
    server 172.16.1.7:80;
    server 172.16.1.8:80 max_fails=3 fail_timeout 10s;
}

max_conns限制最大连接数状态配置

upstream node {
    server 172.16.1.7:80;
    server 172.16.1.8:80 max_conns=120;
}

nginx健康检查模块(扩展)

[root@lb01 ~]# yum install -y gcc glibc gcc-c++ pcre-devel openssl-devel patch
[root@lb01 ~]# wget http://nginx.org/download/nginx-1.14.2.tar.gz
[root@lb01 ~]# wget https://github.com/yaoweibin/nginx_upstream_check_module/archive/master.zip
[root@lb01 ~]# tar xf nginx-1.14.2.tar.gz
[root@lb01 ~]# unzip master.zip
[root@lb01 ~]# cd nginx-1.14.2/
[root@lb01 nginx-1.14.2]# patch -p1 <../nginx_upstream_check_module-master/check_1.14.0+.patch

./configure --prefix=/data/nginx --sbin-path=/usr/sbin/nginx --modules-path=/usr/lib64/nginx/modules --conf-path=/data/nginx/nginx.conf --error-log-path=/data/log/nginx/error.log --http-log-path=/data/log/nginx/access.log --pid-path=/var/run/nginx.pid --lock-path=/var/run/nginx.lock --http-client-body-temp-path=/var/cache/nginx/client_temp --http-proxy-temp-path=/var/cache/nginx/proxy_temp --http-fastcgi-temp-path=/var/cache/nginx/fastcgi_temp --http-uwsgi-temp-path=/var/cache/nginx/uwsgi_temp --http-scgi-temp-path=/var/cache/nginx/scgi_temp --user=nginx --group=nginx --with-compat --with-file-aio --with-threads --with-http_addition_module --with-http_auth_request_module --with-http_dav_module --with-http_flv_module --with-http_gunzip_module --with-http_gzip_static_module --with-http_mp4_module --with-http_random_index_module --with-http_realip_module --with-http_secure_link_module --with-http_slice_module --with-http_ssl_module --with-http_stub_status_module --with-http_sub_module --with-http_v2_module --with-mail --with-mail_ssl_module --with-stream --with-stream_realip_module --with-stream_ssl_module --with-stream_ssl_preread_module --add-module=/root/nginx_upstream_check_module-master --with-cc-opt='-O2 -g -pipe -Wall -Wp,-D_FORTIFY_SOURCE=2 -fexceptions -fstack-protector-strong --param=ssp-buffer-size=4 -grecord-gcc-switches -m64 -mtune=generic -fPIC' --with-ld-opt='-Wl,-z,relro -Wl,-z,now -pie'
[root@lb01 nginx-1.14.2]# make && make install

[root@lb01 nginx-1.14.2]# vim /etc/nginx/conf.d/proxy.conf 
upstream web {
    server 10.0.0.7;
    server 10.0.0.8;
    check interval=3000 rise=1 fall=2 timeout=1000;
}
server {
    listen 80;
    server_name proxy.linux.com;

    location / {
        proxy_pass http://web;
        proxy_set_header host $http_host;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_http_version 1.1;
    }
    location /upstream_check {
        check_status;
    }
}
posted @ 2021-05-02 00:49  BaiM0  阅读(144)  评论(0编辑  收藏  举报