Haproxy 搭建web群集

Haproxy 搭建web群集

一、常见的web集群调度器

1、目前常见的web集群调度器分为软件和硬件

2、软件通常使用开源的LVS、Haproxy、Nginx

3、硬件一般使用比较多的是F5,也有很多人使用国内的一些产品,如梭子鱼、绿盟等

二、Haproxy应用分析

1、LVS在企业应用中抗负载能力很强,但存在不足

  • LVS不支持正则处理,不能实现动静分离
  • 对于大型网站,LVS的实施配置复杂,维护成本相对较高

2、Haproxy是一款可提供高可用性、负载均衡、及基于TCP和HTTP应用的代理软件

  • 适用于负载大的web站点
  • 运行在硬件上可支持数以万计的并发连接的连接请求

三、Haproxy调度算法原理

1、Haproxy 支持多种调度算法,最常用的有三种

(1)RR(Round Robin)

  • RR算法是最简单最常用的一种算法,即轮询调度
    例如
  • 有三个节点A、B、C
  • 第一个用户访问会被指派到节点A
  • 第一个用户访问会被指派到节点B
  • 第一个用户访问会被指派到节点C
  • 第四个用户访问会被指派到节点A,轮询分配访问请求实现负载均衡效果

(2)LC(Least Connections)

  • 最小连接数算法,根据后端的节点连接数大小动态分配前端请求
    例如
  • 有三个节点A、B、C,各节点的连接数分别为A:4、B:5、 C:6
  • 第一个用户连接请求,会被指派到A上,连接数变为A:5、B:5、 C:6
  • 第二个用户请求会继续分配到A上,连接数变为A:6、B:5、 C:6; 再有新的请求会分配给B,每次将新的请求指派给连接数最小的客户端
  • 由于实际情况下A、B、C的连接数会动态释放,很难会出现一样连接数的情况
  • 此算法相比较rr算法有很大改进,是目前用到比较多的一-种算法

(3)SH(Source Hashing)

  • 基于来源访问调度算法,用于一些有Session会记录在服务器端的场景,可以基于来源的IP、Cookie等做集群调度
    例如
  • 有三个节点A、B、C,第一个用户第一次访问被指派到了A,第二个用户第一次访问被指派到了B
  • 当第一个用户第二次访问时会被继续指派到A,第二个用户第二次访问时依旧会被指派到B,只要负载均衡调度器不重启,第一个用户访问都会被指派到A,第二个用户访问都会被指派到B,实现集群的调度
  • 此调度算法好处是实现会话保持,但某些IP访问量非常大时会引|起负载不均衡,部分节点访问量超大,影响业务使用

四、Haproxy

1、概述

  • HAProxy是可提供高可用性、负载均衡以及基于TCP和HTTP应用的代理,是免费、快速并且可靠的一种解决方案。HAProxy非常适用于并发大(并发达1w以上)web站点,这些站点通常又需要会话保持或七层处理。HAProxy的运行模式使得它可以很简单安全的整合至当前的架构中,同时可以保护web服务器不被暴露到网络上。

2、Haproxy的主要特性

可靠性和稳定性非常好,可以与硬件级的F5负载均衡设备相媲美;
最高可以同时维护40000-50000个并发连接,单位时间内处理的最大请求数为20000个,最大处理能力可达10Git/s;
支持多达8种负载均衡算法,同时也支持会话保持;
支持虚机主机功能,从而实现web负载均衡更加灵活;
支持连接拒绝、全透明代理等独特的功能;
拥有强大的ACL支持,用于访问控制;
其独特的弹性二叉树数据结构,使数据结构的复杂性上升到了0(1),即数据的查寻速度不会随着数据条目的增加而速度有所下降;
支持客户端的keepalive功能,减少客户端与haproxy的多次三次握手导致资源浪费,让多个请求在一个tcp连接中完成;
支持TCP加速,零复制功能,类似于mmap机制;
支持响应池(response buffering);
支持RDP协议;
基于源的粘性,类似nginx的ip_hash功能,把来自同一客户端的请求在一定时间内始终调度到上游的同一服务器;
更好统计数据接口,其web接口显示后端集群中各个服务器的接收、发送、拒绝、错误等数据的统计信息;
详细的健康状态检测,web接口中有关于对上游服务器的健康检测状态,并提供了一定的管理功能;
基于流量的健康评估机制;
基于http认证;
基于命令行的管理接口;
日志分析器,可对日志进行分析。

3、HAProxy负载均衡策略非常多,常见的有如下8种

roundrobin:表示简单的轮询。
static-rr:表示根据权重。
leastconn:表示最少连接者先处理。
source:表示根据请求的源IP,类似Nginx的IP_hash机制。
ri:表示根据请求的URI。
rl_param:表示根据HTTP请求头来锁定每一次HTTP请求。
rdp-cookie(name):表示根据据cookie(name)来锁定并哈希每一次TCP请求。

五、LVS、Nginx、HAproxy的区别

1、Nginx 优缺点

(1)Nginx优点

  • 工作在网络的7层之上,可以针对http应用做一些分流的策略,比如针对域名、目录结构。Nginx正则规则比HAProxy更为强大和灵活。
  • Nginx对网络稳定性的依赖非常小,理论上能ping通就就能进行负载功能,LVS对网络稳定性依赖比较大,稳定要求相对更高。
  • Nginx安装和配置、测试比较简单、方便,有清晰的日志用于排查和管理,LVS的配置、测试就要花比较长的时间了。
  • 可以承担高负载压力且稳定,一般能支撑几万次的并发量,负载度比LVS相对小些。
  • Nginx可以通过端口检测到服务器内部的故障,比如根据服务器处理网页返回的状态码、超时等等。
  • Nginx不仅仅是一款优秀的负载均衡器/反向代理软件,它同时也是功能强大的Web应用服务器。
  • Nginx作为Web反向加速缓存越来越成熟了,速度比传统的Squid服务器更快,很多场景下都将其作为反向代理加速器。
  • Nginx作为静态网页和图片服务器,这方面的性能非常优秀,同时第三方模块也很多。

(2)Nginx的缺点

  • Nginx仅能支持http、https和Email协议,这样就在适用范围上面小些。
  • 对后端服务器的健康检查,只支持通过端口来检测,不支持通过url来检测。
  • 不支持Session的直接保持,需要通过ip_hash和cookie的引导来解决。

2、LVS的优缺点

(1)LVS的优点

  • 抗负载能力强、是工作在网络4层之上仅作分发之用,没有流量的产生。因此负载均衡软件里的性能最强的,对内存和cpu资源消耗比较低。
  • LVS工作稳定,因为其本身抗负载能力很强,自身有完整的双机热备方案。
  • 无流量,LVS只分发请求,而流量并不从它本身出去,这点保证了均衡器IO的性能不会收到大流量的影响。
  • 应用范围较广,因为LVS工作在4层,所以它几乎可对所有应用做负载均衡,包括http、数据库等。

(2)LVS的缺点

  • 软件本身不支持正则表达式处理,不能做动静分离。相对来说,Nginx/HAProxy+Keepalived则具有明显的优势。
  • 如果是网站应用比较庞大的话,LVS/DR+Keepalived实施起来就比较复杂了。相对来说 Nginx/HAProxy+Keepalived就简单多了。

3、HAProxy的优点

  • HAProxy也是支持虚拟主机的。
  • HAProxy支持8种负载均衡策略。
  • HAProxy的优点能够补充Nginx的一些缺点,比如支持Session的保持,Cookie的引导,同时支持通过获取指定的url来检测后端服务器的状态。
  • HAProxy跟LVS类似,本身就只是一款负载均衡软件,单纯从效率上来讲HAProxy会比Nginx有更出色的负载均衡速度,在并发处理上也是优于Nginx的。
  • HAProxy支持TCP协议的负载均衡转发。

五、Haproxy搭建 Web 群集

环境准备

Haproxy服务器:192.168.70.25
Nginx 服务器1:192.168.70.10
Nginx 服务器2:192.168.70.15
客户端:192.168.70.5

haproxy 服务器部署

1、关闭防火墙,将安装 haproxy 所需软件包传到opt/目录下

systemctl stop firewalld
setenforce 0

haproxy-1.5.19.tar.gz

2、编译安装 haproxy

yum install -y pcre-devel bzip2-devel gcc gcc-c++ make

tar zxvf haproxy-1.5.19.tar.gz
cd haproxy-1.5.19/
make TARGET=linux2628 ARCH=x86_64
make install

---------------------参数说明---------------------------------------------------------------------------
TARGET=linux26    #内核版本,
#使用uname -r查看内核,如:2.6.18-371.el5,此时该参数用TARGET=linux26;kernel大于2.6.28的用TARGET=linux2628

ARCH=x86_64     #系统位数,64位系统
----------------------------------------------------------------------------------------------------------

3、Haproxy服务器配置

mkdir /etc/haproxy
cp examples/haproxy.cfg /etc/haproxy/

cd /etc/haproxy/
vim haproxy.cfg
global
--4~5行--修改,配置日志记录,local0为日志设备,默认存放到系统日志
        log /dev/log   local0 info        
        log /dev/log   local0 notice
        #log loghost    local0 info
        maxconn 4096                    #最大连接数,需考虑ulimit -n限制
--8行--注释,chroot运行路径,为该服务自设置的根目录,一般需将此行注释掉
        #chroot /usr/share/haproxy
        uid 99                            #用户UID
        gid 99                            #用户GID
        daemon                            #守护进程模式

defaults        
        log     global                    #定义日志为global配置中的日志定义
        mode    http                    #模式为http
        option  httplog                    #采用http日志格式记录日志
        option  dontlognull                #不记录健康检查日志信息
        retries 3                        #检查节点服务器失败次数,连续达到三次失败,则认为节点不可用
        redispatch                        #当服务器负载很高时,自动结束当前队列处理比较久的连接
        maxconn 2000                    #最大连接数
        contimeout      5000            #连接超时时间
        clitimeout      50000            #客户端超时时间
        srvtimeout      50000            #服务器超时时间

--删除下面所有listen项--,添加
listen  webcluster 0.0.0.0:80            #定义一个名为webcluster的应用
        option httpchk GET /test.html    #检查服务器的test.html文件
        balance roundrobin                #负载均衡调度算法使用轮询算法roundrobin
        server inst1 192.168.70.10:80 check inter 2000 fall 3        #定义在线节点
        server inst2 192.168.70.15:80 check inter 2000 fall 3

---------------------参数说明---------------------------------------------------------------------------
balance roundrobin        #负载均衡调度算法
#轮询算法:roundrobin;最小连接数算法:leastconn;来源访问调度算法:source,类似于nginx的ip_hash

check inter 2000        #表示haproxy服务器和节点之间的一个心跳频率
fall 3                    #表示连续三次检测不到心跳频率则认为该节点失效
若节点配置后带有“backup”表示该节点只是个备份节点,只有主节点失效该节点才会上。不携带“backup”,表示为主节点,和其它主节点共同提供服务。
----------------------------------------------------------------------------------------------------------

4、添加haproxy 系统服务

cp /opt/haproxy-1.5.19/examples/haproxy.init /etc/init.d/haproxy
chmod +x haproxy
chkconfig --add /etc/init.d/haproxy

ln -s /usr/local/sbin/haproxy /usr/sbin/haproxy
service haproxy start    或    /etc/init.d/haproxy start

5、节点服务器部署

systemctl stop firewalld
setenforce 0

yum install -y pcre-devel zlib-devel gcc gcc-c++ make 

useradd -M -s /sbin/nologin nginx

cd /opt
tar zxvf nginx-1.12.0.tar.gz -C /opt/

cd nginx-1.12.0/
./configure --prefix=/usr/local/nginx --user=nginx --group=nginx && make && make install

make && make install

--192.168.70.10---
echo "this is accp web" > /usr/local/nginx/html/test.html

--192.168.70.15---
echo "this is benet web" > /usr/local/nginx/html/test.html
 ln -s /usr/share/nginx/sbin/nginx /usr/local/sbin/ nginx #启动nginx 服 或者用yum安装 cat > /etc/yum.repos.d/nginx.repo << 'EOF' [nginx] name=nginx repo baseurl=http://nginx.org/packages/centos/7/$basearch/ gpgcheck=0 EOF yum install -y nginx

 注:Nginx服务器2操作如上,贴图就不进行了

6、测试web群集

  • 在客户端使用浏览器打开 http://192.168.70.25/test.html ,不断刷新浏览器测试负载均衡效果

 

六、日志定义

默认haproxy的日志是输出到系统的syslog中,查看起来不是非常方便,为了更好的管理haproxy的日志,我们在生产环境中一般单独定义出来。需要将haproxy的info及notice日志分别记录到不同的日志文件中。

vim /etc/haproxy/haproxy.cfg
global
    log /dev/log local0 info
    log /dev/log local0 notice

service haproxy restart

需要修改rsyslog配置,为了便于管理。将haproxy相关的配置独立定义到haproxy.conf,并放到/etc/rsyslog.d/下,rsyslog启动时会自动加载此目录下的所有配置文件。

vim /etc/rsyslog.d/haproxy.conf

if ($programname == 'haproxy' and $syslogseverity-text == 'info')
then -/var/log/haproxy/haproxy-info.log
&~
if ($programname == 'haproxy' and $syslogseverity-text == 'notice')
then -/var/log/haproxy/haproxy-notice.log
&~

说明:

这部分配置是将haproxy的info日志记录到/var/log/haproxy/haproxy-info.log下,将notice日志记录到/var/log/haproxy/haproxy-notice.log下。“&~”表示当日志写入到日志文件后,rsyslog停止处理这个信息。

systemctl restart rsyslog.service

tail -f /var/log/haproxy/haproxy-info.log        #查看haproxy的访问请求日志信息

补充

Haproxy参数优化

     随着企业网站负载增加,haproxy参数优化相当重要

  • maxconn: 最大连接数,根据应用实际情况进行调整,推荐使用10 240
  • daemon: 守护进程模式,Haproxy可以使用非守护进程模式启动,建议使用守护进程模式启动
  • nbproc: 负载均衡的并发进程数,建议与当前服务器CPU核数相等或为其2倍
  • retries: 重试次数,主要用于对集群节点的检查,如果节点多,且并发量大,设置为2次或3次
option http-server-close:主动关闭http请求选项,建议在生产环境中使用此选项

timeout http-keep-alive:长连接超时时间,设置长连接超时时间,可以设置为10s

timeout http-request: http请求超时时间,建议将此时间设置为5~ 10s,增加http连接释放速度

timeout client:客户端超时时间,如果访问量过大,节点响应慢,可以将此时间设置短一些, 建议设置为1min左右就可以了

 

posted @ 2021-08-23 17:47  YhtWeirdo  阅读(44)  评论(0编辑  收藏  举报