关于提高服务器的带宽策略bonding

一:bonding的概念

所谓bonding就是将多块网卡绑定同一IP地址对外提供服务,可以实现网卡的带宽扩容、高可用或者负载均衡。

二:bonding的优势

1 网络负载均衡
2 提高带宽网络传输效率
3 网络冗余与高可用

三:bonding的策略(7种策略)

1  balance-rr (mode=0)轮询(Round-robin)策略:从头到尾顺序的在每一个slave接口上面发送数据包。本模式提供负载均衡和容错的能力。
2 active-backup(mode=1)主备模式 ,在绑定中,只有一个slave被激活。当且仅当活动的slave接口失败时才会激活其他slave。为了避免交换
  机发生混乱此时绑定的MAC地址只有一个外部端口上可见。在bongding的2.6.2及其以后的版本中,主备模式下发生一次故障迁移时,bonding将在新
  激活的slave上会送一个或者多个gratuitous ARP.bonding的主salve接口上以及配置在接口上的所有VLAN接口都会发送gratuitous ARP,只要
  这些接口上配置了至少一个IP地址。VLAN接口上发送的的gratuitous ARP将会附上适当的VLAN id。本模式提供容错能力,primary option,
  documented below会影响本模式的行为。 3 balance-xor(mode=2)XOR策略:基于所选择的传送hash策略。本模式提供负载均衡和容错的能力。 4 broadcast(mode=3)广播策略:在所有的slave接口上传送所有的报文。本模式提供容错能力。 5 802.3ad(mode=4)IEEE 802.3ad 动态链路聚合。创建共享相同的速率和双工模式的聚合组。能根据802.3ad规范利用所有的slave来建立聚合链路。
  Salve的出站选择取决于传输的hash策略,默认策略是简单的XOR策略,而hash策略则可以通xmit_hash_policy选项加以改变。需要注意的是:不是所有
  的传输策略都与802.3ad兼容,尤其是802.3ad标准的43.2.4章节中关于 packet mis-ordering要求的地方。不同个体的实现往往出现很大的不兼容。 先决条件: 1. 每个slave的基本驱动支持Ehtool获取速率和双工状态。 2.交换机支持IEEE 802.3ad动态链路聚合。大多数的交换机都需要使用某种配置方式来启用802.3ad模式。 6 balance-tlb(mode=5)   自适应传输负载均衡:信道绑定不需要特殊的交换机支持。出口流量的分布取决于当前每个slave的负载(计算相对速度)。进口流量从当前的slave的接收。
  如果接收salve出错,其他的slave接管失败的slave的MAC地址继续接收。 先决条件: 每个slave的基本驱动支持Ehtool获取速率状态。 7 balance-alb(mode=6) 自适应负载均衡:包括balance-tlb(模式5)以及用于IPV4流量的接收负载均衡,并且不需要特殊的交换机支持。接收负载均衡通过ARP协商实现。bonding的
驱动拦截本机发出的ARP Replies(ARP回应报文),并且用bond的某一个slave的硬件地址改写ARP报文的源地址,使得本服务器对不同的设备使用不同的硬件
地址。本服务器建立的连接的接收流量也是负载均衡的。当本机发送ARP Request时,bonding驱动通过ARP报文复制并保存节点的IP信息。当从其他节点接收到
ARP Reply,bonding驱动获取节点的硬件地址并且会回应一个包含绑定好的slave的硬件地址的ARP Reply给发送的节点。用ARP协商的负载均衡的有一个问题
是每次用bond的硬件地址广播ARP报文,那么其他节点发送的数据全部集中在一个slave上,处理ARP更新给其他所有节点的时候,每个节点会重新学习硬件地址,
导致流量重新分配。当新加入一个slave或者一个非激活的slave重新激活的时候也会导致接收流量重新分配。接收流量负载是串行(轮转)的分配在bond的一组速
率最高的slave上。 当一个链路重连或者一个新的slave加入的时候,bond会重新初始化ARP Replies给所有的客户端。updelay参数的值必须等于或者大于交换机的forwarding delay,
以免ARP Replies被交换机阻塞。 先决条件: 1.每个slave的基本驱动支持Ehtool获取速率状态。 2. 基本驱动支持当设备打开时重新设置硬件地址。也要求每一个slave具有唯一的硬件地址。如果curr_active_slave失败,它的硬件地址被新选上的
  curr_active_slave硬件地址来替换

四 bonding的相关配置(生产环境mode=6的方式)

1 首先进入网卡文件配置目录  cd /etc/sysconfig/network-scripts/  

2 备份网卡配置文件cp ifcfg-eth0  ifcfg副本-eth0

3 拷贝cp ifcfg-eth0  ifcfg-bond0   

4 配置 bonding

#cat <<EOF >>ifcfg-bond0
DEVICE=bond0
BONDING_OPTS='miimon=100 mode=6'
BOOTPROTO=none
ONBOOT=yes
IPADDR=192.168.1.61
NETMASK=255.255.255.0
GATEWAY=192.168.1.1
USERCTL=no
EOF

配置网卡eth0、eth1

#cat << EOF >>ifcfg-eth0 
DEVICE=eth0
HWADDR=D0:50:99:C1:0E:83
TYPE=Ethernet
UUID=5eefe89c-0cbf-426c-987e-1b6ee1c54024
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=none
MASTER=bond0
SLAVE=yes
USERCTL=no
EOF

#cat << EOF >>ifcfg-eth01
DEVICE=eth1
HWADDR=D0:50:99:C1:0E:81
TYPE=Ethernet
UUID=a71f51f5-c05b-4bcd-a618-bb09813be60e
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=none
MASTER=bond0
SLAVE=yes
USERCTL=no
EOF 

五: 加载bonding模块配置文件声明

#加载配置
# cat /etc/modprobe.d/bond.conf alias bond0 bonding
# 修改bond模式的两种方式
1.cat /etc/modprobe.d/dist.conf  options bond0 miimon=100 mode=6
2 还有一种修改方式在ifcfg-bond0网卡配置文件追加
 BONDING_OPTS="mode=1 miimon=100"

1 #modprobe bonding      加载bonding配置

  service network restart 重启网卡

2 查看bond0 是否生效

#cat /proc/net/bonding/bond0
Bonding Mode: adaptive load balancing
Primary Slave: None
Currently Active Slave: eth1
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0


Slave Interface: eth0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 1
Permanent HW addr: d0:50:99:c1:0e:83
Slave queue ID: 0


Slave Interface: eth1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: d0:50:99:c1:0e:81
Slave queue ID: 0 

3 开机自启脚本配置声明

cat /etc/rc.local 
#!/bin/bash
touch /var/lock/subsys/local
ifenslave  bond1 eth1 eth2  

注意:在重启network服务时需关闭NetworkManager

#systemctl stop NetworkManager.service     # 停止NetworkManager服务

#systemctl disable NetworkManager.service  # 禁止开机启动NetworkManager服务

#systemctl isdisable NetworkManager.service  #查看NetworkManager服务是否关闭 

原因:
在CentOS系统上,目前有NetworkManager和network两种网络管理工具。如果两种都配置
会引起冲突,而且NetworkManager在网络断开的时候,会清理路由,如果一些自定义的路
由,没有加入到NetworkManager的配置文件中,路由就被清理掉,网络连接后需要自定义添
加上去。

五 测试:

1 在测试高可用时:

拔掉一根网线看是否还能ping通bond0

2 在测试流量带宽时 

如果两张网卡为千兆带宽时,我们应同时准备两台同等带宽的服务器同时测试

准备: 

软件:iperf3 参考博客:https://www.cnblogs.com/yingsong/p/5682080.html

命令 服务端:  iperf –s -u –p 12345 –i 1

   客户端: iperf -c server-ip -p server-port -i 1 -t 10 -b(两台客户端服务器同时执行)

结果:如果服务端的带宽大于1000M且拔掉一根网线还能成功,证明bonding配置成功

 

 

 

 

Bonding Mode: adaptive load balancingPrimary Slave: NoneCurrently Active Slave: eth1MII Status: upMII Polling Interval (ms): 100Up Delay (ms): 0Down Delay (ms): 0

Slave Interface: eth0MII Status: upSpeed: 1000 MbpsDuplex: fullLink Failure Count: 1Permanent HW addr: d0:50:99:c1:0e:83Slave queue ID: 0

Slave Interface: eth1MII Status: upSpeed: 1000 MbpsDuplex: fullLink Failure Count: 0Permanent HW addr: d0:50:99:c1:0e:81Slave queue ID: 0--------------------- 作者:su4416160 来源:CSDN 原文:https://blog.csdn.net/su4416160/article/details/53103599 版权声明:本文为博主原创文章,转载请附上博文链接!

posted @ 2019-06-15 12:58  传盛  阅读(2487)  评论(0编辑  收藏  举报