KVM 虚拟机和网卡绑定问题

有一台物理机,需要做kvm虚拟机。

首先做了物理机的双网卡绑定,目前在 centos7 上做双网卡绑定有两种方式:

  • bond
  • team

本次采用了 team 的方式,并使用了 roundrobin ,实际操作过程记录:https://www.cnblogs.com/hukey/p/16086177.html , 配置了桥接网络,一切正常,并未发生任何丢包的情况。然后开启虚拟机并配置IP后,发现虚拟机出现了一些问题,有点主机能ping 通,有些主机ping不通。于是纠结了一番,最后断定问题出在了 team 网卡绑定上。

team 采用的是 roundrobin 方式,查看 网卡mac 地址:

1654832203859


首先猜测问题:两张物理网卡接入同一交换机如果mac地址一致,交换机端口是需要做汇聚的。而我这里采用的是普通的傻瓜式交换机,也并没有想在交换机上做任何配置。


于是,拆除了 team - roundrobin 方式,采用 bond 方式来做网卡绑定,如下:

所有需要重点修改的部分,红色方框标注。

1654832483368


编写完成后,重启网络。

systemctl restart network

再次开启虚拟机,发现虚拟机网络恢复正常。通过解决上面问题,也需要对 teambond 两种方式进一步了解。


bond 和 team 区别

bond只能是双网卡绑定,team不需要手动加载相应内核模块和有更强的拓展性,最高可以绑定8块网卡。


bond模式

(1)mode=0(balance-rr)(平衡轮循环策略)
链路负载均衡,增加带宽,支持容错,一条链路故障会自动切换正常链路。交换机需要配置静态链路聚合。
特点:传输数据包顺序是依次传输(即:第1个包走eth0,下一个包就走eth1….一直循环下去,直到最后一个传输完毕),此模式提供负载平衡和容错能力;但是我们知道如果一个连接或者会话的数据包从不同的接口发出的话,中途再经过不同的链路,在客户端很有可能会出现数据包无序到达的问题,而无序到达的数据包需要重新要求被发送,这样网络的吞吐量就会下降。

(2)mode=1(active-backup)(主-备份策略)
这个是主备模式,只有一块网卡是active,另一块是备用的standby,所有流量都在active链路上处理。
特点:只有一个设备处于活动状态,当一个宕掉另一个马上由备份转换为主设备。mac地址是外部可见得,从外面看来,bond的MAC地址是唯一的,以避免switch(交换机)发生混乱。此模式只提供了容错能力;由此可见此算法的优点是可以提供高网络连接的可用性,但是它的资源利用率较低,只有一个接口处于工作状态,在有 N 个网络接口的情况下,资源利用率为1/N,连接交换机的两个端口不需要做LACP(链路聚合)。

(3)mode=2(balance-xor)(平衡策略)
表示XOR Hash负载分担,和交换机的聚合强制不协商方式配合。(需要xmit_hash_policy,需要交换机配置port channel)
特点:基于指定的传输HASH策略传输数据包。缺省的策略是:(源MAC地址 XOR 目标MAC地址) % slave数量。其他的传输策略可以通过xmit_hash_policy选项指定,此模式提供负载平衡和容错能力。

(4)mode=3(broadcast)(广播策略)
表示所有包从所有网络接口发出,这个不均衡,只有冗余机制,但过于浪费资源。此模式适用于金融行业,因为他们需要高可靠性的网络,不允许出现任何问题。需要和交换机的聚合强制不协商方式配合。
特点:在每个slave接口上传输每个数据包,此模式提供了容错能力。

(5)mode=4(802.3ad)(IEEE 802.3ad 动态链接聚合)
表示支持802.3ad协议,和交换机的动态链路方式配合(需要xmit_hash_policy),标准要求所有设备在聚合操作时,要在同样的速率和双工模式,而且,和除了balance-rr模式外的其它bonding负载均衡模式一样,任何连接都不能使用多于一个接口的带宽。
特点:创建一个聚合组,它们共享同样的速率和双工设定。根据802.3ad规范将多个slave工作在同一个激活的聚合体下。
外出流量的slave选举是基于传输hash策略,该策略可以通过xmit_hash_policy选项从缺省的XOR策略改变到其他策略。需要注意的是,并不是所有的传输策略都是802.3ad适应的,尤其考虑到在802.3ad标准43.2.4章节提及的包乱序问题。不同的实现可能会有不同的适应性。
必要条件:
条件1:ethtool支持获取每个slave的速率和双工设定
条件2:switch(交换机)支持IEEE 802.3ad Dynamic link aggregation
条件3:大多数switch(交换机)需要经过特定配置才能支持802.3ad模式

(6)mode=5(balance-tlb)(适配器传输负载均衡)
是根据每个slave的负载情况选择slave进行发送,接收时使用当前轮到的slave。该模式要求slave接口的网络设备驱动有某种ethtool支持;而且ARP监控不可用。
特点:不需要任何特别的switch(交换机)支持的通道bonding。在每个slave上根据当前的负载(根据速度计算)分配外出流量。如果正在接受数据的slave出故障了,另一个slave接管失败的slave的MAC地址。
必要条件:
ethtool支持获取每个slave的速率

(7)mode=6(balance-alb)(适配器适应性负载均衡)
在5的tlb基础上增加了rlb(接收负载均衡receive load balance),不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的。
必要条件:
条件1:ethtool支持获取每个slave的速率;
条件2:底层驱动支持设置某个设备的硬件地址,从而使得总是有个slave(curr_active_slave)使用bond的硬件地址,同时保证每个bond 中的slave都有一个唯一的硬件地址。如果curr_active_slave出故障,它的硬件地址将会被新选出来的 curr_active_slave接管。
其实mode=6与mode=0的区别:mode=6,先把eth0流量占满,再占eth1,….ethX;而mod=0的话,会发现2个口的流量都很稳定,基本一样的带宽。而mode=6,会发现第一个口流量很高,第2个口只占了小部分流量。

对于 bond类型,日常使用建议采用 mode=6


team模式

链路聚合与双网卡绑定几乎相同,可以实现多网卡绑定主从荣誉,负载均衡,提高网络访问流量。但链路聚合与双网卡绑定技术(bond)不同点就在于,双网卡绑定只能使用两个网卡绑定,而链路聚合最多可将8个网卡汇聚同时做绑定,此聚合模式称之为team,team模式是有CentOS 7 才出现的。


team 模式种类
1、broadcast - 广播容错
2、roundrobin - 平衡轮询
3、activebackup - 主备模式
4、loadbalance - 负载均衡


总结

centos7 系列建议采用 bond6 模式,team 目前支持 桥接,但是 虚拟机内可能无法访问外部网络。


参考链接:https://blog.csdn.net/qq_25854057/article/details/119082348

posted @ 2022-06-10 13:43  hukey  阅读(895)  评论(0编辑  收藏  举报