Linux从入门到精通——高级网络配置

一、网络桥接

网络桥接是指本地物理网卡和虚拟网卡通过VMnet0虚拟交换机进行桥接,物理网卡和虚拟网卡在拓扑图上处于同等地位,也就是说物理网卡和虚拟网卡就相当于处于同一个网段,虚拟交换机就相当于一台现实网络中的交换机,所以两个网卡的IP地址也要设置为同一网段。桥接网络适用于局域网,网桥工作在数据链路层,将两个LAN连起来,根据MAC地址来转发帧,可以看作一个“低级的路由器”(路由器工作在网络层,根据网络地址如IP地址进行转发)。在小型简单的局域网中,如需使用真实主机中的虚拟机对外提供例如ssh,http服务等,就需要桥接网络。


1.网络配置文件的目录 

/etc/sysconfig/network-scripts/    ##所有配置文件都以ifcfg-开头

2.备份网络配置文件

mkdir  /backup         ##新建个用以备份的目录       
mv ifcfg-p4p1 ifcfg-br0  /backup   ##备份配置文件以防无法恢复

 

   ifcfg-p4p1        ##网卡配置文件
   ifcfg-br0             ##桥接配置文件


注意:网卡名称随主机不同有差异

3.新建网卡配置文件并编辑 

vim ifcfg-p4p1
内容如下:
DEVICE=p4p1                     ##网卡设备名称
ONBOOT=yes                          ##网络服务启动时自动激活
BOOTPROTO=none                ##网卡工作模式(none静态、dhcp动态)
IPADDR=172.25.254.109          ##IP地址      
NETMASK=255.255.255.0     ##子网掩码

重启网络,查看虚拟机安装界面,可以发现没有桥接接口可用

注意:如果此时建立虚拟机,是从virbr0接口进入,经过br0进行地址转换,即NAT连接

4.修改网卡配置文
vim ifcfg-p4p1

在最后一行添加:
BRIDGE=br0                  ##桥接接口设备名称

5.新建桥接配置文件

vim ifcfg-br0

编写内容如下:
DEVICE=br0                 ##接口使用设备
TYPE=Bridge                ##接口类型,桥接(默认ethernet)

重启网络,查看虚拟机安装界面,可以看到桥接接口已经可以使用了

二、在虚拟机中管理桥接接口

1.查看主机桥接信息

brctl   show

2.建立桥接接口 

brctl  addbr  br0
ifconfig  br0  172.25.254.190/24
brctl  addif  br0  eth0


当桥接接口添加网卡后,网络通畅,否则网络不通


3..删除桥接接口

brctl  delif  br0  eth0      ##删除桥接接口的网卡信息

ifconfig  br0  down         ##停止桥接接口

brctl  delbr  br0         ##删除桥接接口

注意: 当br0工作时,不能直接删除,停止桥接接口工作后才能删除

三、链路聚合:bond接口和team接口  
一下操作需要至少两块网卡,请添加网卡后进行实验!

bond接口
1.新建bond接口

nmcli   connection  add  con-name  bond0  ifname  bond0  type  bond  mode active-backup  ip4  IP地址/24

   mode:网卡阵列类型

   active-backup   ##主备式,一个网卡工作,另一网卡备用;

                                  当一个宕掉另一个马上由备份转换为主设备

   active-rr            ##轮询式,传输数据包顺序是依次传输,你一个,我一个;

                                  链路负载均衡,增加带宽,支持容错,一条链路故障会自动切换正常链路

   balance-xor      ##平衡策略,表示XOR Hash负载分担,和交换机的聚合强制不协商方式配合;

                                  此模式提供负载平衡和容错能力

   broadcast        ##广播策略,表示所有包从所有网络接口发出,这个不均衡,只有冗余机制,但过于浪费资源;

                                   在每个slave接口上传输每个数据包,此模式提供了容错能力

2.网卡阵列

  nmcli connection add con-name eth0 ifname eth0 type bond-slave master bond0

  nmcli connection add con-name eth1 ifname eth1 type bond-slave master bond0

  bond-slave   ##实现网卡阵列服务

  master       ##指定接口 bond0

3.查看bond接口工作  /proc/net/bonding/bond0

此时网卡eth0工作,当eth0出现问题,eth1马上接续工作

4.删除网卡及bond接口

team接口

nmcli   connection   add   con-name   team0   ifname   team0   type   team  config   '{"runner":{"name":"activebackup"}}'   ip4   IP地址/24

   runner:team 接口工作模式

   activebackup     ##主备式,一个网卡工作,另一网卡备用

   roundrobin         ##平衡轮询式,谁闲着谁做

   broadcast         ##广播容错

   loadbalance     ##负载均衡

2.网卡阵列

  nmcli connection add con-name eth0 ifname eth0 type team-slave master team0

  nmcli connection add con-name eth1 ifname eth1 type team-slave master team0

3.查看team接口工作  teamdctl team0 stat

此时网卡eth0工作,当eth0出现问题,eth1马上接续工作

 注意:bond和team接口,添加网卡后,网络通畅;实验环境为主备式,一块网卡出现异常,另一块网卡马上工作,并且网络服务不会停止

posted on 2018-08-22 16:37  对方正在输入你的  阅读(219)  评论(0编辑  收藏  举报

导航