双网卡绑定单个IP 地址 为了提供网络的高可用性,我们可能需要将多块网卡绑定成一块虚拟网卡对外提供服务,这样纵然其中的一块物理网卡泛起故障,也不会导致毗邻中止。
bond在Linux下叫bonding,IBM称为etherchanel,broadcom叫team,然则名字怎么变,效果都是将两块或更多的网卡当做一块网卡使用,在增添带宽的同时也可以提高冗余性。

实现双网卡绑定的方式有两种: bond和team
这里先记下bond的绑定方式

bond支持的模式

共支持bond[0-6]共七种模式,常用的就三种,如下:

mode=0:默认,平衡负载模式,有自动备援,但需要设置交换机。
mode=1:主备模式,其中一条线若断线,其他线路将会自动备援,不需要设置交换机。
mode=6:平衡负载模式,有自动备援,不需要设置交换机。
.

至于其他的模式,注释如下:

mode=2:选择网卡的序号=(源MAC地址 XOR 目的MAC地址) % Slave网卡(从网卡)的数目,其他的传输计谋可以通过xmit_hash_policy设置项指定
mode=3:使用广播计谋,数据包会被广播至所有Slave网卡举行传送
mode=4:使用动态链接聚合计谋,启动时会建立一个聚合组,所有Slave网卡共享同样的速率和双工设定
然则,mode4有两个必要条件

  • 1.支持使用ethtool工具获取每个slave网卡的速率和双工设定;
  • 2.需要交换机支持IEEE 802.3ad 动态链路聚合(Dynamic link aggregation)模式
    mode=5:基于每个slave网卡的速率选择传输网卡。必要条件:支持使用ethtool工具获取每个slave网卡的速率。

设置bond

网卡 bond1 IP bond 模式
ens33、ens36 192.168.171.111 mode 1

注: ip地址设置在bond1 上,物理网卡无需设置IP地址

#加载bonding模块,并确认已经加载
[root@web01 ~]# modprobe --first-time bonding
[root@web01 ~]# lsmod | grep bonding
bonding               141566  0 
#编辑bond1设置文件
[root@web01 ~]# cat > /etc/sysconfig/network-scripts/ifcfg-bond1 << EOF
> DEVICE=bond1
> TYPE=Bond
> IPADDR=192.168.171.111
> NETMASK=255.255.255.0
> GATEWAY=192.168.171.2
> DNS1=114.114.114.114
> DNS2=8.8.8.8
> USERCTL=no
> BOOTPROTO=none
> ONBOOT=yes
> EOF
#修改ens33设置文件
[root@web01 ~]# cat > /etc/sysconfig/network-scripts/ifcfg-ens33 << EOF
> DEVICE=ens33
> TYPE=Ethernet
> ONBOOT=yes
> BOOTPROTO=none
> DEFROUTE=yes
> IPV4_FAILURE_FATAL=no
> NMAE=ens33
> MASTER=bond1               # 需要和上面的ifcfg-bond0设置文件中的DEVICE的值一致
> SLAVE=yes
> EOF
#修改ens36设置文件
[root@web01 ~]# cat > /etc/sysconfig/network-scripts/ifcfg-ens36 << EOF
> DEVICE=ens36
> TYPE=Ethernet
> ONBOOT=yes
> BOOTPROTO=none
> DEFROUTE=yes
> IPV4_FAILURE_FATAL=no
> NMAE=ens36
> MASTER=bond1
> SLAVE=yes
> EOF

# 设置bonding
[root@web01 ~]# cat >> /etc/modules-load.d/bonding.conf << EOF
> alias bond1 bonding
> options bonding mode=1 miimon=200           # 加载bonding模块,对外虚拟网络接口装备为 bond1
> EOF

#重启网卡使设置生效
[root@web01 ~]# systemctl restart network                  # 若是重启失败,则说明bond没设置乐成

注:若是设置完毕后重启网卡服务一直启动失败,而且日志内里也检查不出错误来,可以关闭NetworkManager后再次重启网卡试试
重启网络后查看各个网卡的信息


[root@web01 ~]# ip a show ens33
2: ens33: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master bond1 state UP group default qlen 1000
    link/ether 00:0c:29:9f:33:9f brd ff:ff:ff:ff:ff:ff
[root@web01 ~]# ip a show ens36
3: ens36: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master bond1 state UP group default qlen 1000
    link/ether 00:0c:29:9f:33:9f brd ff:ff:ff:ff:ff:ff
[root@web01 ~]# ip a show bond1
7: bond1: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 00:0c:29:9f:33:9f brd ff:ff:ff:ff:ff:ff
    inet 192.168.171.111/24 brd 192.168.171.255 scope global noprefixroute bond1
       valid_lft forever preferred_lft forever
    inet6 fe80::20c:29ff:fe9f:339f/64 scope link 
       valid_lft forever preferred_lft forever

查看bond1相关信息

#查看bond1的接口状态
[root@web01 ~]# cat /proc/net/bonding/bond1               
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: load balancing (round-robin)            # 绑定模式
MII Status: up           # 接口状态
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: ens33              # 备用接口: ens33
MII Status: up               # 接口状态
Speed: 1000 Mbps                 # 端口速率
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:0c:29:9f:33:9f              # 接口永远MAC地址
Slave queue ID: 0

Slave Interface: ens36           # 备用接口: ens36
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:0c:29:9f:33:a9
Slave queue ID: 0

当做到这一步的时刻,ens33或ens36中随便一块网卡down掉,都不会影响通讯

注: 若是你是使用vmware workstaction虚拟机举行测试,请不要直接执行命令ifdown ens33ifdown ens36举行测试,这样由于虚拟机的缘故原由测试不到效果,可以在网络适配器里将已毗邻√给取消掉