像Samba、Nfs这种共享文件系统,网络的吞吐量十分大,就造成网卡的压力很大,网卡bond是通过把多个物理网卡绑定为一个逻辑网卡,实现本地网卡的冗余,带宽扩容和负载平衡,具体的性能取决于采纳的哪种模式。
一、bond的七种模式介绍:
1、mode=0(balance-rr)(均衡抡循环策略)
链路负载平衡,减少带宽,反对容错,一条链路故障会主动切换失常链路。交换机须要配置聚合口,思科叫port channel。
特点:传输数据包程序是顺次传输(即:第1个包走eth0,下一个包就走eth1….始终循环上来,直到最初一个传输结束),此模式提供负载平衡和容错能力;然而咱们晓得如果一个连贯 或者会话的数据包从不同的接口收回的话,中途再通过不同的链路,在客户端很有可能会呈现数据包无序达到的问题,而无序达到的数据包须要从新要求被发送,这样网络的吞吐量就会降落
2、mode=1(active-backup)(主-备份策略)
这个是主备模式,只有一块网卡是active,另一块是备用的standby,所有流量都在active链路上解决,交换机配置的是捆绑的话将不能工作,因为交换机往两块网卡发包,有一半包是抛弃的。
特点:只有一个设施处于活动状态,当一个宕掉另一个马上由备份转换为主设施。mac地址是内部可见得,从里面看来,bond的MAC地址是惟一的,以防止switch(交换机)产生凌乱。此模式只提供了容错能力;由此可见此算法的长处是能够提供高网络连接的可用性,然而它的资源利用率较低,只有一个接口处于工作状态,在有 N 个网络接口的状况下,资源利用率为1/N
3、mode=2(balance-xor)(均衡策略)
示意XOR Hash负载分担,和交换机的聚合强制不协商形式配合。(须要xmit_hash_policy,须要交换机配置port channel)
特点:基于指定的传输HASH策略传输数据包。缺省的策略是:(源MAC地址 XOR 指标MAC地址) % slave数量。其余的传输策略能够通过xmit_hash_policy选项指定,此模式提供负载平衡和容错能力
4、mode=3(broadcast)(播送策略)
示意所有包从所有网络接口收回,这个不平衡,只有冗余机制,但过于浪费资源。此模式实用于金融行业,因为他们须要高可靠性的网络,不容许呈现任何问题。须要和交换机的聚合强制不协商形式配合。
特点:在每个slave接口上传输每个数据包,此模式提供了容错能力
5、mode=4(802.3ad)(IEEE 802.3ad 动静链接聚合)
示意反对802.3ad协定,和交换机的聚合LACP形式配合(须要xmit_hash_policy).规范要求所有设施在聚合操作时,要在同样的速率和双工模式,而且,和除了balance-rr模式外的其它bonding负载平衡模式一样,任何连贯都不能应用多于一个接口的带宽。
特点:
- 创立一个聚合组,它们共享同样的速率和双工设定。依据802.3ad标准将多个slave工作在同一个激活的聚合体下。
- 外出流量的slave选举是基于传输hash策略,该策略能够通过xmit_hash_policy选项从缺省的XOR策略扭转到其余策略。须要留神的 是,并不是所有的传输策略都是802.3ad适应的,
- 尤其思考到在802.3ad规范43.2.4章节提及的包乱序问题。不同的实现可能会有不同的适应 性。
必要条件:
- 条件1:ethtool反对获取每个slave的速率和双工设定
- 条件2:switch(交换机)反对IEEE 802.3ad Dynamic link aggregation
- 条件3:大多数switch(交换机)须要通过特定配置能力反对802.3ad模式
6、mode=5(balance-tlb)(适配器传输负载平衡)
是依据每个slave的负载状况抉择slave进行发送,接管时应用以后轮到的slave。该模式要求slave接口的网络设备驱动有某种ethtool反对;而且ARP监控不可用。
特点:不须要任何特地的switch(交换机)反对的通道bonding。在每个slave上依据以后的负载(依据速度计算)调配外出流量。如果正在承受数据的slave出故障了,另一个slave接管失败的slave的MAC地址。
必要条件:
- ethtool反对获取每个slave的速率
7、mode=6(balance-alb)(适配器适应性负载平衡)
在5的tlb根底上减少了rlb(接管负载平衡receive load balance).不须要任何switch(交换机)的反对。接管负载平衡是通过ARP协商实现的.
特点:该模式蕴含了balance-tlb模式,同时加上针对IPV4流量的接管负载平衡(receive load balance, rlb),而且不须要任何switch(交换机)的反对。接管负载平衡是通过ARP协商实现的。bonding驱动截获本机发送的ARP应答,并把源硬件地址改写为bond中某个slave的惟一硬件地址,从而使得不同的对端应用不同的硬件地址进行通信。
来自服务器端的接管流量也会被平衡。当本机发送ARP申请时,bonding驱动把对端的IP信息从ARP包中复制并保留下来。当ARP应答从对端达到 时,bonding驱动把它的硬件地址提取进去,并发动一个ARP应答给bond中的某个slave。
应用ARP协商进行负载平衡的一个问题是:每次播送 ARP申请时都会应用bond的硬件地址,因而对端学习到这个硬件地址后,接管流量将会全副流向以后的slave。这个问题能够通过给所有的对端发送更新 (ARP应答)来解决,应答中蕴含他们举世无双的硬件地址,从而导致流量从新散布。
当新的slave退出到bond中时,或者某个未激活的slave从新 激活时,接管流量也要从新散布。接管的负载被程序地散布(round robin)在bond中最高速的slave上 当某个链路被从新接上,或者一个新的slave退出到bond中,接管流量在所有以后激活的slave中全副重新分配,通过应用指定的MAC地址给每个 client发动ARP应答。上面介绍的updelay参数必须被设置为某个大于等于switch(交换机)转发延时的值,从而保障发往对端的ARP应答 不会被switch(交换机)阻截。
必要条件:
- 条件1:ethtool反对获取每个slave的速率;
- 条件2:底层驱动反对设置某个设施的硬件地址,从而使得总是有个slave(curr_active_slave)应用bond的硬件地址,同时保障每个bond 中的slave都有一个惟一的硬件地址。如果curr_active_slave出故障,它的硬件地址将会被新选出来的 curr_active_slave接管其实mod=6与mod=0的区别:mod=6,先把eth0流量占满,再占eth1,….ethX;而mod=0的话,会发现2个口的流量都很稳固,根本一样的带宽。而mod=6,会发现第一个口流量很高,第2个口只占了小局部流量。
mode5和mode6不须要交换机端的设置,网卡能主动聚合。mode4须要反对802.3ad。mode0,mode2和mode3实践上须要动态聚合形式。
但实测中mode0能够通过mac地址坑骗的形式在交换机不设置的状况下不太平衡地进行接管。
二、bond的配置实例
1、首先要看linux是否反对bonding,大部分发行版都反对
# modinfo bonding |more filename: /lib/modules/2.6.32-431.el6.x86_64/kernel/drivers/net/bonding/bonding.ko author: Thomas Davis, [email protected] and many others description: Ethernet Channel Bonding Driver, v3.6.0 version: 3.6.0 license: GPL srcversion: 353B1DC123506708446C57B depends: 8021q,ipv6 vermagic: 2.6.32-431.el6.x86_64 SMP mod_unload modversions
如输入以上信息,则阐明反对bonding,如果没有,阐明内核不反对bonding,须要从新编译内核
2、网卡配置文件
两个物理网口别离是:eth0,eth1 绑定后的虚构口是:bond0
[root@jacken ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth0 DEVICE=eth0 HWADDR=EC:F4:BB:DC:4C:0C TYPE=Ethernet UUID=669f0694-9c52-4792-bd67-22c9d2c17acb ONBOOT=yes NM_CONTROLLED=no BOOTPROTO=none MASTER=bond0 SLAVE=yes [root@jacken ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth1 DEVICE=eth1 HWADDR=EC:F4:BB:DC:4C:0D TYPE=Ethernet UUID=1d2f30f4-b3f0-41a6-8c37-54f03115f7bd ONBOOT=yes NM_CONTROLLED=no BOOTPROTO=none MASTER=bond0 SLAVE=yes [root@jacken ~]# cat /etc/sysconfig/network-scripts/ifcfg-bond0 DEVICE=bond0 NAME='System bond0' TYPE=Ethernet NM_CONTROLLED=no USERCTL=no ONBOOT=yes BOOTPROTO=none IPADDR=192.168.1.100 NETMASK=255.255.255.0 BONDING_OPTS='mode=1 miimon=100' IPV6INIT=no
开机主动加载模块到内核
#echo 'alias bond0 bonding' >> /etc/modprobe.d/dist.conf #echo 'options bonding mode=0 miimon=200' >> /etc/modprobe.d/dist.conf #echo 'ifenslave bond0 eth0 eth1' >>/etc/rc.local miimon=100
每100毫秒 (即0.1秒) 监测一次路连贯状态,如果有一条线路不通就转入另一条线路;Linux的多网卡绑定性能应用的是内核中的”bonding”模块
如果批改为其它模式,只须要在BONDING_OPTS中指定mode=Number即可。USERCTL=no –是否容许非root用户管制该设施
查看bond0状态:能够看到调用的是哪几个物理网卡
#cat /proc/net/bonding/bond0 [root@compute05 ~]# cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011) Bonding Mode: fault-tolerance (active-backup) Primary Slave: None Currently Active Slave: eth1 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Speed: 1000 Mbps Duplex: full Link Failure Count: 0 Permanent HW addr: ec:f4:bb:dc:4c:0c Slave queue ID: 0 Slave Interface: eth1 MII Status: up Speed: 1000 Mbps Duplex: full Link Failure Count: 0 Permanent HW addr: ec:f4:bb:dc:4c:0d Slave queue ID: 0
三、扩大
上边是两个网卡(eth0、eth1)绑定成一个bond0,如果咱们要设置多个bond口,比方物理网口eth0和eth1组成bond0,eth2和eth3组成bond1,那么网口设置文件的设置办法和下面
是一样的,只是/etc/modprobe.d/dist.conf文件就不能叠加了。正确的设置办法有两种:
- 1、第一种
alias bond0 bonding alias bond1 bonding options bonding max_bonds=2 miimon=200 mode=1
这样所有的绑定只能应用一个mode了。
- 2、第二种
alias bond0 bonding options bond0 miimon=100 mode=1 install bond1 /sbin/modprobe bonding -o bond1 miimon=100 mode=0 install bond2 /sbin/modprobe bonding -o bond2 miimon=100 mode=1 install bond3 /sbin/modprobe bonding -o bond3 miimon=100 mode=0
这种形式不同的bond口能够设定为不同的mode,留神开机主动启动/etc/rc.d/rc.local文件的设置
ifenslave bond0 eth0 eth1 ifenslave bond1 eth2 eth3 ifenslave bond2 eth4 eth5 ifenslave bond3 eth6 eth7
作者:Jacken_yang
出处:https://blog.51cto.com/linuxn…