当前位置:   article > 正文

Linux虚拟网卡bond配置_bond0 mode=4

bond0 mode=4

目录

一、bond概述

1.1、bond的优点

二、bond模式

2.1、mode=0

2.2、mode=1

2.3、mode=2

2.4、mode=3

2.5、mode=4

2.6、mode=5

2.7、mode=6

三、实验案例

实验bond1 压力测试 查看网卡流向 以及主备测试

结论


引言:当linux系统上有多个单独网卡,又想充分利用这些网卡,同时对外提供一个统一的网络地址,以使得增大网络的吞吐量,同时也提高网络的可用性,这时就需要bond来帮助我们解决这个问题。

一、bond概述

bond是将多块物理网卡虚拟为一块逻辑网卡,使多块网卡看起来像一块网卡,通过主从的配置来讲进行网络的运行维护。

1.1、bond的优点

linux系统下配置bond,通过网卡绑定可增加服务器可靠性,同时可增加网络带宽,提供稳定的网络服务。

二、bond模式

Linux网卡绑定mode共有七种(0~6) bond0、bond1、bond2、bond3、bond4、bond5、bond6,接下来我们一起简单看下这7中模式的工作原理概述。

2.1、mode=0

轮询策略,数据包在每个slave网卡上都进行数据传输,以逐包形式在两个物理网卡上转发数据。这种模式提供了数据的负载均衡和容错能力。

bond0工作原理
传输数据包顺序是依次传输(即:第1个包走eth0,下一个包就走eth1….一直循环下去,直到最后一个传输完毕),此模式提供负载平衡和容错能力;但是我们知道如果一个连接或者会话的数据包从不同的接口发出的话,中途再经过不同的链路,在客户端很有可能会出现数据包无序到达的问题,而无序到达的数据包需要重新要求被发送,这样网络的吞吐量就会下降.

2.2、mode=1

在主备模式下,只有主网卡工作,备份网卡不工作,只有当一个网络接口失效时(例如交换机掉电等),为了不会出现网络中断,系统会按照配置指定的网卡顺序启动工作,保证机器仍能对外服务,起到了失效保护功能。

bond1工作原理

只有一个设备处于活动状态,当一个宕掉另一个马上由备份转换为主设备。mac地址是外部可见得,从外面看来,bond的MAC地址是唯一的,以避免switch(交换机)发生混乱。此模式只提供了容错能力;由此可见此算法的优点是可以提供高网络连接的可用性,但是它的资源利用率较低,只有一个接口处于工作状态,在有N个网络接口的情况下,资源利用率为1/N

2.3、mode=2

基于所选择的hash策略,本模式也提供负载均衡和容错能力

bond2工作原理
基于指定的传输HASH策略传输数据包。缺省的策略是:(源MAC地址 XOR 目标MAC地址) % slave数量。其他的传输策略可以通过xmit_hash_policy选项指定,此模式提供负载平衡和容错能力

2.4、mode=3

广播策略,向所有的slave接口发送数据包,本模式提供容错能力

bond3工作原理
  在每个slave接口上传输每个数据包,此模式提供了容错能力。

2.5、mode=4

动态链路聚合,根据802.3ad标准利用所有的slave建立聚合链路。slave接口的出口取决于传输的hash策略,默认策略是简单的XOR策略,而hash策略则可以通xmit_hash_policy选项配置。

前提:每个slave网卡支持ethtool获取速率和双工状态

bond4工作原理

创建一个聚合组,它们共享同样的速率和双工设定。根据802.3ad规范将多个slave工作在同一个激活的聚合体下。外出流量的slave选举是基于传输hash策略,该策略可以通过xmit_hash_policy选项从缺省的XOR策略改变到其他策略。需要注意的是,并不是所有的传输策略都是802.3ad适应的,尤其考虑到在802.3ad标准43.2.4章节提及的包乱序问题。不同的实现可能会有不同的适应性。

2.6、mode=5

自适应传输负载均衡:根据每个slave的负载(相对速度)决定从哪个接口发送数据包,从当前接口接收数据包。如果接收的slave接口故障,其它slave接口将接管它的mac地址继续接收。

前提:每个slave网卡支持ethtool获取速率。

bond5工作原理
不需要任何特别的switch(交换机)支持的通道bonding。在每个slave上根据当前的负载(根据速度计算)分配外出流量。如果正在接受数据的slave出故障了,另一个slave接管失败的slave的MAC地址。

2.7、mode=6

自适应负载均衡:

前提:每个slave网卡支持ethtool获取速率,每个slave网卡支持启用时重新设置硬件地址

bond6工作原理
  该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡(receive load balance, rlb),而且不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的。bonding驱动截获本机发送的ARP应答,并把源硬件地址改写为bond中某个slave的唯一硬件地址,从而使得不同的对端使用不同的硬件地址进行通信。

三、实验案例

需求:将两张网卡绑定配置成一张虚拟网卡 bond1来测试主备

1、添加网卡 

2、修改网卡的信息

ens33

ens37

bond0

 3、修改并添加配置文件

4、关闭NetworkManager服务

 并设置开机自关闭

 5、重启网卡,以及重启虚拟机,查看网卡信息

6、获取网卡状态

 7、开启httpd服务,并查看状态

实验bond1 压力测试 查看网卡流向 以及主备测试

Sar  -n  DEV  1  2 检测数据流向

命令后面1  2 意思是:每一秒钟取1次值,取2次。

DEV显示网络接口信息

同时开启2块网卡

使用ab -c 1000 -n 50000 http://192.168.58.10压力测试

-c表示并发用户数

-n表示请求总数

 Bond虚拟网卡与ens33分担流量压力  增加带宽

 关闭ens33网卡

 压力测试

 Sar命令查看数据流向  关闭ens33网卡  ens37代替工作和bond虚拟网卡 分担流量压力

 在关闭ens37网卡

压力测试

关闭ens37网卡 ,ens33代替工作与bond虚拟网卡工作分担流量压力

结论

由上述实验案例可以验证bond是将多块物理网卡虚拟为一块逻辑网卡,可以通过主从的配置来讲进行网络的运行维护。bond1主备实验案例完成。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/991622
推荐阅读
相关标签
  

闽ICP备14008679号