科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网服务器频道Linux下双网卡绑定技术实现负载均衡

Linux下双网卡绑定技术实现负载均衡

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

保持服务器的高可用性是企业级IT 环境的重要因素。其中最重要的一点是服务器网络连接的高可用性。网卡(NIC)绑定技术有助于保证高可用性特性并提供其它优势以提高网络性能。

来源:PC技巧网 2008年11月14日

关键字: 操作系统 服务器 负载均衡 Linux

  • 评论
  • 分享微博
  • 分享邮件

  保持服务器的高可用性是企业级IT 环境的重要因素。其中最重要的一点是服务器网络连接的高可用性。网卡(NIC)绑定技术有助于保证高可用性特性并提供其它优势以提高网络性能。

  我们在这介绍的linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。其实这项技术在Sun和cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding。bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。

  说了半天理论,其实配置很简单,一共四个步骤:

  实验的操作系统是RedhatlinuxEnterprise 3.0

  绑定的前提条件:芯片组型号相同,而且网卡应该具备自己独立的BIOS芯片

  1.编辑虚拟网络接口配置文件,指定网卡IP vi/etc/sysconfig/ network-scripts/ ifcfg-bond0

  [root@rhas-13 root]# cp/etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-bond0

  2 #viifcfg-bond0

  将第一行改成DEVICE=bond0

  # catifcfg-bond0

  DEVICE=bond0

  BOOTPROTO=static

  IPADDR=172.31.0.13

  NETMASK=255.255.252.0

  BROADCAST=172.31.3.254

  ONBOOT=yes

  TYPE=Ethernet

  这里要主意,不要指定单个网卡的IP 地址、子网掩码或网卡ID。将上述信息指定到虚拟适配器(bonding)中即可。

  [root@rhas-13 network-scripts]# catifcfg-eth0

  DEVICE=eth0

  ONBOOT=yes

  BOOTPROTO=dhcp

  [root@rhas-13 network-scripts]# catifcfg-eth1

  DEVICE=eth0

  ONBOOT=yes

  BOOTPROTO=dhcp

  3 # vi/etc/modules.conf

  编辑/etc/modules.conf文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为bond0

  加入下列两行 aliasbond0 bonding optionsbond0 miimon=100 mode=1

  说明:miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。

  mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。

  mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份.

  bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用

  4 # vi/etc/rc.d/rc.local

  加入两行 ifenslavebond0 eth0 eth1 routeadd -net 172.31.3.254 netmask255.255.255.0 bond0

  到这时已经配置完毕重新启动机器.

  重启会看见以下信息就表示配置成功了

  ................

  Bringing up interface bond0 OK

  Bringing up interface eth0 OK

  Bringing up interface eth1 OK

  ................

  下面我们讨论以下mode分别为0,1时的情况

  mode=1工作在主备模式下,这时eth1作为备份网卡是no arp的

  [root@rhas-13 network-scripts]# ifconfig验证网卡的配置信息 bond0Link encap:EthernetHWaddr00:0E:7F:25:D9:8B inetaddr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0

  UP BROADCAST RUNNING MASTER MULTICAST MTU:1500Metric:1

  RX packets:18495errors:0 dropped:0 overruns:0 frame:0

  TX packets:480errors:0 dropped:0 overruns:0 carrIEr:0 collisions:0 txqueuelen:0

  RX bytes:1587253(1.5 Mb) TX bytes:89642 (87.5 Kb)

  eth0Link encap:EthernetHWaddr00:0E:7F:25:D9:8B inetaddr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0

  UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500Metric:1

  RX packets:9572errors:0 dropped:0 overruns:0 frame:0

  TX packets:480errors:0 dropped:0 overruns:0 carrIEr:0 collisions:0 txqueuelen:1000

  RX bytes:833514(813.9 Kb) TX bytes:89642 (87.5 Kb)

  Interrupt:11

  eth1Link encap:EthernetHWaddr00:0E:7F:25:D9:8B inetaddr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0

  UP BROADCAST RUNNING NOARP SLAVE MULTICAST MTU:1500Metric:1

  RX packets:8923errors:0 dropped:0 overruns:0 frame:0

  TX packets:0errors:0 dropped:0 overruns:0 carrIEr:0 collisions:0 txqueuelen:1000

  RX bytes:753739(736.0 Kb) TX bytes:0 (0.0 b)

  Interrupt:15

  那也就是说在主备模式下,当一个网络接口失效时(例如主交换机掉电等),不回出现网络中断,系统会按照cat /etc/rc.d/rc.local里指定网卡的顺序工作,机器仍能对外服务,起到了失效保护的功能.

  在mode=0 负载均衡工作模式,他能提供两倍的带宽,下我们来看一下网卡的配置信息

  [root@rhas-13 root]# ifconfigbond0Link encap:EthernetHWaddr00:0E:7F:25:D9:8B inetaddr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0

  UP BROADCAST RUNNING MASTER MULTICAST MTU:1500Metric:1

  RX packets:2817errors:0 dropped:0 overruns:0 frame:0

  TX packets:95errors:0 dropped:0 overruns:0 carrIEr:0 collisions:0 txqueuelen:0

  RX bytes:226957(221.6 Kb) TX bytes:15266 (14.9 Kb)

  eth0Link encap:EthernetHWaddr00:0E:7F:25:D9:8B inetaddr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0

  UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500Metric:1

  RX packets:1406errors:0 dropped:0 overruns:0 frame:0

  TX packets:48errors:0 dropped:0 overruns:0 carrIEr:0 collisions:0 txqueuelen:1000

  RX bytes:113967(111.2 Kb) TX bytes:7268 (7.0 Kb)

  Interrupt:11

  eth1Link encap:EthernetHWaddr00:0E:7F:25:D9:8B inetaddr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0

  UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500Metric:1

  RX packets:1411errors:0 dropped:0 overruns:0 frame:0

  TX packets:47errors:0 dropped:0 overruns:0 carrIEr:0 collisions:0 txqueuelen:1000

  RX bytes:112990(110.3 Kb) TX bytes:7998 (7.8 Kb)

  Interrupt:15

  在这种情况下出现一块网卡失效,仅仅会是服务器出口带宽下降,也不会影响网络使用.

  通过查看bond0的工作状态查询能详细的掌握bonding的工作状态

  [root@rhas-13 bonding]# cat/proc/net/bonding/bond0

  bonding.c:v2.4.1(September 15, 2003)

  Bonding Mode: load balancing (round-robin)

  MII Status: up

  MII Polling Interval (ms): 0

  Up Delay (ms): 0

  Down Delay (ms): 0

  Multicast Mode: all slaves

  Slave Interface: eth1

  MII Status: up

  Link Failure Count: 0

  Permanent HW addr: 00:0e:7f:25:d9:8a

  Slave Interface: eth0

  MII Status: up

  Link Failure Count: 0

  Permanent HW addr: 00:0e:7f:25:d9:8b

  linux下通过网卡邦定技术既增加了服务器的可靠性,又增加了可用网络带宽,为用户提供不间断的关键服务。用以上方法均在redhat的多个版本测试成功,而且效果良好.心动不如行动,赶快一试吧!

    • 评论
    • 分享微博
    • 分享邮件
    邮件订阅

    如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

    重磅专题
    往期文章
    最新文章