DB SERVER服务器网卡不稳定的原因什么


DB SERVER服务器网卡不稳定的原因什么,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。 DB SERVER服务器在压测中发现网卡很不稳定,压力测试刚刚进行十几分钟后,服务器反应就变得非常慢,PING的时候经常丢包而且SSH连接也时断时续。刚开始以为是高并发时导致的db server无响应,可以看了一下CPU、内存和硬盘IO,发现都没有达到较高值,甚至比我们的预警值低很多,而且监测也表明DB服务器剩余资源很充裕!真是比较奇怪,那么引起网卡不稳定的原因到底是什么呢?

向相关工程师了解了一下情况,知道这台DB服务器是双机热备中的一台服务器,前几天刚做的2组千兆网卡绑定。据工程师说绑定前也做过压测,没有出现这样的问题。难道是绑定设置的哪个环节出问题了?于是决定从千兆网卡绑定进行详细检查。

故障现象图示:

一、检查ifcfg-bond0和ifcfg-bond1文件

#cat /etc/sysconfig/network-scripts/ifcfg-bond0

DEVICE=bond0

BOOTPROTO=static

ONBOOT=yes

IPADDR=10.58.11.11

NETMASK=255.255.255.0

GATEWAY=10.58.121.254

USERCTL=no

#cat /etc/sysconfig/network-scripts/ifcfg-bond1

DEVICE=bond1

BOOTPROTO=static

ONBOOT=yes

IPADDR=10.10.10.18

NETMASK=255.255.255.0

GATEWAY=10.58.121.254

USERCTL=no

分析:很标准的配置,没有什么问题。在这里注意不要指定单个网卡的IP 地址、子网掩码或网卡 ID。将上述信息指定到虚拟适配器(bonding)中即可。

二、检查ifcfg-eth0、ifcfg-eth2、ifcfg-eth3、ifcfg-eth4文件

#cat /etc/sysconfig/network-scripts/ifcfg-eth0

  DEVICE=eth0

  ONBOOT=yes

  BOOTPROTO=none

  MASTER=bond0

SLAVE=yes

  USERCTL=no

ETHTOOL_OPTS=”speed 1000 duplex full autoneg on”

  #cat /etc/sysconfig/network-scripts/ifcfg-eth2

  DEVICE=eth2

  ONBOOT=yes

  BOOTPROTO=none

  MASTER=bond1

SLAVE=yes

  USERCTL=no

ETHTOOL_OPTS=”speed 1000 duplex full autoneg on”#cat /etc/sysconfig/network-scripts/ifcfg-eth3

  DEVI开发云主机域名CE=eth3

  ONBOOT=yes

  BOOTPROTO=none

  MASTER=bond0

SLAVE=yes

  USERCTL=no

ETHTOOL_OPTS=”speed 1000 duplex full autoneg on”

  #cat /etc/sysconfig/network-scripts/ifcfg-eth4

  DEVICE=eth4

  ONBOOT=yes

  BOOTPROTO=none

  MASTER=bond1

SLAVE=yes

  USERCTL=no

ETHTOOL_OPTS=”speed 1000 duplex full autoneg on”

分析:从配置文件上看是eth0和 eth3绑定为BOND0, eth2和 eth4绑定为BOND1.

(注:临时设置网卡的千兆全双工可以这样ethtool -s eth0 speed 1000 duplex full autoneg on

ethtool -s eth2 speed 1000 duplex full autoneg on)

三、检查modprobe.conf配置文件

# cat /etc/modprobe.conf

alias eth0 bnx2

alias eth2 bnx2

alias eth3 bnx2

alias eth4 bnx2

alias scsi_hostadapter megaraid_sas

alias scsi_hostadapter1 ata_piix

alias scsi_hostadapter2 lpfc

alias bond0 bonding

options bond0 miimon=100 mode=0

alias bond1 bonding

options bond1 miimon=100 mode=1

###BEGINPP

include /etc/modprobe.conf.pp

###ENDPP

分析:从此文件看加入

alias bond0 bonding

options bond0 miimon=100 mode=0

alias bond1 bonding

options bond1 miimon=100 mode=1

主要目的是使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0、bond1

另外miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。

  mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。

  mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份.  注意:bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用。

这部分的配置也没有问题。

  到这里似乎还没看到问题的所在,不过还有一个地方是大家容易忽视的,那就是rc.local文件,为了让网卡绑定在每次启动后都能立即生效,我们通常会设置 rc.local.所以我们还应检查一下这个文件。

四、检查rc.local文件

# cat /etc/rc.d/rc.local

touch /var/lock/subsys/local

ifenslave bond0 eth0 eth2

ifenslave bond1 eth3 eth4 

分析:这样的设置方便开机启动时,自动载入配置。  

注意:这里是把 eth0和 eth2放到bond0里,eth3和 eth4放到bond1里。如果大家仔细回想的话,会发现在第二步检查当中是eth0和 eth3绑定为BOND0, eth2和 eth4绑定为BOND1的。看来问题的罪魁祸首就在这里,那么这样配置错了,会造成什么现象呢?

首先回顾一下网卡绑定的原理。我们知道,在正常情况下,ethernet网卡只接收目的mac地址是自身mac的ether帧,对于别的数据帧都过滤掉,以减轻驱动程序——也就是软件的负担。但是ethernet网卡也支持另外一种被称为promisc的模式,可以接收网络上所有的帧,很多系统程序如:sniffer、tcpdump,都运行在这个模式下。Bonding网卡绑定也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。

那么在我们检查的这个rc.local文件中,由于系统工程师的粗心把网卡绑定配置错了,这样一个细微的配置错误就会造成一个IP地址对应两个不同的MAC地址,显然会造成网络的延迟和不稳定,这跟ARP***比较像。当有多个不同MAC对应同样的IP,网络里面各机器包括路由器对应这个IP的ARP会不停的变,包不是丢了就是发到错误的MAC了。

我们可以检查一下各网卡的MAC来确认一下。

eth0 Link encap:Ethernet
HWaddr D4:AE:52:7F:D1:74
UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1

RX packets:358839038 errors:0 dropped:0 overruns:0 frame:0

TX packets:445740732 errors:0 dropped:0 overruns:0 carrier:0

collisions:0 txqueuelen:1000

RX bytes:84060158481 (78.2 GiB) TX bytes:324117093205 (301.8 GiB)

Interrupt:178 Memory:c6000000-c6012800eth2 Link encap:Ethernet
HWaddr D4:AE:52:7F:D1:76
UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1

RX packets:1319022534 errors:0 dropped:0 overruns:0 frame:0

TX packets:827575644 errors:0 dropped:0 overruns:0 carrier:0

collisions:0 txqueuelen:1000

RX bytes:402801656790 (375.1 GiB) TX bytes:249765452577 (232.6 GiB)

Interrupt:186 Memory:c8000000-c8012800eth3 Link encap:Ethernet
HWaddr D4:AE:52:7F:D1:74
UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1

RX packets:368142910 errors:0 dropped:0 overruns:0 frame:0

TX packets:445816695 errors:0 dropped:0 overruns:0 carrier:0

collisions:0 txqueuelen:1000

RX bytes:88487806059 (82.4 GiB) TX bytes:324236716714 (301.9 GiB)

Interrupt:194 Memory:ca000000-ca012800eth4 Link encap:Ethernet
HWaddr D4:AE:52:7F:D1:76
UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1

RX packets:1311065414 errors:0 dropped:0 overruns:0 frame:0

TX packets:827581593 errors:0 dropped:0 overruns:0 carrier:0

collisions:0 txqueuelen:1000

RX bytes:400383501186 (372.8 GiB) TX bytes:249850192137 (232.6 GiB)

Interrupt:202 Memory:cc000000-cc012800

可以看到eth0和eth3的MAC是一样的,eth2和eth4的MAC是一样的。

针对问题原因,立即修改rc.local这个文件,改回正确的配置。

ifenslave bond0 eth0 eth3

ifenslave bond1 eth2 eth4 然后重启服务器,再进行压测,发现果然一切正常了。 Linux双网卡的绑定是一个比较具体的操作工作,在配置当中我们不仅要熟悉了解它的原理,更要在部署实施时仔细认真,一个疏忽就会造成网络的不稳定和节点的瘫痪。
看完上述内容,你们掌握DB SERVER服务器网卡不稳定的原因什么的方法了吗?如果还想学到更多技能或想了解更多相关内容,欢迎关注开发云行业资讯频道,感谢各位的阅读!

相关推荐: 怎样在web端业务系统中接入im即时通讯能力

本篇文章给大家分享的是有关怎样在web端业务系统中接入im即时通讯能力,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。企业内部系统需要加入即时通讯功能,使员工们更好地沟通!有以下几点要求:希望企业沟…

免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。

(0)
打赏 微信扫一扫 微信扫一扫
上一篇 06/04 13:30
下一篇 06/04 13:30

相关推荐