相比于内存,io来说,OS 网络层面的运维重视程度要轻很多,但是不代表着网络层面不重要,曾经为了能够确定一个准确的网口而煞费苦心,为了测试一个网络带宽而绞尽脑汁,费神费力,随着工具的逐渐增多很增强,和技能手段的不断丰富,对于处理问题的能力有了大大的提高。
你用过ethtool,iptraf,dig 吗,你了解这些工具吗,你有哪些好的工具和技能可以来处理网络层面的问题呢?
还有nmon、bmon、tcpdump等,/proc/interrupts查看相关网络中断等
在定位一些故障时还可以使用wireshark之类
之前遇到的问题就是业务量大时,单个网卡处理不过来,后来采用多网卡bond有了一定的性能提升
linux的网络运维,在日常较为常用的操作就是进行双网卡的绑定,下面分享一个绑定的具体流程:
1、cp /etc/sysconfig/network/ifcfg-eth0 /etc/sysconfig/network/ifcfg-eth0.bak
cp /etc/sysconfig/network/ifcfg-eth0 /etc/sysconfig/network/ifcfg-bond0
2、vi /etc/sysconfig/network/ifcfg-eth0,注释所有(除以下两行内容),并将值修改如下:
BOOTPROTO='none'
STARTMODE='off'
3、cp /etc/sysconfig/network/ifcfg-eth0 /etc/sysconfig/network/ifcfg-eth1
4、vi /etc/sysconfig/network/ifcfg-bond0,增加或更新如下内容,其他内容可注释:
BOOTPROTO='static'
IPADDR='192.168.1.100'
NETMASK='255.255.255.0'
STARTMODE='onboot'
BONDING_MASTER='yes'
BONDING_MODULE_OPTS='mode=0 miimon=100 use_carrier=0'
BONDING_SLAVE0='eth0'
BONDING_SLAVE1='eth1'
说明:以上配置mode=0为负载均衡模式,如果需要配置成主备模式,BONDING_MODULE_OPTS配置如下:
BONDING_MODULE_OPTS='mode=1 miimon=100 use_carrier=0 primary=eth0'
5、rcnetwork restart,重启网络服务生效,并进行测试。
6、cat /proc/net/bonding/bond0 可以查看bonding的状态。