2015年2月16日 星期一

Linux双网卡绑定

 是我亲身经历过的,希望对linux爱好者有用处
              Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。其实这项 技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding。bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。 

说了半天理论,其实配置很简单,一共四个步骤: 

实验的操作系统是Redhat Linux Enterprise 3.0 
绑定的前提条件:芯片组型号相同,而且网卡应该具备自己独立的BIOS芯片。

1.编辑虚拟网络接口配置文件,指定网卡IP 
vi /etc/sysconfig/ network-scripts/ ifcfg-bond0 
[root@redflag root]# cp /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-bond0 
2 #vi ifcfg-bond0 
将第一行改成 DEVICE=bond0 
# cat ifcfg-bond0 
DEVICE=bond0 
BOOTPROTO=static 
IPADDR=172.31.0.13 
NETMASK=255.255.252.0 
BROADCAST=172.31.3.254 
ONBOOT=yes 
TYPE=Ethernet 
这里要主意,不要指定单个网卡的IP 地址、子网掩码或网卡 ID。将上述信息指定到虚拟适配器(bonding)中即可。 
[root@redflag network-scripts]# cat ifcfg-eth0 
DEVICE=eth0
USERCTL=no
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
[root@redflag network-scripts]# cat ifcfg-eth1 
DEVICE=eth1
USERCTL=no
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes

3 # vi /etc/modules.conf 
编辑 /etc/modules.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0 
  
加入下列两行 
alias bond0 bonding 
options bond0 miimon=100 mode=1 
说明:miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。 
mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。 
mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份. 
bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用 
4 # vi /etc/rc.d/rc.local 
加入两行 
ifenslave bond0 eth0 eth1 
route add -net 172.31.3.254 netmask 255.255.255.0 bond0 

route add -net 192.168.228.0 netmask 255.255.255.0 gw 192.168.228.153 dev eth0

#service network restart

到这时已经配置完毕重新启动机器. 
重启会看见以下信息就表示配置成功了 
................ 
Bringing up interface bond0 OK 
Bringing up interface eth0 OK 
Bringing up interface eth1 OK 
................ 

下面我们讨论以下mode分别为0,1时的情况 

mode=1工作在主备模式下,这时eth1作为备份网卡是no arp的 
[root@redflag network-scripts]# ifconfig 验证网卡的配置信息 
bond0 Link encap:Ethernet HWaddr 00:0E:7F:259:8B 
inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0 
UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1 
RX packets:18495 errors:0 dropped:0 overruns:0 frame:0 
TX packets:480 errors:0 dropped:0 overruns:0 carrier:0 
collisions:0 txqueuelen:0 
RX bytes:1587253 (1.5 Mb) TX bytes:89642 (87.5 Kb) 

eth0 Link encap:Ethernet HWaddr 00:0E:7F:25:d9:8B 
inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0 
UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1 
RX packets:9572 errors:0 dropped:0 overruns:0 frame:0 
TX packets:480 errors:0 dropped:0 overruns:0 carrier:0 
collisions:0 txqueuelen:1000 
RX bytes:833514 (813.9 Kb) TX bytes:89642 (87.5 Kb) 
Interrupt:11 

eth1 Link encap:Ethernet HWaddr 00:0E:7F:25:d9:8B 
inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0 
UP BROADCAST RUNNING NOARP SLAVE MULTICAST MTU:1500 Metric:1 
RX packets:8923 errors:0 dropped:0 overruns:0 frame:0 
TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 
collisions:0 txqueuelen:1000 
RX bytes:753739 (736.0 Kb) TX bytes:0 (0.0 b) 
Interrupt:15 
那也就是说在主备模式下,当一个网络接口失效时(例如主交换机掉电等),不回出现网络中断,系统会按照cat /etc/rc.d/rc.local里指定网卡的顺序工作,机器仍能对外服务,起到了失效保护的功能. 

在mode=0 负载均衡工作模式,他能提供两倍的带宽,下我们来看一下网卡的配置信息 
[root@redflag root]# ifconfig 
bond0 Link encap:Ethernet HWaddr 00:0E:7F:25:d9:8B 
inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0 
UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1 
RX packets:2817 errors:0 dropped:0 overruns:0 frame:0 
TX packets:95 errors:0 dropped:0 overruns:0 carrier:0 
collisions:0 txqueuelen:0 
RX bytes:226957 (221.6 Kb) TX bytes:15266 (14.9 Kb) 

eth0 Link encap:Ethernet HWaddr 00:0E:7F:25:d9:8B 
inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0 
UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1 
RX packets:1406 errors:0 dropped:0 overruns:0 frame:0 
TX packets:48 errors:0 dropped:0 overruns:0 carrier:0 
collisions:0 txqueuelen:1000 
RX bytes:113967 (111.2 Kb) TX bytes:7268 (7.0 Kb) 
Interrupt:11 

eth1 Link encap:Ethernet HWaddr 00:0E:7F:259:8B 
inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0 
UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1 
RX packets:1411 errors:0 dropped:0 overruns:0 frame:0 
TX packets:47 errors:0 dropped:0 overruns:0 carrier:0 
collisions:0 txqueuelen:1000 
RX bytes:112990 (110.3 Kb) TX bytes:7998 (7.8 Kb) 
Interrupt:15 

在这种情况下出现一块网卡失效,仅仅会是服务器出口带宽下降,也不会影响网络使用. 



通过查看bond0的工作状态查询能详细的掌握bonding的工作状态 
[root@redflag bonding]# cat /proc/net/bonding/bond0 
bonding.c:v2.4.1 (September 15, 2003) 

Bonding Mode: load balancing (round-robin) 
MII Status: up 
MII Polling Interval (ms): 0 
Up Delay (ms): 0 
Down Delay (ms): 0 
Multicast Mode: all slaves 

Slave Interface: eth1 
MII Status: up 
Link Failure Count: 0 
Permanent HW addr: 00:0e:7f:25:d9:8a 

Slave Interface: eth0 
MII Status: up 
Link Failure Count: 0 
Permanent HW addr: 00:0e:7f:25:d9:8b 

Linux下通过网卡邦定技术既增加了服务器的可靠性,又增加了可用网络带宽,为用户提供不间断的关键服务。用以上方法均在redhat的多个版本测试成功,而且效果良好.心动不如行动,赶快一试吧!



最近碰到有问4块网卡如何配置2个bond网卡,测试了一下,配置方法略微有点不 
同,主要是modprobe.conf里的配置:

1、ifcfg-bondX的配置和单个bond的配置没有区别;

2、修改modprobe.conf有2种修改方法:
a)当2个或者多个bond网卡的所有参数(即bonding模块的参数,如mode、miimon 
等)都相同时,加载bonding模块时设置 max_bonds参数即可。如max_bonds=2时, 
加载bonding驱动之后可以创建2个bond网卡bond0,bond1,修改后的 
modprobe.conf和下面的情形类似:
...
alias bond0 bonding
alias bond1 bonding
options bond0 miimon=100 mode=1 max_bonds=2
...

b)当2个或者多个bond网卡的参数(即bonding模块的参数,如mode、miimon等)不 
同时,需要在加载bonding模块时修改模块的名称(文档中的说法是linux的模块加 
载系统要求系统加载的模块甚至相同模块的不同实例都需要有一个唯一的命名), 
修改后的modprobe.conf和下面的情形类似:
...
alias bond0 bonding
options bond0 -o bond0 miimon=100 mode=0
alias bond1 bonding
options bond1 -o bond1 miimon=150 mode=1
...
(说明:使用 -o 选项在加载模块对模块进行重命名)

目前我只在DC5SP2上测试通过,其它版本并没有测试,内核的版本不同系统对 
bonding模块的支持可能也有不同。
详细的文档参见内核文档/usr/src/linux-x.x.x- 
xx.x/Documentation/networking/bonding.txt。


上午测试的时候修改modprobe.conf之后只是重启了network服务,所以当时以为第 
二种方法也是生效了的。不过实际上,重启network 服务时,并没有卸载bonding 
模块。当手动卸载bonding模块或者系统重启之后,网络服务启动的时候会报错, 
说-o不是有效的选项。

重新看了一下文档,里面也提到了这个问题,所以modprobe.conf的修改还需要调 
整一下,不再使用alias,options的格式,而使用下面的格式:
...
install bond0 /sbin/modprobe --ignore-install bonding -o bond0 
miimon=100 mode=0
install bond1 /sbin/modprobe --ignore-install bonding -o bond1 
miimon=100 mode=1
...

iftop

出處
http://www.vpser.net/manage/iftop.html

inux流量监控工具 - iftop (最全面的iftop教程)

在类Unix系统中可以使用top查看系统资源、进程、内存占用等信息。查看网络状态可以使用netstat、nmap等工具。若要查看实时的网络流量,监控TCP/IP连接等,则可以使用iftop

一、iftop是什么?

iftop是类似于top的实时流量监控工具。

二、iftop有什么用?

iftop可以用来监控网卡的实时流量(可以指定网段)、反向解析IP、显示端口信息等,详细的将会在后面的使用参数中说明。

三、安装iftop

安装方法1、编译安装

如果采用编译安装可以到iftop官网下载最新的源码包。
安装前需要已经安装好基本的编译所需的环境,比如make、gcc、autoconf等。安装iftop还需要安装libpcap和libcurses。
CentOS上安装所需依赖包:
yum install flex byacc  libpcap ncurses ncurses-devel libpcap-devel
Debian上安装所需依赖包:
apt-get install flex byacc  libpcap0.8 libncurses5
下载iftop
wget http://www.ex-parrot.com/pdw/iftop/download/iftop-0.17.tar.gz
tar zxvf iftop-0.17.tar.gz
cd iftop-0.17
./configure
make && make install

安装方法2:(懒人办法,最简单)

直接省略上面的步骤
CentOS系统:
yum install flex byacc  libpcap ncurses ncurses-devel
wget ftp://fr2.rpmfind.net/linux/dag/redhat/el5/en/i386/dag/RPMS/iftop-0.17-1.el5.rf.i386.rpm
rpm -ivh iftop-0.17-1.el5.rf.i386.rpm
Debian系统 运行:apt-get install iftop

四、运行iftop

直接运行: iftop
效果如下图:

五、相关参数及说明

1、iftop界面相关说明

界面上面显示的是类似刻度尺的刻度范围,为显示流量图形的长条作标尺用的。
中间的<= =>这两个左右箭头,表示的是流量的方向。
TX:发送流量
RX:接收流量
TOTAL:总流量
Cumm:运行iftop到目前时间的总流量
peak:流量峰值
rates:分别表示过去 2s 10s 40s 的平均流量

2、iftop相关参数

常用的参数

-i设定监测的网卡,如:# iftop -i eth1
-B 以bytes为单位显示流量(默认是bits),如:# iftop -B
-n使host信息默认直接都显示IP,如:# iftop -n
-N使端口信息默认直接都显示端口号,如: # iftop -N
-F显示特定网段的进出流量,如# iftop -F 10.10.1.0/24或# iftop -F 10.10.1.0/255.255.255.0
-h(display this message),帮助,显示参数信息
-p使用这个参数后,中间的列表显示的本地主机信息,出现了本机以外的IP信息;
-b使流量图形条默认就显示;
-f这个暂时还不太会用,过滤计算包用的;
-P使host信息及端口信息默认就都显示;
-m设置界面最上边的刻度的最大值,刻度分五个大段显示,例:# iftop -m 100M

进入iftop画面后的一些操作命令(注意大小写)

按h切换是否显示帮助;
按n切换显示本机的IP或主机名;
按s切换是否显示本机的host信息;
按d切换是否显示远端目标主机的host信息;
按t切换显示格式为2行/1行/只显示发送流量/只显示接收流量;
按N切换显示端口号或端口服务名称;
按S切换是否显示本机的端口信息;
按D切换是否显示远端目标主机的端口信息;
按p切换是否显示端口信息;
按P切换暂停/继续显示;
按b切换是否显示平均流量图形条;
按B切换计算2秒或10秒或40秒内的平均流量;
按T切换是否显示每个连接的总流量;
按l打开屏幕过滤功能,输入要过滤的字符,比如ip,按回车后,屏幕就只显示这个IP相关的流量信息;
按L切换显示画面上边的刻度;刻度不同,流量图形条会有变化;
按j或按k可以向上或向下滚动屏幕显示的连接记录;
按1或2或3可以根据右侧显示的三列流量数据进行排序;
按<根据左边的本机名或IP排序;
按>根据远端目标主机的主机名或IP排序;
按o切换是否固定只显示当前的连接;
按f可以编辑过滤代码,这是翻译过来的说法,我还没用过这个!
按!可以使用shell命令,这个没用过!没搞明白啥命令在这好用呢!
按q退出监控。

六、常见问题

1、make: yacc: Command not found
make: *** [grammar.c] Error 127
解决方法:apt-get install byacc   /   yum install byacc
2、configure: error: Curses! Foiled again!
(Can't find a curses library supporting mvchgat.)
Consider installing ncurses.
解决方法:apt-get install libncurses5-dev  /    yum  install ncurses-devel
如果您有任何问题,可以在本文下方留言或到VPS论坛发帖,我们会尽量帮助您解决。

Linux下监控网卡流量的软件Nload

                                 Linux监控网卡流量的Nload
安装nload:
# tar zxvf nload-0.7.2.tar.gz
# cd nload-0.7.2
# ./configure --prefix=/usr/local/nload && make && make install
安装目录自己定,安装十分简单,基本上不会出什么错误!
完成后就可以用来监测网卡流量了:
# /usr/local/nload/bin/nload
默认第一行是网卡的名称及IP信息,使用键盘上的左右键可以切换网卡。
默认上边Incoming是进入网卡的流量;
默认下边Outgoing是网卡出去的流量;
默认右边(Curr当前流量)、(Avg平均流量)、(Min最小流量)、(Max最大流量)、(Ttl流量统计);
默认情况,统计数据的左边会使用显示流量图,用#号拼出来的,根据实时流量变化显示。
遇到的问题:在网卡流量特别大即超过网卡本身传输速率的时候,右边的几个值会不固定的变为负数。我感觉原因好像是网卡超负荷所以计算出错了!不是很确定,不知有没有高手明白这个问题!!!
还有很多参数可以使用,帮助里面的例子: # nload -t 200 -i 1024 -o 128 -U M
查看参数帮助命令:
# /usr/local/nload/bin/nload --help
-a:这个好像是全部数据的刷新时间周期,单位是秒,默认是300.
-i:进入网卡的流量图的显示比例最大值设置,默认10240 kBit/s.
-m:不显示流量图,只显示统计数据。
-o:出去网卡的流量图的显示比例最大值设置,默认10240 kBit/s.
-t:显示数据的刷新时间间隔,单位是毫秒,默认500。
-u:设置右边Curr、Avg、Min、Max的数据单位,默认是自动变的.注意大小写单位不同!
   h|b|k|m|g    h: auto, b: Bit/s, k: kBit/s, m: MBit/s etc.
   H|B|K|M|G    H: auto, B: Byte/s, K: kByte/s, M: MByte/s etc.
-U:设置右边Ttl的数据单位,默认是自动变的.注意大小写单位不同(与-u相同)!
Devices:自定义监控的网卡,默认是全部监控的,使用左右键切换。
如只监控eth0命令:# nload eth0

Red Hat 註冊

https://access.redhat.com/search/browse/solutions#?&portal_language=en 

ISSUE

  • How to register a new Red Hat Enterprise Linux system to the Customer Portal using Red Hat Subscription-Manager
  • How to un-register a system using Red Hat Subscription-Manager
  • How to register a Red Hat Enterprise Linux server to a specific subscription using its pool-id
  • How to update or migrate registered server from RHN Classic to RHSM?
  • What is Subscription-Manager and how do I register a RHEL system so that I can install packages or updates with yum?
  • How do I register my system to RHSM using Subscription-Manager, to be able to install packages using yum?
  • We are not able to install the packges from yum, how to register a system to RHSM to access the packages?
  • I'm trying to find rhn_register with RHEL 7.0 but it's missing. How do I register a RHEL7 server for updates?
  • How to register with rhsm

ENVIRONMENT

  • Red Hat Enterprise Linux(RHEL) 5.7 and newer
  • Red Hat Enterprise Linux(RHEL) 6.1 and newer
  • Red Hat Enterprise Linux(RHEL) 7.0 and newer
  • Red Hat Subscription Management
  • Red Hat Subscription-Manager
  • Red Hat Customer Portal

RESOLUTION

Red Hat Subscription Management allows users to track their subscription quantity and consumption.
NOTE: With Red Hat Subscription-Manager, registration and utilization of a subscription is actually a two-part process.
First register a system, then apply a subscription.

Register and automatically subscribe in one step

Use the following command to register the system, then automatically associate any available subscription matching that system:
# subscription-manager register --username <username> --password <password> --auto-attach
If the command is unable to attach a subscription, it will indicate that in the output. Then, you can attach the subscription from the Customer Portal, instead (see the next section).

Register first, then attach a subscription in the Customer Portal

Use the following command to register a system without immediately attaching a subscription:
# subscription-manager register

Attach a specific subscription through the Customer Portal

After registration, you can to assign a subscription to the registered system from the Customer Portal by referring this article.
  • After this, refresh the information on your machine using the following command. Be sure to run this any time you add or change the attached subscription from the Customer Portal:
# subscription-manager refresh

Attach a subscription from any available that match the system

After registration, use the following command to attach any available subscription that matches the current system.
# subscription-manager attach --auto

Register with a specific pool

After registration, use the following command to attach a subscription from a specific pool:
# subscription-manager attach --pool=<POOL_ID>
Note: With subscription-manager-1.1.9-1 or later, attach option has been replacing the subscribe option. For more information, please refer to following article: RHBA-2013-0350
If you are not sure of the pool ID needed, these and details such as expiration dates can be viewed using the following command:
# subscription-manager list --available --all

Registration via GUI

# subscription-manager-gui
  • Systems can also be registered with Customer Portal Subscription Management during the firstboot process or as part of the kickstart setup (both described in the Installation Guide)

Unregistering a system

# subscription-manager remove --all
# subscription-manager unregister
# subscription-manager clean

2015年2月13日 星期五

用光碟當yum更新

一、挂载本地光盘到系统:把rhel6.2安装光盘放入光驱
1
2
#mkdir /media/rhel 
#mount /dev/cdrom /media/rhel

   或把rhel6.2的ISO镜像文件拷到服务器上并解压
   
二、配置本地yum源
1
2
3
#cd /etc/yum.repos.d/ 
#touch rhel-media.repo 
#vi rhel-media.repo
添加以下配置内容
1
2
3
4
5
6
[rhel-media]
name=Red Hat Enterprise Linux 6.2 #自定义名称
baseurl=file:///media/rhel #本地光盘挂载路径
enabled=1 #启用yum源,0为不启用,1为启用
gpgcheck=1 #检查GPG-KEY,0为不检查,1为检查
gpgkey=file:///media/rhel/RPM-GPG-KEY-redhat-release #GPG-KEY路径

三、清除yum缓存,使用yum install自动安装软件
1
#yum clean all #清除yum缓存


執行yum install PHP

執行yum install python