1. 首先要用dd亲自测一下,注意使用/dev/rdisk,测得更准一些2. 另外需要看一下PV的average service time如何,sar -D或者topas -D测一下,read/write 都看一下, 理论上来讲,read在20ms以下,write在5ms以下,都是一个可接受的响应。原因可能有几种:1. 存储电池坏了,write cache一般是m...
显示全部1. 首先要用dd亲自测一下,注意使用/dev/rdisk,测得更准一些
2. 另外需要看一下PV的average service time如何,sar -D或者topas -D测一下,read/write 都看一下, 理论上来讲,read在20ms以下,write在5ms以下,都是一个可接受的响应。
原因可能有几种:
1. 存储电池坏了,write cache一般是mirror的,坏了一个会disable,write IO就是很慢,service time会有体现
2. SAN链路虚接,FC cable不行,或者SFP模块,都有可能导致你说的busy 100%,multipath中有一路是这样也会导致该问题。
3. 如果是大量非常碎小的文件处理也不是不可能,需要结合dd结果看一下,如果dd是正常的,说明本身存储没有问题,可以看看是不是业务本身特点使然。
4. 如果使用的大容量,转速低的(比如2TB SATA, 7200rpm)的盘阵,也可能遇到IO比较差的这种问题,有可能想netapp工程师说的----就这样了...但20MB/s的确是太低...
5. 话说LV条带化做的不好,一般也不至于20MB/s, 快赶上笔记本IO了,个人倾向于前几种,可以找时间检查一下。
PS:这种事情应该先找IBM或者懂AIX的人看一下问题的方向,先找netapp估计很难找出问题。
收起