topas时Disk Busy 100%问题及分析

AIX小机,通过topas发现Disk Busy 100%,由于我是AIX新手,通过自己的分析还是没有找出根本问题,请求帮忙。分析过程如下:
[root:esaledb1]#/>topas
(截取部分):
Mon Aug  9 15:36:30 2010   Interval:  2        
                                               
CPU  User%  Kern%  Wait%  Idle%               
ALL   37.0    6.4   26.0   30.6               
                                               
Network  KBPS   I-Pack  O-Pack   KB-In  KB-Out
Total   826.6   2005.5  1870.0   286.6   540.0
                                               
Disk    Busy%     KBPS     TPS KB-Read KB-Writ
Total   100.0    746.0    88.0   352.0   394.0
                                               
FileSystem        KBPS     TPS KB-Read KB-Writ
Total            841.7     1.6K 552.0  289.7   

[root:esaledb1]#/>sar 1 5
AIX esaledb1 1 6 00CE1EC44C00    08/09/10
System configuration: lcpu=4  mode=Capped
14:19:29    %usr    %sys    %wio   %idle   physc
14:19:30      37       7      23      33    2.00
14:19:31      24       7      41      28    2.00
14:19:32      50       8      25      16    2.01
14:19:33      77      10      10       3    1.99
14:19:34      48       7      25      20    2.00
Average       47       8      25      20    2.00
[root:esaledb1]#/>iostat -d hdisk0 1 10
System configuration: lcpu=4 drives=8 paths=7 vdisks=0
Disks:        % tm_act     Kbps      tps    Kb_read   Kb_wrtn
hdisk0           1.0      19.8       2.0         20         0
hdisk0           0.0       0.0       0.0          0         0
hdisk0           0.0       0.0       0.0          0         0
hdisk0           0.0       0.0       0.0          0         0
hdisk0           0.0       0.0       0.0          0         0
hdisk0          11.0      84.0      22.0          0        84
hdisk0           0.0       0.0       0.0          0         0
hdisk0           0.0       0.0       0.0          0         0
hdisk0           0.0       0.0       0.0          0         0
hdisk0           0.0       0.0       0.0          0         0
[root:esaledb1]#/>iostat -d hdisk1 1 10
System configuration: lcpu=4 drives=8 paths=7 vdisks=0
Disks:        % tm_act     Kbps      tps    Kb_read   Kb_wrtn
hdisk1           0.0       0.0       0.0          0         0
hdisk1           0.0       0.0       0.0          0         0
hdisk1           0.0       0.0       0.0          0         0
hdisk1           0.0       0.0       0.0          0         0
hdisk1           0.0       0.0       0.0          0         0
hdisk1           0.0       0.0       0.0          0         0
hdisk1           0.0       0.0       0.0          0         0
hdisk1           0.0      15.8       4.0          0        16
hdisk1           6.0      80.2      21.1          0        80
hdisk1           0.0       0.0       0.0          0         0
[root:esaledb1]#/>iostat -d hdisk2 1 10
System configuration: lcpu=4 drives=8 paths=7 vdisks=0
Disks:        % tm_act     Kbps      tps    Kb_read   Kb_wrtn
hdisk2         100.0     120.0      15.0          0       120
hdisk2         100.0     176.0      20.0          0       176
hdisk2         100.0     464.0      42.0          0       464
hdisk2         100.0     1084.0      87.0        652       432
hdisk2          99.0     136.0      15.0          0       136
hdisk2         100.0     200.0      22.0          0       200
hdisk2         100.0     160.0      18.0          0       160
hdisk2          99.0     120.0      15.0          0       120
hdisk2          99.0     23908.0     440.0      23652       256
hdisk2          99.0     3208.0     392.0       3024       184
[root:esaledb1]#/>iostat -d hdisk3 1 10
System configuration: lcpu=4 drives=8 paths=7 vdisks=0
Disks:        % tm_act     Kbps      tps    Kb_read   Kb_wrtn
hdisk3           0.0       0.0       0.0          0         0
hdisk3           0.0       0.0       0.0          0         0
hdisk3           0.0       0.0       0.0          0         0
hdisk3           0.0       0.0       0.0          0         0
hdisk3           0.0       0.0       0.0          0         0
hdisk3           0.0       0.0       0.0          0         0
hdisk3           0.0       0.0       0.0          0         0
hdisk3           0.0       0.0       0.0          0         0
hdisk3           0.0       0.0       0.0          0         0
hdisk3           0.0       0.0       0.0          0         0
[root:esaledb1]#/>iostat -d hdisk4 1 10
System configuration: lcpu=4 drives=8 paths=7 vdisks=0
Disks:        % tm_act     Kbps      tps    Kb_read   Kb_wrtn
hdisk4           0.0       0.0       0.0          0         0
hdisk4           0.0       0.0       0.0          0         0
hdisk4           0.0       0.0       0.0          0         0
hdisk4           0.0       0.0       0.0          0         0
hdisk4           0.0       0.0       0.0          0         0
hdisk4           0.0       0.0       0.0          0         0
hdisk4           0.0       0.0       0.0          0         0
hdisk4           0.0       0.0       0.0          0         0
hdisk4           0.0       0.0       0.0          0         0
hdisk4           0.0       0.0       0.0          0         0
[root:esaledb1]#/>iostat -d hdisk5 1 10
System configuration: lcpu=4 drives=8 paths=7 vdisks=0
Disks:        % tm_act     Kbps      tps    Kb_read   Kb_wrtn
hdisk5          82.0     200.0      31.0         32       168
hdisk5          66.0     152.0      32.0         40       112
hdisk5          39.0     112.0      20.0         24        88
hdisk5          50.0     248.0      28.0         48       200
hdisk5          70.3     174.3      31.7         40       136
hdisk5          86.0     240.0      40.0         48       192
hdisk5          79.0     192.0      38.0         40       152
hdisk5          87.0     296.0      46.0         72       224
hdisk5          97.0     496.0      54.0         96       400
hdisk5          66.0     160.0      30.0         40       120
[root:esaledb1]#/>iostat -d hdisk6 1 10
System configuration: lcpu=4 drives=8 paths=7 vdisks=0
Disks:        % tm_act     Kbps      tps    Kb_read   Kb_wrtn
hdisk6           0.0       0.0       0.0          0         0
hdisk6           0.0       0.0       0.0          0         0
hdisk6           0.0       0.0       0.0          0         0
hdisk6           0.0       0.0       0.0          0         0
hdisk6           0.0       0.0       0.0          0         0
hdisk6           0.0       0.0       0.0          0         0
hdisk6           0.0       0.0       0.0          0         0
hdisk6           0.0       0.0       0.0          0         0
hdisk6           0.0       0.0       0.0          0         0
hdisk6           0.0       0.0       0.0          0         0
[root:esaledb1]#/>

[root:esaledb1]#/>filemon –o filemon1.out; sleep 30; trcstop
filemon1.out附件内容截取部分如下:
Most Active Logical Volumes
------------------------------------------------------------------------
  util  #rblk  #wblk   KB/s  volume                   description
------------------------------------------------------------------------
  0.99   1224   4608   97.3         ???
  0.98  72256   2944 1254.2         ???
  0.88      0     56    0.9  /dev/hd9var              /var
  0.73    184  10712  181.7  /dev/hd6                 paging
  0.54      0     72    1.2  /dev/hd8                 jfs2log
  0.52      0      8    0.1  /dev/hd4                 /
  0.44      0    176    2.9         ???
  0.17      0     16    0.3         ???
  0.00     24      0    0.4  /dev/hd2                 /usr
Most Active Physical Volumes
------------------------------------------------------------------------
  util  #rblk  #wblk   KB/s  volume                   description
------------------------------------------------------------------------
  0.99   1208   4640   97.5  /dev/hdisk5              N/A
  0.99  72288   3112 1257.5  /dev/hdisk2              N/A
  0.90     88  11497  193.2  /dev/hdisk0              N/A
  0.90     48   9801  164.3  /dev/hdisk1              N/A

附件:

附件图标filemon1.rar (4.97 KB)

参与18

18同行回答

anthonypaopaoanthonypaopao系统运维工程师PTC
oracle的日志文件放到文件系统里必然有瓶颈 至于数据文件繁忙 找数据库管理员看看有没有垃圾的sql语句查询 其次看看存储规划  性能上参数调试只是辅助 主要还看存储物理架构和规划...显示全部
oracle的日志文件放到文件系统里必然有瓶颈 至于数据文件繁忙 找数据库管理员看看有没有垃圾的sql语句查询 其次看看存储规划  性能上参数调试只是辅助 主要还看存储物理架构和规划收起
系统集成 · 2015-06-11
浏览4965
woailili9woailili9系统工程师新明星
牛X  学些了显示全部
牛X  学些了收起
硬件生产 · 2015-06-11
浏览4731
liyh2015liyh2015系统工程师cait
关注一下显示全部
关注一下收起
系统集成 · 2015-06-09
浏览4731
GatewaywadeGatewaywade系统工程师小企业有限公司
关注中, 有详细的解决方案说明吗?显示全部
关注中, 有详细的解决方案说明吗?收起
系统集成 · 2015-06-09
浏览4628
bbird006bbird006系统运维工程师OTA
学习一下!!!显示全部
学习一下!!!收起
互联网服务 · 2011-11-05
浏览4617
nhuxynhuxy系统工程师浙江鸿程计算机系统有限公司
lvmstat 这个命令工具不错!一下就找出是redo和arch log文件很忙。redo日志可以说oracle文件中最忙的文件了。它属于随机写、读写频繁的特性。所以一般要求redo file log单独配置成raid10模式。显示全部
lvmstat 这个命令工具不错!一下就找出是redo和arch log文件很忙。
redo日志可以说oracle文件中最忙的文件了。它属于随机写、读写频繁的特性。所以一般要求redo file log单独配置成raid10模式。收起
系统集成 · 2011-11-05
浏览4662
aitthingsaitthings系统架构师USA
Oracle没有很好的把工作分摊给磁盘显示全部
Oracle没有很好的把工作分摊给磁盘收起
金融其它 · 2011-06-16
浏览4729
sleepsheep79sleepsheep79系统架构师HP
good question!显示全部
good question!收起
IT咨询服务 · 2010-09-02
浏览4597
chen78822chen78822软件开发工程师同方公司
用filemon实施,看看哪个进程忙。显示全部
用filemon实施,看看哪个进程忙。收起
互联网服务 · 2010-08-12
浏览7702
feiyangcxwfeiyangcxw系统运维工程师IBM
你的数据文件和日志文件的I/O非常的高,如果是ORACLE的话,你可以看看ORACLE的顾问视图,或是抓个AWR的报表看看,应该你的热点的数据文件都集中在HDISK2,HDISK5上。日志文件非常的高,一种是多建几个LOGFILE或是扩大点LOGFILE SIZE,还是抓个AWR的报表来看看。...显示全部
你的数据文件和日志文件的I/O非常的高,如果是ORACLE的话,你可以看看ORACLE的顾问视图,或是抓个AWR的报表看看,应该你的热点的数据文件都集中在HDISK2,HDISK5上。
日志文件非常的高,一种是多建几个LOGFILE或是扩大点LOGFILE SIZE,还是抓个AWR的报表来看看。收起
政府机关 · 2010-08-11
浏览7434

提问者

fywang2
经理民安保险

相关问题

相关资料

相关文章

问题状态

  • 发布时间:2010-08-09
  • 关注会员:0 人
  • 问题浏览:34761
  • 最近回答:2015-06-11
  • X社区推广