请教关于AIX环境中oracle性能问题?

oracle使用文件系统 使用cio模式挂载文件系统性能是否会有提升?操作系统aio应该如何配置?数据库的filesystemio_options=setall参数如何搭配设置?
观察系统io等待比较严重啊啊.bmp

啊啊.bmp

操作系统版本7104 存储使用的svc 请各位大神 细心解答!

参与14

4同行回答

ZhuJun2014ZhuJun2014存储工程师IBM
运行iostat -D -l -V 1,先看看磁盘读写响应时间。显示全部

运行iostat -D -l -V 1,先看看磁盘读写响应时间。

收起
硬件生产 · 2017-11-09
浏览2249
wjs_lunawjs_luna系统工程师某保险
ios.bmphdisk7 一直很忙。上面是是数据库文件。想问问除了除了更换存储,分散热点盘,还有别的方法吗?filemon追踪30秒的数据Thu Nov 9 17:56:29 2017System: AIX 7.1 Node: TK_cpas1 Machine: 00F7E9E44C00Cpu utilization: 68.2%Cpu allocation: 55.8%22857392 events ...显示全部

ios.bmp

ios.bmp

hdisk7 一直很忙。上面是是数据库文件。想问问除了除了更换存储,分散热点盘,还有别的方法吗?

filemon追踪30秒的数据
Thu Nov 9 17:56:29 2017
System: AIX 7.1 Node: TK_cpas1 Machine: 00F7E9E44C00
Cpu utilization: 68.2%
Cpu allocation: 55.8%

22857392 events were lost. Reported data may have inconsistencies or errors.

Most Active Files

MBs #opns #rds #wrs file volume:inode

0.4 223 891 0 oraus.msb /dev/oracle_lv:78773
0.1 17 34 0 ksh.cat /dev/hd2:67336
0.1 1 2 0 lx20354.nlb /dev/oracle_lv:54477
0.1 6 24 0 isobjects /dev/hd4:9273
0.1 17 17 0 index /dev/hd4:8840
0.1 24 14 0 passwd /dev/hd4:8823
0.0 1 12 0 services /dev/hd4:8804
0.0 5 7 0 login.cfg /dev/hd4:16547
0.0 6 6 0 execerr.cat /dev/hd2:67129
0.0 6 6 0 libc.cat /dev/hd2:67362
0.0 4 6 0 vfs /dev/hd4:9055
0.0 1 2 0 lx1boot.nlb /dev/oracle_lv:54258
0.0 1 2 0 lx40011.nlb /dev/oracle_lv:54610
0.0 2 4 0 methods.cfg /dev/hd4:9042
0.0 2 4 0 environment /dev/hd4:8814
0.0 1 2 0 vmstat.cat /dev/hd2:67883
0.0 2 2 0 ps.cat /dev/hd2:67594
0.0 1 2 0 iostat.cat /dev/hd2:67314
0.0 1 2 0 lx20001.nlb /dev/oracle_lv:54259
0.0 7 7 0 psinfo <major=0,minor=0>:45321

Most Active Segments

MBs #rpgs #wpgs segid segtype volume:inode

21.1 5403 0 7316f3 client
18.1 4637 0 1e61366 client
16.7 4285 0 1ce154e client
16.7 4278 0 c01640 client
16.7 4266 0 5e12de client
16.6 4260 0 16e13ee client
16.6 4257 0 14a19ca client
16.5 4222 0 1c81348 client
16.5 4215 0 5e16de client
15.9 4067 0 1a109a client
15.2 3898 0 1c12741 client
15.2 3886 0 12c17ac client
15.0 3843 0 17323f3 client
14.8 3787 0 b51635 client
14.4 3679 0 1a21922 client
14.3 3667 0 f01870 client
14.1 3611 0 16f19ef client
14.0 3574 0 17b15fb client
13.9 3565 0 1941514 client
13.5 3451 0 5912d9 client

Most Active Logical Volumes

util #rblk #wblk KB/s volume description

1.00 949616 2560 15871.7 /dev/cpasdata_lv /cpasdata
0.70 0 136 2.3 /dev/hd2 /usr
0.70 64 88 2.5 /dev/oracle_lv /home/oracle
0.37 0 104 1.7 /dev/hd8 jfs2log
0.37 0 256 4.3 /dev/hd9var /var
0.36 0 56 0.9 /dev/hd4 /
0.36 0 80 1.3 /dev/tivoli_lv /tivoli
0.00 36 16 0.9 /dev/caalv_private3 boot
0.00 0 16 0.3 /dev/cpaslog_lv /cpaslog

Most Active Physical Volumes

util #rblk #wblk KB/s volume description

1.00 978128 32 16304.8 /dev/hdisk7 MPIO FC 2145
0.98 3544 1136 78.0 /dev/hdisk3 MPIO FC 2145
0.98 1696 1000 44.9 /dev/hdisk4 MPIO FC 2145
0.90 336 272 10.1 /dev/hdisk8 MPIO FC 2145
0.71 0 542 9.0 /dev/hdisk0 N/A
0.70 64 534 10.0 /dev/hdisk1 N/A
0.00 0 120 2.0 /dev/hdisk9 MPIO FC 2145
0.00 36 16 0.9 /dev/hdisk2 MPIO FC 2145

收起
保险 · 2017-11-09
浏览2503
  • 1.hdisk7的读延时很高,达到20多ms,写延时还ok。另外,queue full很严重。建议通过tpc看看存储端,这个hdisk7后端的mdisk的响应时间是不是很高。如果不是,那么堵在系统端的可能性很大。同时,还需要观察这个机器的HBA卡在SW上的报错信息,有时候cable问题也会导致延时很高。 2.数据分布很不合理。如果有可能的话,把数据分布到多个条带化的lv上,跨后端多个vdisk。或者,在SVC上,直接把这个hdisk对应的vdisk在线迁移到有SSD的pool或SSD的mdisk上。 3.看看fcsx的num_cmd_elems是不是在默认的500这个值上。如果数据打散了,可以考虑改大HBA卡的queue depth值。
    2017-11-10
zwz99999zwz99999系统工程师dcits
filemon跟踪一下显示全部

filemon跟踪一下

收起
系统集成 · 2017-11-09
浏览2374
gavengaven系统工程师gaven
CIO可以试试,setall对于大的数据库还是需要的显示全部

CIO可以试试,setall对于大的数据库还是需要的

收起
互联网服务 · 2017-11-09
浏览2237

提问者

wjs_luna
系统工程师某保险
擅长领域: 服务器PowerHAAIX

相关问题

相关资料

相关文章

问题状态

  • 发布时间:2017-11-09
  • 关注会员:4 人
  • 问题浏览:4172
  • 最近回答:2017-11-09
  • X社区推广