GPFS 用于两台中间件之间的数据存储和数据共享。两台服务器之采用专门的 GPFS 专用连接。软件版本采用 GPFS 3.5 。
GPFS | AIX V7.1 | AIX V6.1 | AIX V5.3 |
GPFS V3.5 | X | X |
版本 | AIX 操作系统版本 | 软件大小 | |
GPFS 3.5 | AIX 6.1 |
版本 | AIX 操作系统版本 | 软件大小 | |
GPFS 3.5.0.18 | AIX 6.1 | GPFS-3.4.0.18-power-AIX.tar | 201308160 |
n 安装和配置相应的多路径软件
(1) DS8000 、 V7000 存储需要安装 SDD 存储多路径软件;
(2) DS5000 、 DS4000 存储需要采用 MPIO 存储多路径软件;
(3) 其它存储( EMC,HDS )需要专用的多路径软件。
n 修改存储 LUN ,识别 PVID
n 为 gpfs 通信配置 IP 地址。
采用 10.70.1.32 和 10.70.1.33 作为 GPFS 通讯地址
文件系统名称 | 用途 | 文件系统大小 | 逻辑卷名称 |
/var/mmfs | gpfs配置文件储存目录 | 5GB | mmfslv |
n 配置一个 2 节点 GPFS;
n 共采用 53 块 50G 硬盘,分为 5 个文件系统:
Ø /logs 100G 2x50GB
Ø /datafiles 100G 2x50GB
Ø Tiebreaker DISK 5x1GB (只能用 3 个)
GPFS名称 | Server Name | IP address | Quorum Type | Server Type |
sspapp-gpfs | sspapp01-gpfs | 10.70.1.32 | quorum-manager | primary |
sspapp02-gpfs | 10.70.1.33 | quorum-manager | secondary |
序号 | 磁盘ID | 磁盘名称 | 磁盘大小 | NSD名称 | GPFS 文件系统名称 | 服务器组 |
0 | 001 | Hdisk6 | 50 | nsd01 | /logs (100G) | sppapp01 sspapp02 |
1 | 002 | Hdisk7 | 50 | nsd02 | ||
2 | 003 | Hdisk8 | 50 | nsd03 | /datafiles(100G) | |
3 | 004 | Hdisk9 | 50 | nsd04 |
Filesystem Name | Device Name | Size | Own disks |
/logs | /dev/logs | 100G | hdisk6-hdisk7 |
/datafiles | /dev/datadiles | 100G | hdisk8-hdisk9 |
解决安装软件到 /tmp/gpfs 目录
进入软件安装目录 cd /tmp/gpfs
重新更新软件列表内容 Inutoc .toc
安装软件 :
/usr/lib/instl/sm_inst installp_cmd -a -Q -d '.' -f '_all_latest' '-c' '-N' '-g' '-X' '-G' '-Y'
注:安装软件 gpfs.base 和 gpfs.msg*
安装后,系统显示如下:
gpfs.base 3.5.0.0 COMMITTED GPFS File Manager
gpfs.msg.en_US 3.5.0.0 COMMITTED GPFS Server Messages - U.S.
gpfs.base 3.5.0.0 COMMITTED GPFS File Manager
gpfs.docs.data 3.5.0.0 COMMITTED GPFS Server Manpages and
上传补丁软件到 /tmp/gpfsfix 目录
进入软件安装目录 cd /tmp/gpfsfix
重新更新软件列表内容 Inutoc .toc
/usr/lib/instl/sm_inst installp_cmd -a -d '.' -f '_update_all' '-c' '-N' '-g' '-X' '-Y'
查看补丁安装状态 :
配置所有服务器的 /.rhosts 文件
sspapp01-gpfs root
sspapp02-gpfs root
确保服务器间的信任关系
配置所有服务器的 /etc/hosts 文件
10.70.1.32 sspapp01-gpfs
10.70.1.33 sspapp02-gpfs
用同样方法进行其他机器的通讯
(1) 首先下载 ssh 软件包
在 AIX 安装包中: openssh_server , openssh_client
For aix 软件下载地址: https://sourceforge.net/project/showfiles.php?group_id=127997
(2) 安装软件包
解压软件包,安装软件包
(3) 配置 /etc/ssh/sshd_config
将以下三行前面的 ”#” 注释符号去掉,启用节点互相信任策略。
(4) 启动 sshd 服务
(5) 在两台服务器上生成密钥
在两台服务器上执行 :
将会当前用户的主目录下生成 .ssh/ 目录,并产生两个文件: id_rsa 和 id_rsa.pub
注意:建议不要改 .ssh 的目录位置
(6) Copy id_rsa.pub 对需信任服务器上,并改名 authorized_keys( 和 sshd_config 中的名字相同 )
sspapp01#scp /.ssh/id_rsa.pub sspapp02:/.ssh/authorized_keys
sspapp02#scp /.ssh/id_rsa.pub sspapp01:/.ssh/authorized_keys
(7) 测试信任关系
sspapp01#ssh sspapp02-gpfs pwd 可以正常显示,不需要输入密码
sspapp02#ssh sspapp01-gpfs pwd
在 path 行增加 /usr/lpp/mmfs/bin ,例:
PATH=$PATH:/usr/lpp/mmfs/bin:
Export PATH
在 /tmp 录下创建 node.list ,包含下列内容:
sspapp01-gpfs :quorum-manager
sspapp01-gpfs :quorum-manager
创建 pkmsdb-gpfs 集群:
@/usr/lpp/mmfs/bin#mmcrcluster -n /tmp/node.list –p sspapp01-gpfs –s sspapp02-gpfs –r /usr/bin/ssh –R /usr/bin/scp –C sspapp-gpfs
查看 GPFS cluster : /usr/lpp/mmfs/bin/mmlscluster
在任意一个能够识别到所有磁盘的节点上,编辑 disk.list
注:创建节点的多台服务器磁盘顺序可以不同,但必须识别 PVID 。
在 /tmp 目录下创建 disk.list
hdisk6:sspapp01-gpfs:sspapp02-gpfs::1000:nsd01
hdisk7:sspapp01-gpfs:sspapp02-gpfs::1000:nsd02
hdisk8:sspapp01-gpfs:sspapp02-gpfs::1000:nsd03
hdisk9:sspapp01-gpfs:sspapp02-gpfs::1000:nsd04
创建 NSD 磁盘
/usr/lpp/mmfs/bin>./mmcrnsd -F /tmp/disk.list -v no
查看 NSD 磁盘 mmlsnsd
将 disk.list 分为几个文件系统磁盘组:
/tmp/logs.list
/tmp/datafiles.list
在 /tmp 编辑创建 disk.list 如下:
nsd01:::dataAndMetadata:1000::
nsd02:::dataAndMetadata:1000::
nsd03:::dataAndMetadata:1000::
nsd04:::dataAndMetadata:1000::
创建 dbgpfs 文件系统
/usr/lpp/mmfs/bin>./mmcrfs /logs /dev/lv_logs -F /tmp/logs.list -A no -B 1M -m 2 -M 2 –r 2 -R 2 -n 32 -v no
/usr/lpp/mmfs/bin>./mmcrfs /datafiles /dev/datafiles -F /tmp/datafiles.list -A no -B 1M -m 2 -M 2 –r 2 -R 2 -n 32 -v no
只有一个存储路径, -m 为 1 , 两个存储路径 –m 为 2 ,-R 2 为复制两份。
/usr/lpp/mmfs/bin>mmchconfig tiebreakerDisks="tb01;tb02;tb03"
心跳磁盘数量最好为两个以上 , 最多 3 个。
修改 Tierbread 参数以后, GPFS 系统需重新启动
如果文件内存储的文件个数过多,可能导致缺省的 INODE 个数不够,用下面的命令可以扩充 Inode 的个数 :
/usr/lpp/mmfs/bin/mmchfs wasgpfs –F maxnuminodes
maxnuminodes 是一个整数,可以设置为系统缺省值的 5-10 倍
/usr/lpp/mmfs/bin>./mmchconfig maxMBpS=1600
每秒最大传送数据量,考虑 HBA 带宽和数量,建议为 1600MB
/usr/lpp/mmfs/bin>./mmchconfig prefetchThreads=100
/usr/lpp/mmfs/bin>./mmchconfig worker1Threads=450
prefetchTread 为最大顺序读写线程, worker1Thread 为最大随机读写线程,两值相加不能超过 550 。
/usr/lpp/mmfs/bin>./mmchconfig autoload=yes
/usr/lpp/mmfs/bin>./mmchconfig maxFilesToCache=4000
最大缓存文件数量。
/usr/lpp/mmfs/bin>./mmchconfig adminMode=central
/usr/lpp/mmfs/bin>mmchconfig pagepool=1024M
Pagepool 缓存数据和元数据,最大值为 8GB, 最小 4MB 。考虑服务器物理内存的大小,建议设置为 1GB 。
mmchfs /dev/wasgpfs --inode-limit 1048576 (1MB)
文件系统中最大文件数量,对于大量小文件的系统,建议增加数量到 1MB
Cd /var/mmfs/gen
Tar –cvf /var/mmfs_yyyymmdd.tar /var/mmfs/gen
保存配置方便以后的恢复。
检查项 | 命令 | |
补丁是否安装次新版本 | lslpp –l | grep mmfs |
文件系统是否为自动mount | /usr/lpp/mmfs/bin/mmlsconfig | |
节点是否全部激活 | Mmgetstate –La | |
文件系统是否全部挂载 | Mmdf wasgpfs | |
磁盘是否全部up | Mmlsdisk wasgpfs | |
复制是否完成,显示目录和文件的数据和元数据都为2 | Mmlsattr /wasgpfs | |
是否备份/var/mmfs/gen目录 | ||
性能参数是否修改 | /usr/lpp/mmfs/bin/mmlsconfig |
检验项目 | 配置描述 | 测试结果 | ||
软件安装 | 软件版本 | lslpp –l | grep gpfs | 3.5 |
软件补丁版本 | Lslpp –l | grep gpfs | 3.5.0.18 | |
功能测试 | 节点是否全部激活,显示全部节点激活 Mmgetstate -La | 全部激活 | ||
文件系统是否在全部节点激活,显示激活数量与节点数量一致 Mmdf ora_data01 | 全部挂起文件系统 | |||
查看磁盘是否全部正常,显示全部磁盘状态为up Mmlsdisk wasgpfs | 全部磁盘up | |||
是否可以多节点同时读写 | 正常完成 | |||
停止单个节点是否能够读写 | 正常完成 | |||
停止部分磁盘是否能够正常读写 | 正常完成 | |||
工作正常 | ||||
灾难测试 | 停止1个节点(不能同时停止主备节点),看文件系统是否能正常工作 ./mmshutdown -N pkmsdb01-gpfs ./mmgetstate –La | 工作正常 |
如果觉得我的文章对您有用,请点赞。您的支持将鼓励我继续创作!
赞2
添加新评论0 条评论