Red Hat Enterprise Linux 5 .5
** 主机主机名分别是:
SHOMSDB1 SHOMSDB2
root 密码:
挂载点 | 容量 | 分区类型 |
/boot | 512M | Ext3 |
N/A | 8G | Swap |
数据库机主机名:SHOMSDB1 SHOMSDB2 | |||||
存储参数 | |||||
卷组 | |||||
卷组名称 | 存储位置 | 大小 | 是否共享 | 是否镜像 | pp大小 |
VolGroup00 | 本地硬盘 | 127GB | 否 | 是 | 32MB |
存储 | |||||
Orabppm | NAS存储 | 410GB | 是 | 否 | |
Oraitsm | NAS存储 | 310G | 是 | 否 | |
逻辑卷 | |||||
卷组名称 | 逻辑卷名称 | pp数量 | 挂载点 | 大小 | 备注 |
VolGroup00 | LogVol06 | / | 8G | ||
LogVol05 | /opt | 8G | |||
LogVol03 | /var | 8G | |||
LogVol02 | /usr | 10G | |||
LogVol04 | /usr/local | 4G | |||
LogVol01 | /tmp | 8G | |||
LogVol00 | /home | 10G | |||
oracle | /oracle | 20G | |||
data | /data | 20G |
节点 | 应用 | 网卡 | IP地址 | 掩码 | 网关 |
ZHOMSDB1 | BPPM数据库 | eth0 | 110.128.141.139 | 255.255.255.128 | 10.128.141.254 |
eth1 | 10.128.141.140 | ||||
服务ip(浮动) | 10.128.141.148 | ||||
管理ip | 10.128.141.141 |
节点 | 应用 | 网卡 | IP地址 | 掩码 | 网关 |
ZHOMSDB2 | ITSM数据库 | eth0 | 10.128.141.149 | 255.255.255.128 | 10.128.141.254 |
eth1 | 10.128.141.150 | ||||
服务ip(浮动) | 10.128.141.158 | ||||
管理ip | 10.128.141.151 |
略!
参考 Red_Hat_Enterprise_Linux_5_ 安装手册
RHEL AP 版本默认已经自动选择了“ Clustering ”组件,如果没有安装也可通过命令自行安装。
中文时:
mount /dev/dvd /media/
vim /etc/yum.repos.d/dvd.repo
[rhel-server]
name=Red Hat Enterprise Linux $releasever - $basearch - Server
baseurl=file:///media/Server/
enabled=1
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release
[rhel-cluster]
name=Red Hat Enterprise Linux $releasever - $basearch - Cluster
baseurl=file:///media/Cluster/
enabled=1
gpgcheck=1
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release
检查 host 文件,两台机器都要做
[root@SHOMSDB1 ~]# cat /etc/hosts
127.0.0.1 localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6
10.128.141.139 SHOMSDB1
10.128.141.149 SHOMSDB2
10.128.141.148 VIP1
10.128.141.158 VIP2
[root@SHOMSDB2 ~]# cat /etc/hosts
127.0.0.1 localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6
10.128.141.139 SHOMSDB1
10.128.141.149 SHOMSDB2
10.128.141.148 VIP1
10.128.141.158 VIP2
1. 配置安装完毕之后在命令行下执行
[root@db01 ~]# system-config-cluster
进入到 cluster 的图形配置界面,选择“ Create New Configuration ”
2. 选择默认的 DLM 的锁机制。选定左端的 Cluster Nodes ,按 Add a Cluster Node 来添加 cluster 节点。注意这里添加的节点名需要能被正确解析,比如在 /etc/hosts 文件中添加相关记录,解析的 IP 地址为心跳 IP 。
同理添加另一个节点
2. 添加 fence devices( 栅栏设备 -- 电源管理器 ) 。以选择 HP ilo 类型为例,设置 HP 服务器 ilo 芯片 IP 和管理用户口令。( HP ilo 芯片配置方法:在服务器启动过程中根据提示按下 F8 进入 BIOS ,更改管理 IP 地址,也可以选择设置管理用户及其密码)。
同理添加另一个 fence 设备
4. 将设置好的 fence device 依次设定给前面创建好的 cluster node 。
5. 建立失效域,将前面建好节点加到域里。
添加每个节点到刚建立的失效域中。
6 、建立所要用的资源和服务
7 、最后创建服务,在服务里面按照实际启动顺序添加前边建立的资源( ip , file system , script_ )
8 .设置完毕之后,选择 文件 –> 保存, UI 将把设置保存到 /etc/cluster/cluster.conf 文件里。然后把 cluster.conf 文件拷贝到每个节点上。
[root@SHOMSDB1 ~]# scp /etc/cluster/ SHOMSDB2:/etc/cluster/cluster.conf
项目 | 描述 | |
集群启停 | 集群能启动: #service cman start # service rgmanager start | |
集群能停止: # service rgmanager stop # service cman stop | ||
停止、切换 | 当集群启动后,有一个服务Service在运行: # clustat | |
手工切换测试到备机: # clusvcadm -r service -m node[1 | 2] 查看状态: # clustat | |
断网测试(不适用总调项目) | 拔网线,服务正常切换。备机将被重启: # clustat 备机重启后,需要重新启动集群服务: #service cman start #service rgmanager start | |
关机测试 | 关闭主机,服务将被接管到备机: #init 0 备机查看切换状态: # clustat 重启主机,需要重新启动集群服务: # service cman start # service rgmanager start |
1 . Q :如何判断集群运行正常
A :通过 clustat 命令查看集群状态,所有节点应该都处于 online 状态,服务状态为 started ,并通过客户端尝试连接。
clustat -i1
2 . Q :如何手工切换服务
A : clusvcadm -r 服务名 -m 节点名,将某服务切换到某节点。
3. Q :应用 IP 变更的时候需要修改哪些配置
A :如果集群正在运行,可按以下步骤更改:
1) chkconfig rgmanager off
chkconfig clvmd off
chkconfig qdisk off
chkconfig cman off
然后重启机器
2) 进系统修改机器 IP 并修改 hosts 文件,在终端输入 vim /etc/hosts ,修改里面 ip 对应关系。
3)system-config-cluster 修改配置( fence 设备配置需要更改 ip 为新更改的 HP ilo 地址,另外资源中的服务虚拟 IP ),将配置文件 send 到另一台机器 , scp /etc/cluster/cluster.conf db02:/etc/cluster
4)chkconfig cman on
chkconfig qdisk on
chkconfig clvmd on
chkconfig rgmanager on
重启机器
如果觉得我的文章对您有用,请点赞。您的支持将鼓励我继续创作!
赞2
添加新评论0 条评论