本文其他章节:
银行双活容灾建设方案技术手册——分析篇
银行双活容灾建设方案技术手册——规划篇
全文PDF下载:
城商银行同城双数据中心建设技术手册
目前平台架构存在的问题:
XX平台目前数据中心托管在某IDC机房,由于机房提供的单链路网络较不稳定,应用层面目前也没有做负载均衡和、冗余与容灾设计,网站存在多处单点故障风险。数据中心的各项服务均不能满足7×24小时的无故障运行,无法支撑与保障业务连续运行。因此而造成应用程序性能较低,故障率高的影响。随着各类业务应用对IT需求的深入发展,业务部门对资源的需求正以几何级数增长,传统的IT基础架构方式给运营人员和未来业务的扩展带来巨大挑战。
具体而言存在如下问题:
XX平台数据中心目标架构
XX平台多活数据中心的建设模式采用“分应用主备模型”。两个数据中心的应用根据业务不同来划分主从对外提供服务,两个数据中心都处于活动状态,都能独立工作且互为备份。两个数据中心之间通过稳定、低延时的私有专线连接实现数据与配置的同步。本案中所有互联网应用服务器都以生产数据中心为主,办公数据中心作为备份,当生产数据中心故障或者网络中断时,办公数据中心有能力接管用户访问,对外提供服务;而虚拟桌面和其他办公应用则主要建立在办公数据中心,一旦数据中心故障,呼叫中心的用户可以访问到数据中心的备用系统。两个数据中心之间通过专线进行互联,“分应用主备模型”的双活数据中心可充分盘活企业闲置资源,保证业务的连续性,帮助用户接入最优节点,提高用户访问体验。
私有云设计概述
XX平台设计的目标是建立一套可扩展与伸缩,稳定高效的私有云,建立私有云可以使上层业务应用仅仅根据自己所需的计算资源占用要求来对CPU、内存、I/O等实现自由调度,而无须考虑该应用所在的物理关联和位置。业务应用运行所依赖的物理计算环境通过网络实现连接,互连CPU和内存,实现真正意义上彻底的实现服务私有云化。
服务器虚拟化应用
为了使服务器资源能够集成在一起,形成私有云,统一对外提供计算服务,必需部署软件的虚拟化系统来整合成云,本案采用VMware vSphere产品来搭建服务器虚拟化与桌面虚拟化,形成统一底层架构平台。因此在私有云数据中心内,服务器虚拟化软件平台是该系统最为核心的组成内容。
虚拟化软件平台分为虚拟化业务平台和管理平台两个部分,业务平台部署在物理服务器计算资源上,实现计算资源一虚多的虚拟化业务需求;而管理平台则通常会部署在统一管理平台组件内部,对业务平台所在物理服务器计算资源进行统一调度部署。
服务器虚拟化平台主要提供分区、隔离、封装和迁移4个关键特性。
设计原则:
本次项目主要组件:
组件说明:
VMware vCenter 服务器将被安装到一台专用的虚拟机上,并且该 vCenter 虚拟机的克隆作为冷备恢复可用性方案。当出现 vCenter 虚拟机操作系统级或应用软件级别的故障时,使用冷备虚拟机进行最新数据的数据库恢复,从而实现 vCenter 服务器高可用性方案。
VDI桌面虚拟化应用
在建立的私有云构建为XX平台搭建虚拟桌面以提高办公效率,降低TCO。为了保持平台的一致性与可扩展性,本案采用Vmware Horizon View结合瘦客户机来实现虚拟桌面环境搭建。
本次项目主要组件
组件说明:
View Manager 组件:
虚拟化桌面的优势:
网络服务虚拟化应用
传统网络是不具备虚拟机意识的,即在网络上传递的信息是无法区别它是来自于哪个虚拟机,也无法在网络上根据虚拟机来提供相应的网络服务,当虚拟机迁移,也没有相应的网络跟踪手段保证服务的全局一致性。
通过Distributed vSwitches(vDS或vNDS)支持一个交换机在多个宿主上配置使用。具有相同配置的vSwitch必须在每一个宿主上创建,以便支持如VMotion的特性。当一个VM从一个宿主移动到另一个宿主时,它需要发现另一个宿主的网络名称和相同的配置才能建立连接。在每一个宿主上配置每一个vSwitch是非常费时的过程,而如果并非所有配置都一样的,通常就会出现VMotion兼容问题。
vDS与标准交换机非常相似,但是标准vSwitch是在每一个宿主上单独配置,而vDS是使用vCenter Server进行集中配置。每个vCenter Server最多有16个vDS,每个vDS最多可以连接64个宿主。vDS通过vCenter Server创建和维护,但是它们的运行并不依赖于服务器。如果vCenter Server变得不可用,vDS不会丢失它们的配置。当一个vDS在vCenter Server中创建时,每一个宿主上会创建一个隐藏的vSwitch与vDS连接,它位于本地VMFS卷的名为.dvsData的文件夹中。
计算资源需求
根据不同类型的用户分配不同的虚拟内存和 CPU,通常情况下,数据库服务器 对CPU和内存的要求比较高,资源的占用率大,数据库服务器启动或者业务高峰对计算资源是极大的挑战,分配8vCPU和16G内存。应用与代理服务器 分别使用4vCPU结合8G与4G内存组成分布式高性能群集。虚拟桌面 用户对于运算资源的需求相对比较低。一般情况下有播放 720p 视频需求, Windows7 64bit 的用户我们建议使用2vCPUs。
本案需要部署3台DELL R720服务器, 每台配备2颗E5-2620v3服务器CPU,至少需要284内存。为了保证硬件一致性与宿主机的稳定,取整采购288G( 16G单根内存), 其中生产环境采购192G, 办公环境补充96G内存,以整体满足本次项目中跨数据中心容灾及可迅速弹性扩展的计算资源要求。
本系统负责完成对业务系统的支持,对系统的高可靠性有着很高的要求。作为该系统核心的存储平台的高可靠性则更是重中之重。由于采用了集中存储的方案,所有的信息存储,信息管理及信息共享均集中存储于统一的平台之上,存储平台的任何故障会造成巨大的影响。因此存储平台的数据安全性和系统高可靠性尤为重要。另外本案存储的架构充分考虑到了跨数据中心级别的容灾迁移,企业关键核心将在业务空闲时段进行跨站点的数据备份,以满足容灾需要
存储系统要存储大量的在线数据信息,支持更多服务器的在线业务并发写要求。由于总的数据量会很大,如何在这么大数据量情况下满足这么多客户机的并发访问,整个存储系统的性能也是一个非常关键的要求。而且考虑到将来业务的增长,数据量还会持续增加,客户机的数量也会继续增加,系统的性能还应能很好的适应未来的扩充和扩展的需要
作为集中存储的基本要求,存储系统应能支持巨大的存储容量,可以集中存储不同平台的企业数据,从而使企业在保留分布式处理好处的同时实现核心信息的集中存储和集中管理。
随着时间的推移、技术的发展以及环境的变化,业务系统的数据量会飞速增长,许多新业务系统会不断产生,因此对存储系统的可扩展性有很高要求。尽管我们在本方案中已经充分考虑了系统存储容量空间的预留,但随着业务的发展,对存储系统的可扩展性要求仍将非常迫切。这主要表现在对存储系统容量的平滑扩充以及对新的主机(HOST)系统的平滑连接,以尽量减少对已有正常业务的影响。
本系统是一个多层的体系结构,在集中的存储平台之上要为数据库服务器,应用服务器和其他服务器提供统一的存储方案。这不可避免的涉及到存储系统的多平台支持能力。作为应用服务器可能会采用Linux服务器,作为其它服务器可能会采用的是Windows 等。作为集中存储的基本要求,存储系统必须能够同时连接不同的服务器平台,以满足数据集中的需要。
由于存储系统的数据量非常大,如何有效的管理大量的数据,包括数据备份/恢复,都对存储系统的管理提出了巨大的挑战。系统管理人员需要有高效的方法实现全面的存储系统监控,包括实时数据性能监视、错误监测、错误状态识别等等。另外作为集中的存储平台,由于前端需要连接的服务器数量很多,如何在多个服务器平台之间对容量进行灵活的划分和调度也是为存储系统的管理提出了巨大的挑战。
DELL SCv2000s系列存储设备将存储资源虚拟成一个“存储池”,这样做的好处是把许多零散的存储资源整合起来,从而提高整体利用率,同时降低系统管理成本。与存储虚拟化配套的资源分配功能具有资源分割和分配能力,可以依据服务的要求对整合起来的存储池进行划分,以最高的效率、最低的成本来满足各类不同应用在性能和容量等方面的需求。特别是虚拟磁带库,对于提升备份、恢复和归档等应用服务水平起到了非常显著的作用,极大地节省了企业的时间和金钱。 除了时间和成本方面的好处,存储虚拟化还可以提升存储环境的整体性能和可用性水平,这主要是得益于“在单一的控制界面动态地管理和分配存储资源”。 在当今的企业运行环境中,数据的增长速度非常之快,而企业管理数据能力的提高速度总是远远落在后面。通过虚拟化,许多既消耗时间又多次重复的工作,例如备份/恢复、数据归档和存储资源分配等,可以通过自动化的方式来进行,大大减少了人工作业。因此,通过将数据管理工作纳入单一的自动化管理体系, 存储虚拟化可以显著地缩短数据增长速度与企业数据管理能力之间的差距。
充分利用DELL SCv2000s系列存储的分层,分资源I/O特性,把企业关键的核心业务放置到最先进的SSD存储固态磁盘群集中运行,把性能要求不高但是大容量需求的静态资源放置到存储普通硬盘群集中运行,其次VDI桌面系统放置到服务器本地的普通硬盘群集,另外存储中划分一块区域作为VDI桌面的跨数据中心容灾使用。
容量规划如下表所示:
流量调度
数据中心层面:我们推荐使用两层逻辑算法的智能DNS调度策略,首先,全局负载设备会判断用户的地理位置,将用户调度到速度最快的网络线路,解决南北互访的问题;其次,根据用户所属运营商选择对应链路供用户接入,解决跨运营商访问慢的问题。此外,全局负载还可对客户端LDNS发起反向探测,判断用户网络质量,为用户选择最佳接入路径。
健康状态检查
故障切换
生产主数据中心的数据库服务器全部故障时,用户接入链路不切换,通过专线将直接激活备数据中心的数据库,实现数据库一键切换。数据库切换前需要验证数据库的正确性,用户需要完成数据验证并保证数据库按顺序切换。
数据中心的所有链路同时故障时,全局负载设备将用户流量平滑牵引至办公数据中心。单链路故障时,可根据用户需求切换至本中心其他链路或其他中心同ISP链路。此外,当某数据中心出现服务能力不足时(链路繁忙、服务单元繁忙等),全局负载设备还可以基于数据中心的整体健康得分情况将用户分流至其他数据中心,保障用户正常访问。
业务优化加速
互联网区的WEB服务单元直接面向公网,受公网网络质量影响较大,负载均衡可通过协议优化、数据压缩和智能加速等技术减少网络环境影响,提高用户访问体验。此外,外网用户会有大量重复请求,通过负载设备的高速缓存技术,对静态和内容进行缓存,减少服务器数据交互,降低服务器性能压力,提高访问速度。
跨数据中心的数据库同步需占用大量带宽资源,且数据量非常大,部署WOC设备可大幅压缩传输数据,削减流量。WEB或APP服务单元跨数据中心通信时,通过WOC设备的协议优化和流缓存等技术实现加速。当二者同时需要大量带宽资源时,优先保证数据库同步。
通过F5 BIG-IP 应用交付解决方案实现应用负载均衡, NetScaler应用交付解决方案将传统数据中心产品的各项特性与功能整合至一个单独的网络设施中,其中包括负载平衡、缓存、SSL加速、攻击防御和SSL VPN等。这一设施经过精心设计,旨在最大限度地提升应用性能。
由于应用通常要求在服务器和客户机之间建立端到端连接,并需将单个应用请求隐藏起来,因此,构建智能应用基础设施极具挑战性。这种针对单个应用请求所进行的“隐藏”,使得众多应用层解决方案在应对智能应用时几乎一筹莫展、无计可施。
而建立在F5 BIGIP的“请求交换”TM专利架构之上的F5 BIG-IP产品,却是业内首款可根据其强大的用户定义策略来处理每种应用请求的线速级技术。F5 BIG-IP的面向应用型策略引擎,能够独立于连接之上,针对单独的请求创建详细的基于策略的决策,使管理员能够创建复杂的应用请求处理策略,并支持基于应用的强大完善特性。
F5 BIG-IP产品可提供:
其它解决方案宣称能够增强Web应用的性能时,而F5 BIG-IP产品不仅能够最大限度地提高Web应用的性能,还能确保其安全性。此外,由于不再使用许多其它解决方案,并代之以BIG-IP单一标准设备,整体网络架构的复杂程度大为简化,同时整体成本也大为降低。
F5 BIG-IP应用加速器
F5 BIG-IP应用交换机是一款具有丰富特性的联网系统,集第4至第7层负载平衡、内容交换,以及应用加速及安全特性于一身。该应用交换机是过时的负载平衡器及其它传统解决方案的理想替代品,能够简化网络复杂性和降低总体经营成本。
应用优化
本案应用优化主要通过三个方面进行
代码级别改造,解决代码中执行性能差,容易造成业务中断的部分。并且通过业务代码切分,使代码可以跨主机部署,分应用部署,使应用资源完全分离,互相不干扰,充分利用虚拟化与云计算带来的高速体验。
架构级别改造,实现代码的动静分离,负载负载均衡转发,防止单点故障形成,防止静态资源占用过多的带宽
Web Portal主要用于提供静态内容
Application主要用于提供动态内容
通过F5 LTM来实现负载均衡
提供12种灵活的算法将所有流量均衡的分配到各个服务器,而面对用户,只是一台虚拟服务器。
可以确认应用程序能否对请求返回对应的数据。假如F5 BIG-IP后面的某一台服务器发生服务停止、死机等故障,F5会检查出来并将该服务器标识为宕机,从而不将用户的访问请求传送到该台发生故障的服务器上。这样,只要其它的服务器正常,用户的访问就不会受到影响。宕机一旦修复,F5 BIG-IP就会自动查证应用已能对客户请求作出正确响应并恢复向该服务器传送。
具有动态Session的会话保持功能。
iRules功能可以做HTTP内容过滤,根据不同的域名、URL,将访问请求传送到不同的服务器。
数据库应用优化
XX平台数据库使用MySQL5.6,通过MySQL服务器复制功能对现有建构进行优化改造,可以在主服务器和从服务器之间实现负载均衡。即可以通过在主服务器和从服务器之间切分处理客户查询的负荷,从而得到更好的客户相应时间。出于技术成熟度、成本等因素考虑,数据库采用主备方式部署,数据库写入操作都在生产数据中心的主库进行,办公数据中心从库进行数据同步,默认情况下可提供只读查询,分担主库的负载。发生灾难时,办公数据中心间的从库可以快速切换为主库,避免业务中断;
在生产数据中心和办公数据中心都部署F5 BIG-IP的LTM模块实现数据库的负载均衡。通过F5 BIG-IP的iRules模块对数据库健康状态进行实时监测,实现跨数据中心的负载均衡及容灾方案。
数据库复制功能实现了主服务器与从服务器之间数据的同步,增加了数据库系统的可用性。当主服务器出现问题时,数据库管理员可以马上让从服务器作为主服务器,用来数据的更新与查询服务。这样子提供了充足的时间去检查主服务器的问题,等主服务器故障恢复后再进行主从切换,恢复原有架构
在数据库之间实现负载的均衡,其关键点就是数据同步的时间。如果主服务器与从服务器之间数据的更新时间比较长,此时从主服务器中查询得到的数据就会同从从服务器中得到的数据有差异。而如果同步的时间比较短,如实现同步复制,对网络带宽、服务器设备等就有比较高的要求。
如何保障网络信息安全,来自内部用户的威胁如何最大限度地减少或避免因网络内部接入客户端因素造成的信息泄漏和破坏,成为摆在我们面前一项刻不容缓的重要课题。由于XX平台的信息系统是基于WEB访问技术的,本案可以利用F5 BIG-IP Better Bundle中模块中赠送的SSL-VPN(免费10 用户并发) 结合活动目录Active Directory来实现准入控制和统一认证。
F5的SSL VPN不是利用传统的VPN客户机来提供全部网络接入支持,而是利用浏览器作为客户机与服务器之间的连接器,来支持远程访问个别应用。
• 支持从远端客户机访问应用服务器上的TCP应用。
• 可支持本地客户机端应用通过浏览器与SSL-VPN服务器之间的安全隧道,与公司的应用服务器进行通信。
• 允许连接的用户将LAN驱动器映射到远程系统。
• 无需用户预先安装或配置任何额外组件。
• 在网络端,被访问的应用服务器上无需安装额外软件。
• 采用标准HTTPS协议,并以SSL作为传输协议,因此可支持任何HTTP代理–包括公共接入点、专用LAN以及任何不支持传统IPSec VPN的其它网络和ISP。
•身份认证技术系统通过密码来对照内部数据库进行鉴权。F5-SSL VPN经配置后可与RADIUS和LDAP鉴权方法、基于表格的基本HTTP鉴权以及负责鉴权与访问管理的AD联合运行。
由于计算发生在数据中心,所有桌面的管理和配置都在办公数据中心进行,管理员可以在数据中心进行对所有桌面和应用进行统一配置和管理。例如系统升级、应用安装,等等。由于传递的只是最终运行图像,所有的数据和计算都发生在数据中心,则机密数据和信息不需要通过网络传递,增加了安全性,另外这些数据也不允许下载到客户端,保证用户不会带走、传播机密信息。
数据中心层面:
网络出口处部署F5 BIG-IP防护设备并在运营商处购买流量清洗服务,保证数据中心整体安全。
网络出口处部署FW和IPS设备,从网络层和应用层保证数据中心不被恶意入侵。
F5 BIG-IP全局负载设备提供DNS防火墙功能,充分保证DNS安全。
DNSSEC 支持、UDP Flood、DNS 放大和反射
服务单元层面:各服务单元部署防火墙,保证区域安全。WEB服务单元直接面向互联网用户,需要部署SSL卸载设备实现SSL加解密,提高业务访问安全。同时,通过部署WAF保障WEB服务器的安全。
面对复杂的业务监控和问题诊断,通过大数据分析找到指标和事件之间的关联关系,进行因果关系推导,并最终定位故障,制定解决方案。使运维能够更加自动化、智能化地达成 保证服务高可用性的目标,即快速的问题发现、分析定位或止损。 本案采用企业级的开源分布式监控解决方案 Zabbix,并在该方案的基础上进行扩展,出现性能告警时不仅通过各种渠道进行通知,更可以通过定制 APP 进行进一步日志信息获取、方 案智能推荐和自动执行,达到远程智能处理的效果,实现智能运维
通过zabbix server与可选组件zabbix agent,zabbix server可以对SNMP,zabbix agent,ping,端口监视等方法提供对远程服务器/网络状态的监控,数据收集等功能。可以对包括:CPU负荷、内存使用、磁盘使用、网络状况、端口监视、日志监视等功能进行监控,同时也可以对vmware,java,数据库,weblogic等系统进行监控。
zabbix支持多种网络方式下的监控,可通过分布式的方式部署和安装监控代理
Server:即安装 zabbix 服务的服务器,是最核心的部份,支持多种操作系统,Zabbix Server 运行在主流 LAMP 环境下,资源要求较低。
Agent:即安装在被监控设备上的 zabbix 代理,被监控设备上的数据由代理收集后统一上传到服务器端由服务器端收集、整理并呈现。目前已有的 agent 基本支持市面常见的OS。
SNMP:为 agent 的一种,指支持 SNMP 协议的设备,通过设定 SNMP 的参数将相关监控数据传送至服务器端,支持各类常见的网络设备。
IPMI:Agent 的另一种方式,应用于设备的物理性能监控,如设备的温度、风扇的转速等
端到端的网络设施平台,高级故障和性能管理功能,管理WAN、VoIP、网络设备, 自动发现网络设备一系列包含设备配置的设备和接口模板
从支持NetFlow的设备直接导出NetFlow,详细了解网络中带宽使用情况
查看带宽使用图样,生成报表,无需部署硬件探针,节约成本
通过采用SNMP模板深入了解网络流量及其模式,实时掌握网络状况,以及流量如何影响网络总体健康状况
采用Zabbix-Agent代理方式监控服务器
监控服务器负载、磁盘利用率、进程、内存利用率、磁盘I/O、服务器CPU利用率等
监控各种WEB、VDI、AD、邮件等业务关键应用
通过监控Microsoft .NET、Oracl、JBoss、Tomcat、WebLogic、WebSphere和Nginx,保证应用服务器健康状况和可用性
监测和诊断应用服务器及其服务出现的问题,保证正常运行
监控包括Oracle、MS SQL和MySQL的异构数据库服务器环境
数据库管理员可以规划资源需求,及时排除故障
数据库大小、缓存大小、数据库连接时间标签,方便查看
本项目采用EMC VPLEX METRO解决方案,实现深圳RCCB老街和沙井(暂放在老街)两个机房容灾,结合实际情况本项目规划如下。
本次采购的VPLEX配置简要描述如下:
VNX5700和NS480存储使用VPLEX local架构,并且同时要支持NAS。结合客户实际的应用,并且满足VPLEX METRO双活的解决方案规划如下。
由于本次采购的VNX5700支持block和file,block采用的raid 5的方式建立raid group。
本项目中vplex版本为vs2,每台vplex有两个引擎每个引擎有两个控制器。每台主机配置了2张双口HBA卡用于连接VPLEX,每张卡使用一个端口,VPLEX的后端口用于连接VNX5700和NS480。所有VPLEX端口的使用如下表所示:
VPLEX的端口命名规则:E1A0F0代表引擎1的director A的A0模块的第0口
VNX5700的端口命名规则:SPB2代表StroageProccess B的FC第2口
Zone的命名规则:VPLEX1_E1B2F2_VNX5700A_SPB2代表VPLEX1的引擎1的director B的B2模块的2口到VNX5700B的StroageProccess B的第2光纤口的zone。
本项目使用的是两台DCX SAN交换机,vplex到一台dcx交换机需要24条光纤(8个FE,8个BE,8个Wan com)共计48条光纤。
由于本次采购两台DCX交换机(配置4*48口模块),替换原有两台DS5000B和DS5100B
交换机迁移完成后,为后期的的vplex实施需要增加vplex到存储的zone
主机到vplex的zone按照实际情况修改
Wan COM的zone
本项目采用迁移存储的的控制器端口的方式来实现,CX3-80具体过程概述如下:
在DCX交换机上建立对应的zone
检查CX3-80上存储控制器的健康状态
每个SP选择一个NAS使用的端口准备连接到DCX交换机
在主机上移除这两个端口对应的路径
确认主机和NS网关的状态正常
拔除SP端口上的旧光纤,使用新光纤连接到DCX交换机
在CX3-80注册vplex的BE端口
把vplex 加入要迁移的storage group
在vplex上扫描lun,封装lun
在vplex上注册主机的wwn并建立mask view
NS-480具体过程概述如下:
在DCX交换机上建立对应的zone
检查NS-480上存储控制器的健康状态
每个SP选择一个DataMove3使用的端口准备连接到DCX交换机
关闭DataMove3
确认主机和DataMove2的状态正常
拔除SP端口上的旧光纤,使用新光纤连接到DCX交换机
在NS-480注册vplex的BE端口
把vplex 加入要迁移的storage group
在vplex上扫描lun,封装lun
在vplex上注册主机的wwn并建立mask view
建立系统在NS-480和CX3-80上的lun信息,完成主机名、物理位置、光纤卡、WWN、在对应存储上的lun id 和大小信息的表格lun.xsl。
在vnx5700上根据lun.xsl的信息准备好对应的lun并增加lun.xsl的vnx的列。
在DCX上建立所有要迁移的主机到vplex的zone,并核对无误。
准备lun 封装的脚本并核对无误。
注:CX3-80也采用此方式迁移
VPLEX层面的离线数据转移方式将应用系统从传统的存储系统上转移到VPLEX环境中,在转移期间,应用系统需要停止运行,迁移步骤简述如下:
应用系统停止运行
存储系统回收应用系统使用的存储空间,然后将其分配给VPLEX
VPLEX将存储空间进行“封装”后分配给主机
恢复应用系统的运行
安装支持VPLEX的EMC ODM软件
# uncompress EMC.AIX.5.3.0.5.tar.Z
# tar -xvf EMC.AIX.5.3.0.5.tar
# installp -ac -gX -d . EMC.Invista.aix.rte
# installp -ac -gX -d . EMC.Invista.fcp.rte
# installp -ac -gX -d . EMC.Symmetrix.aix.rte ;如果已经安装,则忽略
# installp -ac -gX -d . EMC.Symmetrix.fcp.rte ;如果已经安装,则忽略
安装EMC PowerPath软件
如果主机没有安装PowerPath软件,请参照“PowerPath for AIX Installation and Administration Guide.pdf”,安装和配置PowerPath软件。
SAN Switch上增加主机与VPLEX前端端口之间的ZONE
在SAN Switch(DCX_A、DCX_B)上,创建主机HBA与VPLEX前端端口之间的ZONE。
VPLEX分配磁盘空间给主机
根据应用系统所使用的磁盘设备的数量和大小,在VPLEX上创建相应数量和大小的Distributed Device(由来自于VNX5700和NS480的磁盘设备组合成RAID 1类型),并且创建包含这些Distributed Device的Consistency Group,然后分配给主机。
主机识别和配置VPLEX磁盘设备
运行“/usr/lpp/EMC/INVISTA/bin/emc_cfgmgr –v”命令,识别和配置VPLEX磁盘设备
确认已经正确识别和配置VPLEX磁盘设备
# lsdev -Cc disk
...
hdisk2 Available 2V-08-01 EMC INVISTA FCP Disk
hdisk3 Available 2K-08-01 EMC INVISTA FCP Disk
运行“powermt config”命令,配置PowerPath设备,并且确认VPLEX磁盘设备的policy是Adaptive
在主机上将旧的磁盘设备清除,保留VPLEX磁盘设备
系统管理员将旧的存储系统磁盘设备清除,保留VPLEX磁盘设备
VPLEX层面的离线数据转移方式实施步骤简述
在VPLEX环境中,对后端存储系统的磁盘设备采用整盘封装的方式下,可以将应用系统完整的迁移到VPLEX环境中。
在主机上,停止应用系统的运行
在主机上,删除相应的后端存储系统的磁盘设备的映射关系
在主机上,安装支持VPLEX的EMC ODM软件
在后端存储系统上,取消主机对磁盘设备的访问
(可选)在SAN Switch上,删除主机HBA与后端存储系统前端之间的ZONE
在SAN Switch上,增加VPLEX后端端口与后端存储系统前端之间的ZONE
在SAN Switch上,增加主机HBA与VPLEX前端端口之间的ZONE
在后端存储系统上,赋予VPLEX对磁盘设备的访问
在VPLEX上,对后端存储系统的磁盘设备进行整盘封装,以及增加镜像的操作
在VPLEX上,将封装后的VPLEX磁盘设备分配给主机
在主机上,识别和配置VPLEX的磁盘设备
在主机上,启动应用系统
按照原来的cifs/nfs服务器设置,建立新的cifs/nfs服务器
使用Replicatior复制文件系统和iscsi
关机维护前做一次增量copy
umount旧nas系统
Mount 新nas到原来使用的目录
ISCSI数据迁移步骤(存储层面) 备用
在目标端建立容量一样的LUN,建立时设置为只读模式
主机initiator连接新存储
建立复制( 保证源端和目标端的文件系统有足够的空间FSmin
SizeofLun + SizeofSnapshots + SizeforTWS)
nas_replicate -create <name> -source -lun <lun number > -target <target name> -destination -lun <lun number > -target <target name> -interconnect <name> -source_interface ip=xxx.xxx.xxx.xxx -destination_interface ip=xxx.xxx.xxx.xxx -manual_refresh
例子
nas_replicate -create dm2_lun1-dm3_lun1 -source -lun 1 -target iqn.1992-05.com.emc:bb000c29c2de300000-3 -destination -lun 1 -target iqn.1992-05.com.emc:bb000c29c2de300000-4 -interconnect id=20003 -source_interface ip=192.168.137.40 -destination_interface ip=192.168.137.60 -manual_refresh
主机卸载旧ISCSI LUN
NS480停止ISCSI服务
VNX5700启动ISCSI服务,mask新ISCSI LUN给主机
主机验证ISCSI LUN
4.2.4.7数据迁移回退步骤简述
在客户环境中,VPLEX对后端存储系统的磁盘设备采用整盘封装的方式,因此,应用系统可以回退到传统的直接访问后端存储系统的磁盘设备的工作方式。由于之前的交换机和光纤线都还在使回退变得很容易。
主机删除相应的VPLEX的磁盘设备
VPLEX上删除相应的Storage View,取消主机对VPLEX磁盘设备的访问
(可选)在SAN Switch上删除主机HBA与VPLEX前端之间的ZONE
(可选)在SAN Switch上删除VPLEX后端与后端存储系统前端之间的ZONE
在后端存储系统上取消VPLEX对后端后端存储系统的磁盘设备的访问
把主机的原来使用的光纤线插回对应原来的交换机
在后端存储系统上分配磁盘设备给主机
主机识别后端存储系统的磁盘设备,启动应用系统
在VPLEX上,清除后端存储系统磁盘设备的配置信息
如果觉得我的文章对您有用,请点赞。您的支持将鼓励我继续创作!
赞23
添加新评论5 条评论
2021-07-17 09:01
2021-03-05 10:51
2020-02-09 09:15
2019-09-08 19:21
2019-08-29 10:07