对于:某证券公司IBM Spectrum Storage与FlashSystem存储融合加速方案:
http://www.aixchina.net/club/thread-175649-1-1.html
请问:gpfs是否多余,为何不是有gpfs复制来实现容灾?
gpfs位于整个解决方案的上层,由于在下一层,svc的esc已经解决了同城容灾的问题,故方案中gpfs就做了减法,仅提供统一命名空间管理、弹性增加性能和容量等功能。而gpfs原有的存储分层、容灾复制等等都不再使用了。gpfs集群文件系统本身就是一个非常良好的解决方案。
拿存储整合和分层来讲,svc本身已经做的非常好,并且可以做到提供更多的功能性,如rtc、easytier等等。这些基于svc实现的功能,比gpfs的性能更好。
但是在弹性存储方面,gpfs具备了无与伦比的优势。如单一命名空间的管理。还比如,当出现了性能问题,可以通过增加nsd server的方式线性的为整个存储继续提升性能。
最后,最有同城灾备,svc的esc已经在底层实现了同步复制。而gpfs已透明的方式接管了存储,对于gpfs来说,就是一个本地的存储系统一样管理。对应上层的应用和os来说,架构更为简单。
综上,gpfs是对基于svc虚拟化的有力补充,而svc esc同城灾备也简化了容灾。总体达到了高性能与高可靠性的有力结合。
收起gpfs对业务应用是有支撑要求的。譬如linux OS下的oracle RAC是不支持gpfs的,也就无法支持双活或者容灾。gpfs对IBM自身的产品支持的好,如DB2,websphere。从某种意义上说,gpfs 设计的架构需要gpfs的qutorum节点更能共享存储磁盘,达到Metadisk,datadisk仍至desc disk数据的共享。当然,gpfs提供了非共享存储磁盘下的各节点的NSD的形成的gpfs 文件系统。如果采用共享磁盘的方式,各gpfs的节点通过自己的IO通道写入或者读数据(直连共享盘的(DAS,NAS,SAN)或者非共享方式(只能通过以太网络)。
通过以太网络读写数据如NSD盘,要考虑应用和网络的瓶颈。
收起