在选择分布式存储上有没有人做过对比:Ceph vs. IBM的GPFS?

最近在调研分布式存储的解决方案,在做商用与开源的对比,大家谁对比过Ceph和IBM的GPFS吗?对比过的或者了解的兄弟,欢迎提供建议,谢谢先!显示全部

最近在调研分布式存储的解决方案,在做商用与开源的对比,大家谁对比过Ceph和IBM的GPFS吗?

对比过的或者了解的兄弟,欢迎提供建议,谢谢先!

收起
参与46

查看其它 6 个回答xjsunjie的回答

xjsunjiexjsunjie系统架构师CNPC

GPFS于1993年研发,1995年投入商用,适用于高性能计算和并行处理。之前都是共享存储,从3.5版本开始新增了FPO模式,采用Share Nothing架构,性能好历史悠久,支持AIX、LINUX、windows。CEPH从2010年加入LINUX版本,最初设计的RADOS是为其实现一个高性能的文件系统服务的,后来考虑支持块设备、对象存储,向云计算靠拢。但目前只支持linux,aix、windows的还需要开发才能支持。

一、从海量存储架构上看。GPFS通过将文件分布在多个节点和磁盘上,可以超越单一节点和单一文件系统的性能极限,支持PB级海量存储,目前使用模式多是多节点共享存储并行访问。CEPH是统一分布式存储系统,具有优异的性能、可靠性、可扩展性,其CRUSH算法去中心化,从客户端感知数据分布,另外还可以根据机架感知等来调整Crushmap,例如可以具体到某个磁盘,某个机器,某个机架,甚至是某个DC,这样就可以考虑到机房、机架、机器这样的存储层次,在每层设置不同的存储策略,从而达到较好的效果。只有在增加/删除设备时才需要改动存储层次,方便了数据管理和提高了效率。

二、从高性能上看。GPFS通过将I/O分布在多个硬盘提高性能,能够高效工作在1个节点到4000多个节点的集群环境中,还有就是很好的支持SSD盘和闪存阵列。Ceph最开始是为HDD设计的,没有充分考虑全SSD,甚至更先进的PCIe SSD和NVRAM的情况NVRAM。导致这些硬件的物理性能在Ceph中无法充分发挥出来,特别是延迟和IOPS,受比较大的影响。

三、从可靠性上看。在GPFS的环境中,某一节点的硬盘连接丢失,不会影响到其他的节点,GPFS使用RSCT的功能持续的监控不同文件模块的健康状态,当任一错误被检测到时,相应的恢复动作将自动执行。GPFS还提供了额外的日志和恢复功能,可以维持元数据的一致性。最大三副本,可支持节点的自动Failover。CEPH的rados采用强一致性设计,可容忍网络中断、掉电、服务器宕机、硬盘故障等,并进行自动修复,保证数据的可靠性和系统可用性。也是同样的三副本设计,支持节点的自动Failover。Monitors是Ceph的管家,维护着Ceph的全局状态。Monitors的功能和zookeeper类似,它们使用Quorum和Paxos算法去建立全局状态的共识。其OSDs可以进行自动修复,而且是并行修复。

四、从工业标准看。GPFS是商用的,经历大量生产环境和实践的检验,相对来说成熟稳定。CEPH是开源的,2010年加入到LINUX中,还未经历大量生产环境的检验和复杂业务场景的企业实践验证,还不够成熟完善。但总的来说,Ceph瑕不掩瑜,仍然是一个优秀,甚至出色的开源存储系统。

互联网服务 · 2015-11-03
浏览10362

回答者

xjsunjie
系统架构师CNPC
擅长领域: 存储云计算灾备

xjsunjie 最近回答过的问题

回答状态

  • 发布时间:2015-11-03
  • 关注会员:12 人
  • 回答浏览:10362
  • X社区推广