相较于旧的存储架构,利用软件定义存储搭建的数据中心有哪些优势?又有哪些弊端?

相较于旧的存储架构,利用软件定义存储搭建的数据中心有哪些优势?又有哪些弊端?

6回答

张文正张文正  系统工程师 , 神州数码系统集成服务有限公司
wzpystcdc王磊磊黄呆毛等赞同了此回答
现在利旧整合也是一个趋势,那么多钱买的设备也不能浪费,利用软件定义存储可以对就的存储设备进行利用,但旧设备坏的可能性比较大点,可以存放一些非关键数据,充分考虑存储的冗余性,优势就是利旧,弊端设备陈旧,故障率偏高!...显示全部

现在利旧整合也是一个趋势,那么多钱买的设备也不能浪费,利用软件定义存储可以对就的存储设备进行利用,但旧设备坏的可能性比较大点,可以存放一些非关键数据,充分考虑存储的冗余性,优势就是利旧,弊端设备陈旧,故障率偏高!

收起
 2017-11-14
浏览1527
王磊磊 邀答
lzg21stlzg21st  存储工程师 , brcb
xijiehaiqing黄呆毛airstuky等赞同了此回答
首先我觉得这个论点非常正确,如同世间没有完美的事物,存储界也没有完美的方案,没有最好,只有更好!谈到SDS,实际上好多专家朋友们也给我们普及了,在SDS中,有两个显著的特点,一个是x86化,一个是分布式。开放的x86架构给我们硬件选择上带来了更大的灵活性,在性能调优方面客户的参与性也...显示全部

首先我觉得这个论点非常正确,如同世间没有完美的事物,存储界也没有完美的方案,没有最好,只有更好!
谈到SDS,实际上好多专家朋友们也给我们普及了,在SDS中,有两个显著的特点,一个是x86化,一个是分布式。开放的x86架构给我们硬件选择上带来了更大的灵活性,在性能调优方面客户的参与性也更强了,比如调优个内核参数,改变个数据放置策略,那么另一方面,对存储管理员的技术和综合能力要求也更高了,产品的稳定性,以及软件的升级策略,都需要我们更多的参与了,你会发现,硬件省下来的费用都分摊到运维人员身上了。
从技术来讲,分布式的scale out显然消除了传统集中架构scale up的硬件边界壁垒,容量和性能的扩展性更强了。传统存储的单点故障都是前端卡了、后端卡了、LCC card了,而到了分布式架构,单个节点(服务器)就是一个大的单点了,所以容错性更强了。另一方面,传统集中式存储在构建容灾时,需要专用的FC链路、FC交换机以及专业的存储复制软件,而分布式架构可以天然的实现跨站点的容灾。
所以,对于架构的选择,还是要看我们的需求是什么,痛点在哪里,对于新技术,不盲从,但要学,适时再转型!

收起
 2017-11-14
浏览1458
GaryyGaryy  系统工程师 , 某保险
xzbd000gossipyboy罗右阳等赞同了此回答
我这边用的比较多的是CEPH,基于此:Ceph作为一款十年历史的开源分布式产品,其稳定性、可用性确实得到业界的普遍认可。2014年我们基于Ceph给用户提供的一个管理系统,到目前为止仅出现了两次问题,其中一次是硬件问题,一次是使用方式不当的问题。作为一个开源产品,能够有如此高的稳...显示全部

我这边用的比较多的是CEPH,基于此:
Ceph作为一款十年历史的开源分布式产品,其稳定性、可用性确实得到业界的普遍认可。2014年我们基于Ceph给用户提供的一个管理系统,到目前为止仅出现了两次问题,其中一次是硬件问题,一次是使用方式不当的问题。作为一个开源产品,能够有如此高的稳定性和可用性,这应该就是Ceph能够获得今天的成绩的首要原因。

关于Ceph的优势,这里简单概括如下:

对各种异常考虑的比较完善, 比如网络抖动、去中心化的心跳机制、恢复机制对复杂异常的考虑;
很少因为代码问题导致程序coredump,也没有出现过内存泄漏问题,说明代码质量还是不错的;
高级功能比较全面,支持块、对象、文件,同时支持副本、EC、tier、scrub等高级特性
不过,好的的产品家家相似,不好的产品各各不同,所以今天,我重点和大家讲讲不好的。随着我们服务的企业客户的不断增加, Ceph真正应用于企业客户不同场景中所遇到的各种问题也逐步开始暴露。

采用Ceph替代传统SAN的烦恼
在2014年到2015年上半年的时候,杉岩利用Ceph主要给客户提供一些替代IP SAN的解决方案,客户希望利用Ceph的高扩展性、高可靠性提供一个相对规模较大,性价比较好的通用存储池,降低一些数据量较大、低价值数据的存储成本。这时,就遇到了各种问题:

不支持标准的块接口

Ceph称提供块接口,但其实它的块接口之支持Qemu-KVM,并不是一个传统的SCSI标准块接口,是无法直接应用于VMware、Windows和Solaris等系统的。这些系统对接的块存储都是类似于FC SAN或者IP SAN这种提供标准SCSI接口的设备。将Ceph推向这些传统的企业应用是无法实现对接的。

运维管理手段和工具缺乏

这个问题是Ceph目前直接应用于企业客户最大的问题,易用性和易维护性,SageWeil在今年也提出易用性是未来Ceph的重要改进方向。杉岩在应用与企业客户中遇到各种问题,然后不断完善产品,其中最典型的问题就是各种硬件备件的更换。

在使用传统存储时,当硬件部件出现问题时,企业的IT运维人员希望尽快更换配件,避免出现更加严重的问题,为此一些企业都有的备件库,当硬件配件出现问题时,运维人员通过更换配置做简单的操作就可以完成配件的更换。而如果直接使用Ceph,则可能要面临敲一堆的命令才能完成更换的操作,这是Ceph直接作为企业产品无法接受的。

无法实现数据卷的安全隔离需求

传统的企业存储是一个公共资源,上面运行着多种业务应用,为了防止不同业务应用读取或者破坏非自身业务应用的数据,传统企业存储通过LUN MASKING/CHAP 协议等,实现存储卷的安全隔离。

而Ceph设计用于云平台,所有的RBD对于云平台的每个主机都是可见可操作的,从而实现虚拟机在整个集群的迁移。所以需要一套在Ceph之上实现一套类似于LUN MASKING的机制,保证不同业务只能看到和访问分配给自己的存储卷。

混合盘性能无法发挥

另外,我们发现,目前在云数据中心,客户更多的还是采用SSD+HDD的混合模式,有部分对性能无要求的客户采用了纯HDD的模式,采用全SSD的客户目前还没有实际遇到(有部分客户做过测试)。

在SSD+HDD混合模式下,Ceph遇到的烦恼是对SSD写带宽消耗过大。大家都知道SSD性能很高,这是对于随机小IO来说,但SATA SSD的顺序写MBPS其实并不高,如下图是Intel DC S3520的顺序写性能,最大也就380MBPS。一个好一些的SAS盘,写带宽都可以到300MBPS,SATA盘至少也有150MBPS的性能。

一般来说客户的一个存储节点采用1-2个SSD作为缓存盘,对外提供的带宽其实也就300MBPS到600MBPS,而Ceph的journal + 两副本的方式,消耗了4倍写带宽,最终实际一个服务器能提供的写带宽只有75MBPS~150MPBS,远远小于多个机械盘的顺序写能力,严重制约着Ceph的顺序写性能。

Ceph应用在VMware超融合的烦恼
随着应用客户的不断增加,我们发现, Ceph主要的应用场景是虚拟化场景,占80%以上,其中VMware又占到了50%以上,而且应用VMware的大部分都是超融合环境。

而此时遇到的主要问题包括:

对更好的iSCSI并发能力的需求

在替代IP SAN模式下,不同应用主机之间一般使用LUN比较独立。可以通过LUN归属的方式,不同的LUN通过不同的单个iSCSI Target提供出来,即可实现较好的并发。

但在VMware环境下,一般只划分很少的LUN(一般1-2个大LUN),供整个VMWare集群共享使用。如果此时依然采用LUN归属的方式,单个iSCSI Target将成为整个集群的瓶颈点。

在这种场景下,iSCSI必须实现的是一个全Active的架构,保证LUN在所有的target上可以同时访问,从而保证任何一个iSCSI Target不会成为性能的瓶颈点。
必须支持VAAI
VMWare实现VAAI接口,在虚拟机批量创建、克隆,读写性能上影响非常大。比如在不支持VAAI的XCOPY时,SandStone跟FC SAN的克隆性能相差10倍。企业客户一对比,就觉得存储性能太差。在企业私有云环境,批量克隆虚拟机确实是一个常见的运维操作,过慢确实也影响到客户的使用效率。
CPU消耗过大严重影响性能发挥

Ceph的CPU消耗较高是众所周知的,当分离部署时这个问题还不明显,一旦应用于VMware超融合场景,问题就暴露的比较明显了。因为在超融合环境下,虚拟机需要占用大量的CPU资源,而CPU的核心在一定范围内价格是可控的,但超过一定核心数价格会变得非常高。下图是E5-2600系列CPU的核心数(逻辑核)与价格的对应曲线(价格数据取自中关村在线),一般客户主要选择2路E5-2650 – E5-2680的CPU,最大逻辑核心也就24个,往往能分配给存储的CPU基本只有8-12个逻辑核。

收起
 2017-11-14
浏览1370
王磊磊 邀答
ibmfuqiangibmfuqiang  系统架构师 , IBM
xijiehaiqinggossipyboy罗右阳等赞同了此回答
这里我只想简单分享二点:1,软件定义的是大势所趋当硬件介质的发展到了一定程度,数据存量已经不是问题,关键变成我们该怎么用这些数据,怎么用这些数据去做分析,怎么用这些数据去做一些人工智能、去更好地帮助客户优化业务等等。这时候,软件就越来越受到重视了。2,软件定义的优势首...显示全部

这里我只想简单分享二点:
1,软件定义的是大势所趋
当硬件介质的发展到了一定程度,数据存量已经不是问题,关键变成我们该怎么用这些数据,怎么用这些数据去做分析,怎么用这些数据去做一些人工智能、去更好地帮助客户优化业务等等。这时候,软件就越来越受到重视了。
2,软件定义的优势
首先,IBM SDS 的软件定义存储解决方案非常完整,包括接入、管理、调度三个方面。1) 我们有一个接入的软件功能来访问不同的存储介质,可以实现灵活的控制跟调度。2) 我们的软件功能也可以丰富存储管理功能。3) 就是调度,有了很多的数据,存在很好的介质,在你需要使用数据的时候,就需要很快把它调出。
其次,我们的存储解决方案经过了实际环境的验证,非常稳定,对于企业级的用户来说,使用起来更加可靠。

收起
 2017-11-14
浏览1376
wuwenpinwuwenpin  软件开发工程师 , 南京
黄呆毛gossipyboy罗右阳等赞同了此回答
老旧设备性能一般比最新设备要差呀。显示全部

老旧设备性能一般比最新设备要差呀。

收起
 2017-11-14
浏览1391
zhutuzhutu  存储工程师 , 龙存科技(北京)股份有限公司
gossipyboy罗右阳邓凡心等赞同了此回答
这块我觉得是三点:1、开放性:传统盘阵存储标准化程度低,组件的更换常常导致系统故障或者硬件的升级,这些组件通常是由制造商专门开发用于此系统,不能轻易的利用市场上通用部件。SDS通过通用化的组件来搭建系统,能同时使用各家的服务器。甚至于国产CPU的服务器也行;2、性价比方面...显示全部

这块我觉得是三点:
1、开放性:
传统盘阵存储标准化程度低,组件的更换常常导致系统故障或者硬件的升级,这些组件通常是由制造商专门开发用于此系统,不能轻易的利用市场上通用部件。SDS通过通用化的组件来搭建系统,能同时使用各家的服务器。甚至于国产CPU的服务器也行;
2、性价比方面:
传统存储造价昂贵,导致系统建设成本居高不下。硬件性能得不到充分发挥。SDS这块一般基于通用的X86架构,硬件成本相比会下降很多。
3、扩展性:
传统存储单点扩展存在容量上限和接口带宽等限制,面对PB级的海量存储需求,传统的SAN或NAS在容量和性能的扩展上无法满足。传统的扩展是通过Sale-up方式或者扩展NAS机头的方式,这样的扩展方式,存在容量的限制,并且扩展容量后性能无法随之增长。SDS这块通过扩展服务器,能方便的在线扩展并且性能也能随容量近线性的增长;

收起
 2017-11-14
浏览1374
王磊磊 邀答

提问者

适者生存IT顾问, 人工智能(计算机视觉)

超融合选型优先顺序调查

发表您的选型观点,参与即得50金币。

问题状态

  • 发布时间:2017-11-13
  • 关注会员:8 人
  • 问题浏览:4542
  • 最近回答:2017-11-14