jxnxsdengyu
作者jxnxsdengyu2018-08-10 13:25
系统工程师, 江西农信

如何整合当前的存储系统,实现存储资源池化、云化转型?

字数 10588阅读 6768评论 1赞 7

一、前言

随着各行业业务的快速发展和新型业务的建设,面对互联网业务的冲击及敏态IT的建设需求,一方面企业业务所处的基础架构环境需要具备足够灵活的IT软硬件基础平台以提供对业务能力支撑,另一方面,企业快速增长的业务目标和IT基础设施发展也越来越不平衡,急剧上升的客户量、持续增长的日交易量、工作日高峰的并行压力、负载分析的响应时间要求等等,导致系统越来越不能满足日益增长的性能需求,这些性能需求首先反映在后端存储系统的响应上。因此如何整合当前IT基础架构中的存储系统,实现存储资源池化、云化转型,并进一步满足业务系统的高并发、低延时的性能需求,成了企业信息化的迫切需求。一是要借助FLASH闪存阵列来大幅提高生产系统性能,摆脱传统机械磁盘系统的物理限制,让数据的读写处理更加快速和高效;二是要利用先进的存储架构,实现不同性能的存储资源池间/多云存储池间在线无缝切换,大大增强生产系统存储资源调度的灵活性;三是要实现存储资源“质量分层”,根据业务系统的业务特性和需求,可灵活地选择不同性能或不同质量的存储作为后端服务存储,当前存储不满足性能需求时,可立即迁移至性能高的存储,并无缝切换,对上层业务系统无任何感知和影响。

但由于每家企业IT基础架构中的存储系统都有差异,或是涉及到了多种类型的存储产品,或是已经有部分已经实现了存储资源池化,或是原来的存储系统已经老旧,需要进行系统更换,等等。因此,要实现存储资源池化、云化转型,还需要根据各家企业的实情来进行分别对待,提出合理且有针对性的解决方案。

在本次组织的主题为:如何整合当前的存储系统,实现存储资源池化、云化转型?同行技术活动中,twt社区邀请了已经实现了存储资源池化、云化转型企业中的实践专家,以及大型银行中的存储技术专家和IBM存储技术专家,在线根据各家企业的实情,来了一场有的放矢的同行技术交流。活动中,来自多家金融机构的技术大拿和IBM原厂存储专家踊跃发言和解答问题,提出了许多宝贵和针对性的问题,为了更好、更方便的让大家了解到本次交流活动的干货内容,体验一下IBM新一代闪存阵列FS9100的速度与激情,在此我将本次活动的问题和解答进行了详细的总结,如有遗漏之处,还请见谅。


二、 存储如何实现数据迁移和整合,向资源池化和云化转型?

1、存储整合需考量的因素,可能带来的新问题和性能影响等等问题

【Q1】存储整合时所要考虑哪些因素?对任何现有业务的改造我觉得都不如新建来的容易。但很多时候又不得不硬着头皮去这样做。虽然衍生出了很多的产品和方案。但风险终究还是多了很多。对于现有的多套业务。多格不同时期,不同应用规格的存储。在整合时有哪些要考虑的因素呢?
aditowh 系统架构师 , ICBC

应结合不同的业务场景实施存储整合或者存储迁移,例如不可长时间停机的数据库数据,尽量通过数据库主备同步或者数据存量备份方式,直接实施数据迁移后的业务短暂切换即可;
对于虚拟机应用服务器迁移,负载均衡可实施类似灰度升级方式,业务低峰期停机或者在线迁移到新存储(前提是可共享挂载存储到宿主机);
数据整合评估时,需要多考虑存储性能要求(IOPS/读写延时)、横向扩展(容量需求)要求、IO路径的变化等,是否能满足迁移后的要求。

DK 存储工程师 , IBM

在整合的过程中,需要考虑各环节的兼容性;
考虑用于作为整合后的虚拟化管理节点自身的能力,包括性能功能等;
考虑虚拟化管理节点的横向或纵向兼容;考虑能够用于割接的窗口;
考虑厂家执行整合案例的经验案例。

【Q2】存储整合及集中之后,如何解决系统架构深度带来的IO延时问题?存储整合及集中之后,必然会导致系统架构深度加深,如何解决系统架构深度带来的IO延时问题?
aditowh 系统架构师 , ICBC

进行存储整合,需要实现了解清楚整合后业务的IOPS要求、延时要求,选择合适的后端存储再进行迁移;
降低IO延时,还是可以通过高端存储的动态分层技术、业务错峰规划部署、业务服务器应用层面IO整合,还可以引入性能更高的全闪盘集中式存储、分布式SSD群集等满足IO的延时要求;
并且还可通过引入高IO的网络设备、高速网卡、高速HBA卡,系统层面实现bond4扩充带宽等来满足性能要求。

邓毓 系统工程师 , 江西农信

不会,原因很简单,读还是和以前一样,直接读底层存储,加了层网关,并不会增加延时;
写和以前类似,之前的写是写底层存储缓存,存储双控间完成缓存同步后,返回主机完成写IO周期,加了层网关后,先写网关缓存,待存储网关双节点完成缓存同步后,返回主机完成写IO周期;
对比这两个过程,写延时也没见哪里增加了。所以该问题不存在的。

DK 存储工程师 , IBM

您提到的架构深度,可能是考虑到存储层之上增加了虚拟化引擎这一层级会不会导致io延时,您在用SVC或FS9100的时候,这两个产品本身所提供的写缓存能力和easy tier热点分层,或者是vdm镜像场景下的优先读机制,其实都是可以实现性能的加速的。

【Q3】存储资源池化对读写速度的影响?存储系统实现存储资源池化后,对读写速度有多大影响?是否会造成I/O瓶颈?
aditowh 系统架构师 , ICBC

存储资源池化,从最上层来看,目前的架构方案大部分的实现方案还是通过上层控制器就行IO终端的纳管,其实对于IO路径来说基本没有变化;
例如Openstack中对于FCSAN的纳管方案,是通过cinder纳管盘机驱动、纳管光纤交换机驱动,通过WWN进行划zone,对于纳管的每台物理机来说,只是纳管挂盘的方式通过控制器来实现,而物理机到盘机的路径没有实际变化,因此我们认为读写速度没有影响,只是要防范数据热点,因此要通过抽象出一定的盘机选择算法通过控制来实现,尽量避免数据热点和过多的IO争用。

邓毓 系统工程师 , 江西农信

存储资源池化跟单存储比较,并不影响读写速度,不会造成IO瓶颈,无非多了道物理到虚拟的转换而已,这种级别的转换效率是非常高的,与实际物理落盘和机械寻址相比,不是同一个级别的延时,几乎可忽略。
而单存储如有有IOPS的压力,通过LUN数据打散在多个存储中,反而还可以增加整体IOPS,对业务性能也是有所提升的。

刘文 系统工程师 , CMBC

我理解存储虚拟化不等于存储的池化,池化的重点在于存储管理和分配方式的变化。
存储池化决定了用什么形式去进行管理,是用cinder接口直接连接各类型存储,或者自己基于smis等协议开发的平台,这些对于业务是无感知的,不影响使用,自然也不影响读写速度。
至于用不用存储网关设备,比如通过SVC等网关设备间接管理,这个就依赖于管理水平了。。

2、如何实现存储整合,转向存储云化,资源池该如何划分,新老存储数据如何迁移与复用,集中式存储是否使用云化环境等问题

【Q1】存储池化的统一网关如何实现?在云环境下,越来越多的自主开发工具,云平台,是否还有SVC这种存储网关设备存在的必要,直接通过smis等协议开发,暴露api接口,直接调用,实现存储底层黑盒化,是否可行?
DK 存储工程师 , IBM

您这样做,其实就是通过定制开发去覆盖类似于虚拟网关的能力,并非不可以,但是,估计要考虑到以下三个方面:
一是这样做代价不一定更小,人力和时间的投入;
二是成熟度稳定性和商用专业设备的差别,毕竟类似产品是商业公司经历了较长的研发和实际使用产品更迭周期的;
三是不一定所有的存储都能提供合适的API,并且被调用。

邓毓 系统工程师 , 江西农信

通过更好的方式去调用吧,比如IBM自己的POWERVC,但前提是要有POWER。
用您所说的SMIS也并非不可,需要进行二次开发,像TPC和IBM的容灾切换工具,都是可以对接SVC的,就说明SVC也的确是有接口的,看IBMER愿不愿意和云平台合作,自己查资料弄得话,折腾折腾估计也行,就是得不到IBM认证,怕有后续的维保风险。
我们之前就实现了TSM调用脚本来实现SVC自动化进行卷的快照,从侧面反映这个对接难度其实不大的。

aditowh 系统架构师 , ICBC

如果不是研发性单位,建议还是采用成熟一点的管理工具平台,或者采用开源社区生态比较好的开源组件,如果选择自行开发,还是需要有原厂支持进行,管理平台的二次开发,对于API的理解还是有一定要求。
但对于存储产品来说,一般厂商开放的API还是比较少,而且市面上除了Openstack生态中有一部分比较老的API提供出来,接口还是相对较少。并且对于代码的健壮程度、兼容性,功能性测试可能也是个挑战。

【Q2】存储池化按什么原则进行存储池的划分?划分存储资源池的原则是什么,业务类型?应用场景?容灾级别?如何实现存储池的分级呢?有没有实现自动化管理的同行可以分享下成功经验?
aditowh 系统架构师 , ICBC

从经验来看,我认为应用场景和业务类型是划分存储池需要考虑的2个主要因素;举个栗子来说,was应用服务器基本可接受3s以内数据中断,ftp甚至可以忍受时间更长,但数据库业务或者ETCD的应用场景来看,忍受的数据中断要在ms级;我们在制定方案时,IO压力较低,平均IOPS再几十以下可以选择分布式sata存储;数据库重要的业务场景建议使用集中式存储;IOPS压力超过数百的建议采用分布式SSD存储;
存储池分级,本身FCSAN盘机已经有动态分成技术,对于热点数据可以通过增加SSD缓存层增加磁盘响应效率,而我们再此基础上要做的是通过管理平台进行好不同级别存储的管理,例如抽象出金银铜级存储,每个级别存储对接不同的后端存储,总之还是要划分逻辑存储池,抽象逻辑存储划分算法,通过控制平台实现管理

**【Q3】测试环境目前有多台旧存储(全部是15K sas盘),计划将其整合,并提升性能,有以下2个疑问:
1、使用全闪,或者混合存储(ssd+sas)的方式,两者性能差距能有多大?混合存储方式,感觉只要将oracle log这类高IO的数据放到ssd上,不会比全闪性能差多少
2、数据迁移,目前主流的架构,是否扔需要svc或者vplex这类设备的支持?还是说有其他更先进的方式?**
潘延晟 系统工程师 , 通化网航

个人觉得旧存储随着时间的推移。存在的不仅仅是性能问题。还有可靠性和稳定性的问题。
所以如果配合闪存形成混合存储,可以采用数据分层来提高效率。另外在条件允许的情况。还是过度一段时间后逐渐将旧存储脱离重要业务。逐步替换。保证存储的可靠性

aditowh 系统架构师 , ICBC

使用全闪存储,在SSD设备成本降低、稳定性越来越高的趋势下,以后会成为主流,全闪的IO延时一般可以在1ms以下,而且主要IOPS的能力会大幅提升,对于单盘质量非常好的SSD来看,IOPS会是sas盘的上百倍,组成群集后也会有数十倍的IOPS提升;选择存储类型,还是要根据业务场景来看,IO密集型,而且IOPS要求非常高、延时要求高的重要数据库业务场景下,建议选择稳定的全闪存储,消除存储性能带给业务的压力;
除了磁盘间的数据迁移外,对于跨平台或者异构,我们采用比较多的业务层面迁移,如Oracle数据库的TTS技术,其他数据库厂商也有自己的数据迁移方案可以采用

【Q4】如何不停机的把数据迁移过来?
邓毓 系统工程师 , 江西农信

之前没有接入存储虚拟化网关的,存在底层存储映射给存储网关,再映射给主机这样的过程转变,才能完成后面的数据迁移工作,映射改变的过程必然要停机。
如果不采用存储虚拟化网关的方式,不停机的话,能允许部分数据丢失也是可行的,比如新搭一套系统,利用备份、恢复、前滚的方式迁移数据也是可行的
不停机的方式,还可以用OS层的LVM镜像,待同步完成后,解除原存储的镜像即可。

DK 存储工程师 , IBM

不知道您这个问题是不是指的通过FS9100去实现异构存储的数据迁移,在已有FS9100等虚拟化设备的前提下,可以实现不停机的数据迁移,但是之前没有部署好FS9100的情况下,需要停机窗口。

刘文 系统工程师 , CMBC

如果已经有存储网关设备,一般都可以进行在线migration的任务。
如果没有网关设备,很多同品牌的存储间迁移都提供在线迁移的工具,可以咨询厂商工具。
操作系统层,通过lvm mirror、rsync等方式做数据层的同步,如果是GPFS等特殊文件系统的话,也支持从工具层的迁移。

【Q5】集中存储在云化环境中的未来如何?分布式存储会在云环境中大行其道吧,已经开始试水ceph了,无论从接口耦合,自动化分配,云环境的存储管理来说,分布式存储的优势尽显,云环境中集中存储有非存在不可的可能吗?
aditowh 系统架构师 , ICBC

从分布式存储提供的基本功能来看与集中式存储并无大的区别,但是从稳定性、IO路径、性能要求来看的话,集中式存储还是有一定的应用场景。
例如IO密集型的应用会要求较高的IOPS,虽说通过SSD群集可以解决IOPS,但是从实现架构的原理来看,分布式存储的稳定性易受到单节点网络因素或者单盘亚健康因素的影响,因此对于IO稳定性要求高的业务场景下,尽量还是采用集中式存储。

邓毓 系统工程师 , 江西农信

分布式存储归根到底,性能相对集中式存储来说,肯定是比不上的,尤其是闪存大行其道的时代,一代要比一代强,从SATA接口的SSD到SAS,再到NVMe接口,IO响应时间已经缩短到了us级别,对响应时间要求严格的数据库起码不怎么会选择分布式存储,云环境下也是同样,集中式存储如果开放了API接口,或者通过间接的方式对接云平台,也是可以适用云环境的。没有谁替代谁的关系,看业务的要求。

看了大神的回答,突然想再接一个问题,那超融合的未来呢。现在或未来是不是集中存储和分布式相互靠拢的过程?
aditowh 系统架构师 , ICBC

超融合,我认为也是针对一定业务场景出现的,也不是适用于所有场景,超融合理论上所有的支持分布式架构的应用都可以承载,但如果对于运维要求比较高的单位,会有一定不便性,例如节点维护时,需要同时考虑到计算和存储的停机时间;
但对于机房环境紧张而且停机敏感性没那么高的企业还是可以尝试推行。 
集中式和分布式存储,以后也是根据应用场景来的,根据定位的业务特性进行不同平台的选择,借用邓老师一句话,没有谁代替谁的,只能是谁更适合,结合性能、扩展、各种成本。

三、全新闪存阵列FS9100如何兼性能与内涵为一体?

为了帮助企业用户有效解决存储虚拟化、整合、数据迁移、云间数据迁移和复用等问题,同时提供更快速的IO响应时间,和AI技术在存储管理上的运用,IBM推出了一块新的闪存阵列---FS9100,下面关于它的问题也很多。

1、FS9100功能、性能介绍

【Q1】FS9100的特色功能:专有硬件压缩、重删和Storage Insight对企业的实际帮助,以及重删、压缩可能带来的影响?
DK 存储工程师 , IBM

硬件压缩和重删可以提高存储效率,减少存储空间和链路的占用,降低写放大效应。开启storage insight可以帮助客户利用ibm的AI技术实现云端的存储健康监控。

【Q2】FS9100的Spectrum Virtualize 的功能与独立的“Spectrum Virtualize”或者V9000中的Virtualize功能的区别?以及FS9100和V9000的定位区别
DK 存储工程师 , IBM

FS9100的外部虚拟化功能和V9000的外部虚拟化功能没有区别。FS9100具备更高的响应能力,具备NVMe前后端能力,具备重复数据删除和数据压缩等提高效能的功能。
FS9100作为存储阵列可以被V9000虚拟化。

【Q3】F9100是否具备存储虚拟化网关的功能?F9100有存储网关呢功能吗?能在后端挂载其他型号的旧存储吗?F9100能够将旧存储的数据在线迁移过来吗?还是需要配合svc使用?
邓毓 系统工程师 , 江西农信

F9100自带SVC也就是Spectrum Virtualize+闪存阵列,能够兼容大部分存储设备
将旧存储映射给FS9100的Spectrum Virtualize后,建立虚拟的vdisk,再通过Vdisk mirror镜像给闪存的mdisk,待镜像同步完成,将闪存的mdisk置为主拷贝,验证无误后,再删除原来旧存储的mdisk即可。
整个过程只存在一个业务中断点,就是旧存储的映射转变的时候。

DK 存储工程师 , IBM

是的,具备存储虚拟化功能。后端能挂载符合兼容要求的旧的san存储。能实现新旧存储的数据迁移。不需要额外配合svc。

【Q4】FS9100的数据保护机制有哪些?FS9100ssd采用了那些技术来保护数据的完整性呢。除了传统的RAID。对于固态硬盘本身。还有其他的技术来保证存储芯片出现坏块时候不会导致正快盘的数据丢失呢?
张文正 系统工程师 , 神州数码系统集成服务有限公司

IBM FlashSystem V9000 提供 RAID-5 数据保护,而 FlashSystem 9100 则提供 DRAID-6,可以防止由于第二个 SSD 或 FCM 发生故障而造成数据损失。

邓毓 系统工程师 , 江西农信

FS9100采用了双重RAID保护,首先是多NVMe接口的FCM SDD模块间的RAID保护;
其次是单FCM SDD模块内部多芯片间的RAID保护,单/芯片故障,甚至不会对FCM SDD模块造成数据丢失风险,倘若运气好,坏了多个芯片,这个SDD模块还是继续工作。
如果整个模块完全故障了,还有其他模块的RAID数据保护。

【Q5】FS9100的SSD介质的磨损平衡机制和写放大减少机制的介绍,与同类产品的区别?
DK 存储工程师 , IBM

IBM能够监控每个闪存单元的健康状况。这非常重要,因为随着闪存的老化,性能会受到影响。由于IBM监控每个闪存单元,因此我们可以保障在产品的整个生命周期内性能保持一致。 
同时,类似热度的数据尽量写到一起,特定page就会分散到不同的block上去,写放大效应降低。同时,硬件压缩由于写入的数据有效降低可以同时降低写放大的效应。

【Q6】FS9100的数据快速复用,说的是数据的备份和快速还原吗?数据的快速复用,说的是9100自动数据备份和快速还原的功能吗?
DK 存储工程师 , IBM

数据的快速复用,从单一的产品角度来看,能体现的是快照的使用,或者数据的云分层,或tier至对象存储用于复用;
跨产品来看,利用copy data management或同云的对接,都是在生产存储层级的复用。

2、FS9100如何实现多云间数据挪移和复用的问题

【Q1】FS9100闪存阵列如何帮助企业实现多云间数据挪移?
DK 存储工程师 , IBM

比如,如果您是私有云之间,基于Spectrum Virtualization虚拟化能力,实现不同的部署了Spectrum Virtualization的存储池之间的数据迁移;
私有云和公有云之间,可以通过TCT实现快照从本地私有云到公有云端。

**【Q2】关于IBM FlashSystem 9100系统的智能支持?
IBM FlashSystem 9100系统的智能支持体现在哪些方面?能否举例说明。**
DK 存储工程师 , IBM

FS9100可以启用经过AI加持的存储智能分析软件storage insight,在云端对存储性能和健康状况实现监控管理,利用AI能力实现数据智能分层,优化数据中心存储空间分布,提高存储性能,降低数据迁移带来的影响。
通过FS9100对接公有云,是否可以实现关键数据存储的本地与公有云双活?

DK 存储工程师 , IBM

FS9100对接公有云,是通过将数据快照Tier到公有云上,主要的场景在数据的复用或多层级保护。双活架构需要考虑接口/io/延时等很多问题,目前还没有涉及本地和公有云之间的双活。

通过什么接口到公有云?
DK 存储工程师 , IBM

FS9100自带TCT(Transparent Cloud Tiering )功能,可以将快照tier到云上,通过s3接口。

a520520168 系统工程师 , 索菲亚

我觉得这个已经跟存储无关了,这个应该取决于带宽。就算最普通的存储相信在现有带宽的情况下都是OK的。

3、闪存接口对闪存阵列的性能提升问题

【Q1】闪存接口对闪存性能的提升究竟有多少?以及FS9100闪存阵列中FCM、SSD、NVMe等名词间的关联?
DK 存储工程师 , IBM

闪存盘采用NVMe接口相较于SATA接口,对闪存性能的提升在已测试的范例中可以看到3.8-4.3倍。
fcm是ibm特有的pcie接口的高性能闪存模块,模块内部具备硬件加速通道;SSD是通常所指的固态硬盘,不一定都有nvme能力;nvme是接口协议,实现主机端软件通过pcie接口同存储进行通信,绕过os内核,提高中断效率。同时可以充分利用cpu的多核技术,实现高队列并发,高队列深度。
FS9100支持NVMe FCM和NVMe SSD 两种介质,区别在哪,企业如何选择或者混合配比?

DK 存储工程师 , IBM

FCM是ibm特有的pcie接口的高性能闪存模块,模块内部具备硬件加速通道,具有硬件压缩能力,具备超低的响应延时;NVMe SSD是具有NVMe接口能力的SSD盘。

4、FS9100的使用和维护问题

**【Q1】关于FS9100存储管理与维护的一些问题?关于ibm 9100我关注以下几个问题,请帮忙解答一下:
1、在上生产后控制器微码升级,如何进行(安全性考虑)?
2、各个控制之间工作模式(A、B)? 光模口支持多少GB?
3、掉电后控制器的缓存数据需要多少分钟写入磁盘?
4、阵列盘,是热备盘?还是热备空间?坏盘后,插入新盘raid重组需要多久?**
DK 存储工程师 , IBM

1 升级前可将相关日志提供给800后台帮忙查看是否目前状态适合进行升级;也可以利用相关tool实现环境监控检查;控制器是在线升级,先升级其中一个控制器,完成之后,再升级另一个;
2 控制器之间是A-A模式,光模块16GB;
3 掉电后电池的机制是保障缓存数据完全写入磁盘之后没电,缓存数据量大小不同时长不同。
4 可以采用热备盘的TRAID模式,也可以采用热备空间DRAID模式。raid重组时间取决于盘的大小和block size,draid的重构时间会远低于传统raid。
存储并行使用?新的FS9100肯定在性能和功能上都是目前最高的存储之一,但如何跟企业内部已有存储更好的结合使用?

DK 存储工程师 , IBM

对于已有存储,FS9100的虚拟化功能能够帮助实现利旧,您企业内部原有的存储被FS9100接管以后,可以继续保存即有的数据,或者将数据迁移,空间腾挪至其他使用。
FS9100在性能和功能上都可以做帮助原有存储实现拓展,使用方式非常灵活,比如,可以实现跨阵列的热点数据分层,可以实现跨阵列快照,可以做vdm镜像,都是整合使用的方式。

刘文 系统工程师 , CMBC

使用自带的虚拟存储网关功能,easy tier等热点数据分层技术,新旧存储同时纳管,可以实现数据的自动分层,加速数据数字。
使用FS9100作为在线存储,后台定期归档和存储数据到旧存储上。
应用层做数据分层,在线数据和历史数据分离,主要可以同时用两种存储,对性能要求高的数据或者库,放在FS9100上,要求低的数据放在旧存储上。

【Q2】IBM FlashSystem 9100系统与现有系统并行运行?如何实现IBM FlashSystem 9100系统与现有系统并行运行,确保原有系统(在线)数据零延时迁移。
邓毓 系统工程师 , 江西农信

那只能用OS层的LVM镜像或者MIGRATE PV了
主机同时识别FS9100和原存储,扩展到同一个VG,再LVM镜像同步,待同步完成,解除原存储PV。
用OS层的MIGRATE PV(AIX),两个存储盘扩展到统一个VG,再逐个盘数据迁移,迁移完成后,从VG中剔除原存储盘。

【Q3】IBM FlashSystem 9100系统,是带虚拟化功能的硬件存储,我如果要上的话,还需要配服务器吗?如果我要上一套虚拟化系统,使用咱的IBM FlashSystem 9100系统,那都需要上哪些硬件,只需要上硬件存储就可以吗?还是需要带服务器的?虚拟化功能,是IBM自带的虚拟化系统吗?
DK 存储工程师 , IBM

Flashsystem9100可以配置存储虚拟化功能,通过FS9100就可以实现对异构存储(满足兼容性要求的产品)的接管。虚拟化功能按需配置。

邓毓 系统工程师 , 江西农信

FS9100自带存储虚拟化,不是OS的虚拟化,如果要使用FS9100存储的话,当然还需要配服务器。

【Q4】svc的功能是否已经内嵌到FS9100里面啦?另外FS9100实施上是否和svc类似?
DK 存储工程师 , IBM

是的,SVC的软件功能已经内嵌至FS9100。就实施而言,在配置了相应的许可的情况下,如果您希望将其作为虚拟化引擎使用就和svc实施过程类似,如果您希望作为集中存储阵列就按照SAN存储的配置方式。

邓毓 系统工程师 , 江西农信

类似的,就像V9000那样。。。只不过这次更高级了,有了AI智能分析引擎,有了NVMe接口,有了更高级的重删和压缩。

活动中,各金融企业专家、IBM原厂存储专家都积极踊跃提问,纷纷给出了自己对存储整合、数据迁移、存储云间数据复用的问题、见解和看法,尤其是对于IBM的全新闪存阵列FS9100也都保持着尝鲜的态度,打量着是否满足自身企业实际的业务需求,也抛出了集中式存储在云化转型中是否合适的话题等等,总之,本次活动较为圆满的结束,希望本次活动总结没有什么遗漏,也再次感谢各位专家的捧场和答疑解惑,特别感谢【DK 存储工程师 , IBM】,【刘文 系统工程师 , CMBC】,【aditowh 系统架构师 , ICBC】等三位大神的精彩解答。

如果觉得我的文章对您有用,请点赞。您的支持将鼓励我继续创作!

7

添加新评论1 条评论

wuwenpinwuwenpin软件开发工程师, 南京
2018-08-10 19:59
谢谢分享,学习一下
Ctrl+Enter 发表

本文隶属于专栏

活动总结
活动总结是社区交流活动内容的总结及延伸,为大家提供了社区专家们丰富且高水平的理论知识、实践经验以及常见问题的最佳解决方法,非常值得大家收藏学习。

作者其他文章

相关文章

相关问题

相关资料

X社区推广