haizdl
作者haizdl2021-11-23 15:10
技术经理, 大连

分布式存储资源池项目建设规划在线辅导总结

字数 10799阅读 2627评论 0赞 0

摘要:

随着互联网业务迅猛的发展,企业的数据规模呈指数级上升,在现在的云计算时代,海量数据使存储的性价比有所降低。人工智能、大数据、云计算等新兴技术奠定了大规模分布式存储的应用前提。和传统存储相比,分布式存储更可靠,能够统一管理,具有可扩展性,系统容量大,可以通过横向的扩展去提升其单机性能。

分布式存储是将数据分散存储于网络中的多个数据节点上,其元数据库中的元数据实时更新,并存放于所有参与记录的区块链网络节点中,形成一个大规模的存储资源池。在分布式存储方式下,可实现超大集群规模的部署。每一个存储节点都可以提供独立的性能支撑,在高并发的数据处理中,可以实现更高的存储性能,有效解决海量数据高扩展和高性能的存储需求。分布式存储通过将数据统一存放在云存储资源池中,利用存储管理系统,可根据用户指令实现数据的调动与共享。另一方面,存储系统内置数据治理,数据分析等与数据强相关的数据应用系统,可实现便捷的数据处理,并将处理好的完整数据对接到大数据平台实现大数据的分析与应用,实现数据价值的挖掘。由于分布式存储采用了去中心化设计,所有存储节点都可以承载业务系统,在遭遇故障时,系统多节点并发恢复,可以大幅缩短故障窗口,这些基础特性都进一步提升了系统的可靠性。

鉴于分布式存储具备的以上优势,企业向分布式存储架构转型,建设分布式存储资源池已经成为趋势,而如何建设分布式存储资源池则需要企业实际需求进行综合考虑。为了能更好的帮助架构师、运维工程师们解决这方面的困难,社区特别邀请了江西农信、前海财险架构师、北京现代、晋城商行、江西裕民银行、江苏金农、本钢矿业、中国民生银行信用卡中心、中国银行等企业的同行,同时也特别邀请了SmartX和Xsky的专家们一同参与交流分享。本期大家的交流重点围绕四部分进行重点探讨:

1、分布式存储的应用趋势及必要性
2、分布式存储资源池硬件架构规划;
3、分布式存储资源池网络架构规划;
4、分布式存储资源池容灾规划 。

希望给同行们在分布式存储资源池项目建设规划上提供一定的参考和帮助。本期的更多交流内容可以点击查看:https://www.talkwithtrend.com/Activity/index/op/question/id/1807

目前分布式存储是否适用大多数行业和应用?

随着X86性能的提升和万兆 10万兆网络的发展,分布式存储的瓶颈似乎也越来越少,除了特殊行业如金融等对IO有特殊要求的行业。分布式存储是否适用在大多数行业和应用中呢?以我目前接触过两个例子来说。一个用的超融合运行大数据分析业务,另一个用的Vsan运行虚拟化,上面分布数据库,中间件等,由于业务没有那么大的压力。所以目前看分布式存储是可以胜任这样的环境的。在实际更多的行业中,还有那些除了对IO有很高要求的行业以外,不适用分布式存储的应用呢?

嘉宾观点:

刘东 it技术咨询顾问 , 东软集团

首先,随着X86服务器性能的提高,10GE/100GE网络的性能提升、固态硬盘的普及和大容量硬盘的出现,分布式存储确实越来越突显出其优势,性价比高,规模化部署成本低,性能线性增长,这些特性让越来越多的行业正在将业务更多的部署在分布式存储上。从前几年的试探性部署,到现在的规模化部署,分布式存储的市场增长率,在大容量存储市场,已经显著的超过了传统架构的集中式存储。

其次,我们需要看到,各个行业虽然都在大规模的部署分布式存储,但是传统的集中架构式存储仍有市场空间,目前据我了解,还没有任何一个行业的存储市场完全被分布式存储替代,仍然是混合架构,而非专有架构。

最后,我们从两个不同的行业进行分析,看一下具体的应用场景。

1、医疗行业,最适合分布式存储部署的场景就是PACS文件系统,这类系统的应用特点是对文件存储有大容量的存储需求,同时又要求高性能。平均每个大型医院每年的数据增长量有几十TB,所以传统集中存储架构已经不适合这种大规模的数据量增长需求。最不适合分布式存储部署的是核心HIS系统,这类系统数据量不大,通常只有最多只有几个TB,每年数据增长几十GB,但是对I/O非常敏感,而且涉及到财务,对数据一致性要求也比较高, 不太适用分布式存储。

2、政府行业,最 适合分布式存储部署的场景是大数据平台、电子公文系统等,类似公文这类系统通常需要存储大量的邮件附件等文件,对数据量要求比较高,但是性能要求一般,使用大容量低成本硬盘组件分布式存储是非常合适的,不但可以降低政府部门投资,灵活的扩展能力也可以将系统投资按年进行扩容,合理分配预算。最不适合的是电子政务的数据库系统,通常这类系统存储民生等关键业务数据,特别是在做全国数据集中核算过程中,对I/O和数据一致性要求都比较高,不太适用分布式存储架构。

赵海 技术经理

首先,分布式存储这个概念不是一个唯一的产品,很多产品都可以归为分布式存储的范畴。例如有分布式对象存储,分布式文件系统存储。不同的产品由于其数据存取及组织方式的差异,必然有自己最适合和擅长的场景,当然也会存在自己的短板。

所以,分析分布式存储适合什么样的行业和应用,如能聚焦到某一类产品上来,会更有针对性。再有我们分析这个产品适不适合这个行业和应用,需要从应用所处的场景特点来分析。

就通用分析而言,无论是分布式对象还是分布式文件系统类的产品,目前应用的大多数场景还是企业的一些非结构化及半结构化的数据存储及分析场景。一方面是数据量级的问题,另外一方面是数据本身的结构特点,再有一个就是扩展性的问题。但是对于传统的关系型数据库类的应用,由于其数据量级、数据并发控制的严格性以及稳定性等方面要求,大多数还是在传统集中式存储上。对于一些分析类的应用,由于互联网的融入,数据特点及量级方面都有了质的变化,因此大家都是根据具体应用特点采用NOSQL+分布式存储+定向开发等形成一套具有自己独特应用特点的数据中后台。

潘延晟 系统工程师

目前看这两种架构的应用的确是具有一定的特征性。分布式存储倾向于非结构化数据,海量数据,可扩展。而传统的san存储更加倾向应用在数据库等核心结构化数据业务中,高iops,稳定。

好像很多行业信息化发展到一定规模时也都可以清晰的划分出这两种类型的数据来对应相应的存储方式。不过对于一些中小企业,我觉得有些尴尬,对于这样的企业来说。结构化和非结构化数据都有。但又都没有达到一定体量,从技术也好,资金投入也好,可能都没办法选择两套存储架构。最后只能不得不纠结的选择一套架构。以我目前接触的一个例子来说,最后选择了超融合,相比传统的san架构可能在使用上更简便一些。不过下面一位大神的回复也的确让我深有体会。

1 “软件定义的分布式存储”在可用容量单价方面相比传统存储贵太多了:看着三副本选项后容量的缩减,简直是在割肉一样,即便是纠删码,这种容量的损耗还是比raid5+热备要高。

2 “软件定义的分布式存储”在可用容量单价方面相比传统存储贵太多了 :传统的san存储和x86的架构相互都是独立的。虽然连接维护要复杂有些,但好在结构清晰,只要对整体架构了解了。线路标识清晰,就好维护,但超融合和分布式存储这玩意高度整合,用起来是很方便,但一旦出问题的时候也的确难找到头绪,真是轻易不出问题。一出问题就找不到问题。

在我的实际使用感受中上述两点算是分布式存储让我觉得硬伤的地方,其他在应用方面,因为业务体量没有那么大,处理的数据也没有那么多。另外业务在应用上的效率也并不完全靠硬件拉起来的,好的程序和数据库优化也可以弥补一部分硬件的不足。 所以还很难对比出传统san存储和分布式存储性能上的差异。

penguinhe 项目经理 , 成方金融信息技术服务有限公司

分布式存储应用在应用服务器、中间件服务器等对IO没有极致要求和高可用方面有较高要求的分区上,结合应用、中间件和系统层面自身的双活及高可用设计,基本可以满足需求。

whistwu 解决方案经理 , SmartX

我的答案是肯定的,分布式存储将适用大多数行业和应用。 在此之前,我们来了解大多数行业和应用对存储的诉求是什么?

刚开始的时候,我们只需要一个能存储数据文件的设备,随着数据量越来越多,应用越来越多,我们需要更大空间的存储,而且大家能共享使用,不会造成资源浪费,这时通过光纤网络共享的SAN存储满足了需求;同时,SAN存储的快速发展还受益于IOE的架构体系,这中间的“O”就是数据库体系,因为数据库对IO性能的要求苛刻,SAN存储的IO性能和响应时间能够满足要求。
因此“高性能”是大多数行业对存储的诉求之一,同时也是对分布式存储的诉求。
刚开始的时候,因为分布式架构和产品成熟的因素,性能确实是考验分布式存储的一个难关,记得2017年中国移动组织了第一次分布式存储集采,结果包括华为在内的17家送测厂商无一例外失败了,其中最主要的原因就是性能不达标。

行业里第一个想到的办法是超融合,计算虚拟化+分布式存储融合在一起,将数据更加靠近计算,没有存储网络的延迟影响,能发挥设备的极致性能。有意思的是IDC报告里把HCI超融合和分布式块存储的市场放在一起来统计,是有一些道理的,因为超融合主要面对的是生产核心系统的领域,而这正好也是分布式块存储的目标市场之一。但是企业里还是有很多应用没有用虚拟机的,这部分怎么办呢,所以存算分离的场景是分布式存储重点的方向之一。

影响分布式存储性能有很多方面,最重要的主要是两点,介质和传输网络,对于分布式存储系统来说,介质可以选择高性能的全闪磁盘,甚至全NVMe的SSD磁盘,能达到较高的IO性能,对于网络来说,分布式存储选用iSCSI连接方式比较多,但我们知道,iSCSI作为存储接口使用走的是TCP/IP网络,TCP/IP网络为非无损网络,意味着一旦有丢包,存储性能会下降非常快,最新的方式是采用NVMe-oF作为传输协议,通过NVMe over Fabric实现NVMe标准在PCIe总线上的扩展,以此来挑战SCSI在SAN中的统治地位,同时这也非常适合分布式存储架构,NVMe-oF配合RoCE v2,能够使得分布式存储的响应时间达到了微秒级别。

其次,需要企业对存储的另一诉求是“可靠性”。

传统的SAN存储可靠性主要是采用了部件冗余和RAID技术,因为系统的工业化集成程度高,耦合性好,所以故障报修的问题少,而现在的分布式存储中,更多的考虑是通用型号的X86服务器设备作为平台,适用性较好,通过纠删码和副本技术来保护数据不会因为硬件故障而丢失,同时,考虑冗余的角度变成了防止硬盘故障、节点故障、网络故障和集群故障等,用通俗的话来说,一个是按法拉利F1方程式来设计的,一个是按方便实用特斯拉电动车型设计的,当然这里说的是高端的磁盘阵列,普通的双控传统存储可能还远远达不到F1方程式级别。 从企业应用角度还要考察的第三项是“稳定性”。

正常情况下,分布式存储平稳运行是基础,需要考虑的系统是出现问题的时候,处在非健康状态下是否也能平稳运行,比如磁盘故障恢复时、部分节点故障后、网络亚健康时、存储容量达到80%的时候,这都是考验各分布式厂商技术功底,特别是在数据库环境下,更考验分布式存储厂商是否有长时间的技术积累,相信随着技术发展和分布式存储软件的迭代,分布式存储的稳定性会更好。

如果阅读中国IDC2021年上半年的报告,你会发现分布式存储和超融合已经不声不响的占了快一半的市场份额,比去年同期还高了5.8%,从市场表现上来看未来的分布式存储毫无疑问是适用大多数行业和应用的。

荣重实 技术总监 , XSKY

依照IDC的中国市场分析,分布式存储在国内占比已经超过40%,可以说是普适了大量的行业和场景;

从场景看:

1、私有云和混合云,本身就是分布式存储的主战场,在各个行业内广泛采用,其中政府、互联网、金融、运营商、教育、医疗等等行业已经稳定运行多年。

2、各种类型影像类统,比如金融的ECM和双录,医疗的PACS和病理分析,高科的基因和电镜及AI,制造业的封测和MES,教育的精品课录播,自动驾驶的大量分析类数据,交通的卡口、ETC信息

3、大规模监控云,如政府和运营商的各类视频收集平台

4、海量的备份归档数据

5、两地三中心容灾

分布式比较难适配的场景, 除了对IO延迟及其敏感的场景,其他场景几乎都涉及了分布式存储,近期很多金融机构已经开始尝试利用国产化硬件配合全闪介质进行跑批测试,简单的说就是客户对于双模架构的理解已经非常深刻,不会盲目的进行站队,而是在充分理解自己应用和IO模型的情况下,选择最适合自己的数据存放方法;

随着SSD和网络技术的继续发展,我们有理由推断,分布式存储在市场中占有的场景和行业会继续增加,慢慢成为主流的数据存放方式,结合数据湖以及数据流动的概念,更快更稳定更长久的保存数据,充分发挥数据本身的价值。

[哪些应用场景是传统存储不能满足而必须借助分布存储来实现的?]

分布式存储的日常维护要注意哪些,如开关机,更换节点等操作时有那些明确的禁忌操作呢?

嘉宾观点:

荣重实 技术总监 , Xsky

分布式存储,如果产品化做的还好,那么在日常使用上,与传统存储差异不大,但是重点需要关注网络的稳定性,分布式架构中,节点之间的通讯尤为重要;但是开源的和产品化不够好的产品,在运维需要投入较大的力量,一方面是图形化UI不够完善,大量配置管理工作需要在CLI命令行执行,另一方面是功能不够完善,达不到传统存储的使用效果;综合看一款合格的产品是不会增加运维成本的,在某些方面还能减轻工作量。

分布式存储替换传统存储的驱动动力是什么?

对于传统行业或者数据规模不是很大的环境,是否有将存储架构变更为分布式的必要?对于系统稳定性、可靠性、扩展性及经济效益有改善或者提升。

嘉宾观点:

笑笑 系统工程师 , 财险

如果是传统行业或者数据量不大,其实真没必要换。一来稳定性你需要去验证,那是生产环境,如果出现了问题,这个责任谁承担。二来新的技术栈你是愿意花时间去学习和钻研。如果这两者你觉得都没问题,再加上公司有这方面的预算,大可以上上分布式,试试看。先从测试环境开始。

whistwu 解决方案经理 , SmartX

从IDC2021年1H的报告里可以显示出,SDS正逐步替代传统的存储,传统存储只占了50%左右,另外很大一部分是被HCI超融合和SDS分布式吃掉了,这也是符合行业发展的趋势,简单方便,易维护,更智能。

原来传统存储面临着专业控制器、纵向扩展、产品更新慢、维护复杂和成本高的问题,这都是客户选择SDS存储替换传统存储的动力。 随着SSD,RDMA,NVMe等等硬件技术栈的发展,SDS存储已经不仅是可有可无的产品了,而是真正意义上的替换老旧的传统存储,可以从几个方面上来看:

  1. 存储介质上采用全闪SSD和全闪NVMe磁盘,在网络传输上采用NVMeoF,单台服务器的IO处理性能已经原高于原来的传统存储,部分厂商配置了全闪的3节点的集群IOPS的性能甚至超过了20万。
  2. 系统可靠性上采用多副本和容灾等技术,保证了数据安全性和预防灾难发生。
  3. 扩展性是SDS存储的强项,因为SDS主打就是横向扩展的能力,多节点集群横向扩展能力远高于传统存储。
  4. 系统稳定性是要考虑分布式的环境下各种故障出现的可能,比如磁盘故障,节点故障,网络故障,集群故障等,从各方面各个维度去考虑系统的可靠性,SDS存储都会考虑这些问题,但能达到更高的处理效率是各家SDS厂商的技术差异了。

总之,SDS替代一部分传统存储是一个趋势,随着技术上的发展会发现越来越明显。

分布式存储在实际生产中,需在哪些方面增加监控?

目前分布式存储的界面告警还无法像传统san存储那样将各个硬件告警推送出来,服务器的管理口硬件容错较高,很多情况服务器管理口并未告警,但上层分布式存储软件已经感知异常。在实际生产中应还需在哪些方面增加监控?

嘉宾观点:

荣重实 技术总监 , Xsky

产品级别的分布式存储,对于基础硬件层面告警已经没什么问题了,如果说这方面监控不到位,只能说产品化能力不好;个人觉得最难监控的部分其实不是硬件本身,而是网络层面,因为分布式架构对于网络的要求非常高,所以初期分布式存储多是建议专有的集群内部网络,一方面是避免流量干扰,另一方面是便于故障排查,近几年随着以太网络技术的更新迭代,更多的分布式存储采用混合组网的使用多平面的方式在构建,这样优化带宽,整合资源,但是对于故障判断增加了很多不确定性,所以如果有自动网络情况判断机制,对于分布式存储的运维是非常有帮助的;另外一个是随着磁盘容量的增大,一次磁盘损坏恢复的时间越来越长,是否能够通过AI技术对磁盘故障类型进行学习,提前发现可能出现的磁盘问题;再有就是磁盘静默错误的修复能力,避免导致数据丢失。

分布式存储的容错机制是怎么样的?容量是如何计算呢?

嘉宾观点:

荣重实 技术总监 , Xsky

副本 n:可用容量=裸容量*1/n,可以任意损坏n块磁盘或n个节点数据不丢失

EC纠删码 n+m:可用容量=裸容量*n/(n+m),可以任意损坏m块磁盘或m个节点数据不丢失

EC纠删码 n+m:k :可用容量=裸容量*n/(n+m),可以任意损坏m块磁盘或K个节点数据不丢失

whistwu 解决方案经理 , SmartX

磁盘级的容错机制主要是两类,一是纠删码N+M,一是多副本技术;
从空间利用率上来说,纠删码的空间利用率高,容量换算一般是:裸容量_N/(N+M)_,多副本容量换算是:裸容量 /副本数量;
从恢复的效率上来说,一定是多福本恢复的最快,对业务的影响最小,但是有效容量少;
从安全性的角度来说,副本安全性好。

异步传输如何保证数据一致性和完整性?

在存储方面,数据实时同步,实现统一的存储资源共享并建立高可靠性的数据保护机制,是一个比较严峻的挑战。多个数据中心可能分散在不同地域,各个数据中心之间的网络带宽有限,可能无法做到数据实时同步,只能采用异步传输。那么数据一致性和完整性可能就等不到保证。如何在数据一致性和可用性上可能需要一些取舍。

嘉宾观点:

whistwu 解决方案经理 , SmartX

异步复制一般采用以下几种方式保证数据一致性和完整性:

  1. 采用增量快照方式,容灾端在同步增量数据前先做个快照,一旦发现增量数据传输失败,就立刻恢复之前的快照,这种方式有一定的缺陷,有可能造成数据的不一致;
  2. 采用快照一致性组,采用一致性组来保证各个volume卷的是数据一致性;
  3. 采用日志卷的方式,本地的存储记录增量IO到一个日志Volume上,传输这个日志卷到异地灾备中心存储上,灾备存储按日志卷的IO有序恢复IO操作,因为日志卷上有时间戳,所以IO是有序的。

分布式存储是否有easytier这样的功能?

分布式存储是否有easytier这样的功能,可以实现热数据在固态硬盘上,冷数据在机械硬盘上来提高存储效率。

嘉宾观点:

whistwu 解决方案经理 , SmartX

easytier是IBM的叫法,一般厂商都有数据分层功能,但是在分布式存储上要按类型来看。

首先,easytier叫法主要是在IBM的block类型存储上,因为集中式存储的架构和紧耦合,所以Volume逻辑卷可以跨了不同介质,一部分空间在SSD盘上,一部分空间在HDD上,通过自动分层可以提高磁盘的使用效率。

但是如果把easytier放在分布式上,可能就玩不转了,原因很简单,分布式存储是一种松耦合的结构,大部分是一类服务器使用全部的SSD,一部分服务器使用了HDD,正常情况下会将SSD做成一个storage pool,一个做成HDD storage pool,如果我的一个Volume逻辑卷跨了两个服务器,通过网络来做tier,想想其中的效率就很可怕,所以一般分布式块存储上不会带easytire这样的功能,而是把SSD作为Cache来使用。

其次,在分布式文件和对象存储中,tier是可以的,因为我们处理的是单个文件对象,部分文件放在SSD上,部分文件放在HDD上,从逻辑上放在一个文件夹或者对象桶中,所以这部分可以实现冷热数据分层的效果。

向分布式存储迁移的过程,一般有哪些手段用来进行平滑迁移,不影响正常业务?

传统架构很多都是基于san架构的传统存储,在分布式存储规划实施后,会涉及到一个比较大的数量级的数据迁移,一般情况会有哪些手段来确保整个迁移过程的安全可控?

嘉宾观点:

whistwu 解决方案经理 , SmartX

从SAN存储迁移到分布式存储,有别于文件迁移方式,其中最重要的是考虑数据一致性,而数据一致性的认定标准是在应用测。 最基本的方式是备份恢复的方法,对SAN存储上的数据备份,恢复到对应分布式存储的主机上,要考虑备份效率和恢复效率,还要考虑数据增长情况。 另外一种方法是把分布式存储挂到需要迁移的主机下,在主机层面上做逻辑卷到逻辑卷的copy,并在迁移后检查数据的一致性,对业务会有一些影响,需要在空闲的时候做。

其次,SAN存储用在数据库上比较多,建议采用数据库的迁移方式,比如Oracle的OGG和DG,数据库能实施复制,最后将SAN存储切换下线即可。

最后,还可以采用专业的迁移工具,比如使用代理的CDP方式,记录卷级别的IO操作,并在分布式存储上恢复卷的数据。

后两种方式一般用在SAN存储的迁移上,比较安全可控,当然选择哪种迁移方式需要根据自身系统的特点来选择。

分布式存储资源池硬件架构规划

如果一家企业,数据量在100T以下,每年预计数据增长量在30T左右,建议 硬件架构怎么规划?如果一家公司数据量在200-600T之间 ,每年预计数据增长量在100T左右,建议硬件架构怎么规划?每年硬件都会发生变化,如果新采购新服务器加入存储池,需要注意哪些事项 ?

嘉宾观点:

whistwu 解决方案经理 , SmartX

先按3年的增长情况规划,并预留好buff。 假设初始100TB可用容量,每年预计增长30TB,3年大约是160TB,预留20%作为缓冲空间,按2副本计算,差不多是160_120%_2 约 384TB裸容量; 如果采用12盘位的服务器,2块960G SSD做缓存,10块4TB HDD做容量盘,约40TB每台; 第一年需要100T_1.2_2=240TB,差不多6台设备做一个集群,,后面每年增加2台相同配置服务器加入到集群中;硬件架构最重要的是考虑网络规划设计,一般分布式存储网络和业务网络要单独分开,采用万兆光纤端口,有条件的单独两张网卡,互不影响,端口建议绑定,新服务器加入到集群中建议在业务不忙时段做,因为数据可能会做rebalancing。

分布式存储已依靠软件保证数据冗余,是否还需要其他手段保证?

分布式存储已依靠软件保证数据冗余,是否还需要其他手段保证。例如hdfs已经是三副本存储,是否还需要对磁盘做raid保证可靠性。

嘉宾观点:

荣重实 技术总监 , Xsky

已经三副本的情况下,如果底层再做raid,感觉对空间的损耗就太大了,没有必要;不如增加一些CRC校验手段去避免磁盘逻辑损坏和磁盘扫描技术去预判磁盘物理损坏;另外现在EC纠删码技术很成熟,性能也很接近副本,可以通过加大纠删码的校验值的方式提高容错能力。

分布式存储资源池容灾规划?

在分布式存储 ,容灾相对传统容灾有什么差别 ?如果需要做两地三中心 ,我们需要怎么去规划?

嘉宾观点:

赵海 技术经理

在分布式存储 ,容灾相对传统容灾有什么差别 ?

传统存储容灾,似乎大家更愿意追求存储层基于SAN环境的同步复制,追求同城双活。业务场景上也多数为关系型数据库的结构化数据,无论是应用层还是存储Block层都追求数据强一致性,并发控制非常严格。分布式存储,其生来就与集中式存储的并发控制、数据组织形式、高可用模式等各个方面都有所区别,其适用的场景更多的是非结构化及半结构化数据应用场景,对数据的并发控制要求并不是那么严格。因此它的容灾更多的是异步复制的模式,不限于地域的远近。

如果需要做两地三中心 ,我们需要怎么去规划?

首先分布式存储系统属于整个IT架构当中的一部分,两地三中心架构是基于整体IT架构来做规划的,所以分布式存储系统只是局部一部分,在整体容灾目标的框架下,利用其异步复制和集群算法及适用条件(大集群还是两个集群)要求融到整个框架中。

分布式存储节点数量规划?

理论上分布式存储节点数可以横向无限扩展,但是节点数量多了以后在实际的运维过程中有很多问题,例如重平衡时间长等。现在是否有节点数量的最佳实践?

嘉宾观点:

荣重实 技术总监 , XSKY

对于分布式存储节点的规划,提出问题一定是有大规模部署的需求,可以从以下几个角度去考虑和设计:

1、性能和容量直接需求,是否需要在一个分布式存储集群上提供全部能力,或者一个数据资源池上提供全部能力。

2、故障域的区分,是否需要配合物理位置的不同,进行设计。

3、产品的实际能力,比如一个资源池支持磁盘数量上限和性能上限。

有些时候是实践得出的经验值,比如vSAN的集群部署大多在10-12个节点;其实一个集群节点数量多,管理和运维仍然是按照一套模式在进行,但是后端的cluster网络承载的信息会非常多,对产品的设计和架构能力更是考验。

分布式存储资源池在不同业务场景下硬件资源分配策略如何规划?

分布式存储资源池在投产运营后,针对不同业务场景需求,其主机磁盘比如何测算?其服务器资源更新策略该如何与之相匹配?

嘉宾观点:

荣重实 技术总监 , XSKY

选择存储磁盘类型和配比,还是根据IO模型的不同,进行一些分类。

1、全闪场景,去应对高IO,海量小文件读写等。

2、混闪场景,较高的混合IO,现在多用2U12盘的服务器,2块ssd+10块hdd的方式。

3、全HDD场景,多是大块稳定流。

分布式存储,前端数据的访问机制是如何实现的?

嘉宾观点:

荣重实 技术总监 , XSKY

应用访问存储的机制,在传统存储和分布式存储,逻辑上不会有什么变化;数据通过传输介质到存储,经过写缓存之后落盘,再返回完成标识,表示一次写动作完成;读请求到存储后会优先从读缓存区寻找,如果没有再去磁盘池获取;与传统存储不同的是,一个数据会被拆散到多个物理节点上存放,读取的时候也是要从多个节点先汇总再拿走。

从传统架构升级到分布式存储架构转型需要哪些过程,整合哪些资源?

嘉宾观点:

荣重实 技术总监 , XSKY

充分了解已有的应用使用情况和IO模型,传统存储与分布式存储之间不是升级的概念,而是场景适合与否;所以要 确认当前业务适合使用分布式架构,比如计算存储的横向扩展能力要求高,数据几十年的长期保存以及敏捷快速部署的需求。

如果觉得我的文章对您有用,请点赞。您的支持将鼓励我继续创作!

0

添加新评论0 条评论

Ctrl+Enter 发表

作者其他文章

相关文章

相关问题

相关资料

X社区推广