超融合架构vs集中式架构,企业大规模系统整合架构如何选型?

随着“云计算”技术的发展,越来越多的企业开始做IT基础架构的转型。在大的趋势背景环境下,企业开始考虑整合内部的IT基础资源和信息系统,对系统进行移植和虚拟化,建设一个适合企业自己的“云计算”平台。目前企业内部的信息系统大部分基于linux操作系统,在大规模系统整合上,主...显示全部

随着“云计算”技术的发展,越来越多的企业开始做IT基础架构的转型。在大的趋势背景环境下,企业开始考虑整合内部的IT基础资源和信息系统,对系统进行移植和虚拟化,建设一个适合企业自己的“云计算”平台。目前企业内部的信息系统大部分基于linux操作系统,在大规模系统整合上,主要采用的架构有两种。一种是横向扩展的超融合架构,利用分布式存储和计算技术扩充资源。另一种是纵向扩展的集中式架构,通过使用高性能和高扩展性的服务器承载所需资源。
那么今天希望就如下进行讨论:

1、超融合架构与如LinuxONE集中式架构的区别是什么?
2、超融合架构与集中式架构分别适合哪些场景?
3、不同行业(如银行、社保、医疗)重要系统整合对基础架构平台的要求是什么?如何选型?

收起
参与92

查看其它 9 个回答tangguobing的回答

tangguobingtangguobing系统架构师IBM

1、超融合架构与如LinuxONE集中式架构的区别是什么?

超融合技术从2015年的技术萌芽期进入了期望膨胀期,目前处于快速发展阶段,预计2-5年达到生产高峰期。由于现在超融合技术厂商众多,蜂拥而至进入这个市场,考验在于是否能够顺利通过泡沫化的谷底期,Gartner估计到2020年,只有1/5的超融合厂商能够存活下来继续占领市场。超融合架构是基于标准通用的硬件平台,通过软件定义实现计算、存储、网络融合,实现以虚拟化为中心的软件定义数据中心的技术架构。这里面有几个关键字:通用硬件平台、软件定义、虚拟化,其中软件定义的分布式存储是核心。

完全软件定义:独立于硬件,采用商业通用标准硬件平台(如X86),完全采用软件实现计算、存储、网络等功能。

完全虚拟化:以虚拟化计算为中心,计算、存储、网络均由虚拟化引擎统一管理和调度,软件定义存储由虚拟机控制器CVM进行管理。

完全分布式:横向扩展的分布式系统,计算、存储、网络按需进行动态扩展,系统不存在任意单点故障,采用分布式存储。

超融合的出现主要是为了替代原来融合系统的虚拟化能力不足而优化的系统。LinuxONE拥有强大的性能和稳定的输出,以及卓越的可靠性,只需要专注于整体的性能输出即可。为了保证性能的整体输出,LinuxONE集中式架构并没有包括存储和存储网络,外部还是使用传统的SAN架构,通过SAN来访问存储。由于自身硬件资源的性能,稳定性,可靠性完全能够满足业务需要,特别是大型数据库需要依靠更直接的物理资源访问,过度分布式,虚拟化和软件定义带来的是性能的不可靠,这个是业界的共识。由于属于两种不同的架构,都有不同的适用场景。

2、超融合架构与集中式架构分别适合哪些场景?

根据GARTNER的技术分析报告,常见的情况是,中小型应用环境采用机架式服务器与中低端存储的组合,大型应用环境则是刀片式服务器加高端存储。融合系统活跃的另一大应用领域在数据库市场,即我们常说的数据库一体机。超融合系统主要用于取代面向虚拟化应用的集成系统或认证参考系统(传统融合系统)。从技术角度看,融合系统只是服务器、SAN存储和网络设备的组合,一体化交付,尽可能的“开箱即用”,只要三者搭配得当,理论上什么类型的应用都可以很好的支持。不过,在实际应用中,融合系统的一大主战场是虚拟化应用,如服务器虚拟化和VDI(Virtual Desktop Infrastructure,虚拟桌面基础架构)。

由于超融合是建立在大量x86硬件虚拟化基础上的,而超融合的目标是替代原来融合系统的虚拟桌面(VDI),大数据分析和定制化的场景,比如远程办公场景等,场景有限。其应用场景偏向新兴互联网应用,由于其基于可靠性不高的X86硬件所做的高度虚拟化对于传统通用负载比如基于关系型数据库的OLTP应用支持不足。

LinuxONE继承了大型主机先进性的纯Linux企业级服务器:

帮助企业利用Linux支持更为关键的核心应用

帮助企业利用LinuxONE实现大规模整合

3、不同行业(如银行、社保、医疗)重要系统整合对基础架构平台的要求是什么?如何选型?

不管什么行业对于基础架构平台的要求都是相似的,主要看运行的业务场景,之前也有介绍不同技术架构的适用场景。而超融合是相对较新的技术架构,权威的第三方IT分析机构GARTNER已经做出了权威而专业的分析,超融合基于X86的完全虚拟化平台,大量使用软件定义,它并不适用于OLTP等需要依靠直接物理资源的业务应用,而主要是替代传统融合系统的VDI(虚拟化桌面的场景),但是许多超融合厂商过度宣传,将客户引入误区,所以在选型时候需要关注以下事项,也是LinuxONE和超融合的一个对比:

a.技术发展阶段

目前超融合处于炒作巅峰阶段,市场的泡沫严重,大量新兴创业公司和传统软硬件厂商介入,客户需要谨慎审视,以防被过渡洗脑。根据Gartner存储技术发展周期来看,超融合技术很快会进入低谷,进行新一轮洗牌,超融合技术的可持续性需要进一步观察,甚至有退出市场的可能。据Gartner预计到2020年,将淘汰80%的厂商,客户的投资回报会遭遇严重挑战。

而2001年开始z/VM即开始支持Linux, Linux on z(LinuxONE)早在2009年就处于复苏稳定期,目前处于技术稳定发展期,技术成熟,客户众多,产品生态完善,获得了市场的广泛认可。2009年,IBM将成熟的产品LinuxONE(当时叫ELS)引入中国,目前使用LINUXONE产品的行业主要是卫生,公安,社保,教育,电信,交通等公共事业领域以及医疗,银行等用户。

b.信息孤岛

几乎所有的超融合方案都不支持数据中心中原有的外部存储,大多数企业也不可能在短期内更换整个数据中心基础设施,结果数据中心又分裂成两个彼此独立分散的基础设施孤岛。对于大的数据中心,出于不同业务需求和平衡考量,很有可能会同时部署不同的超融合架构,不同HCI之间无法整合和互操作,结果就是又多了几个新的信息孤岛。新的信息孤岛带来了资源利用效率和统一管理的问题。

LinuxONE结合SVC的方案可以将各种存储方案融合其中,使用户在存储性能和容量方面平滑无缝的升级。例如,扩展控制器个数可以增加性能,而往存储池中增加磁盘则可以增加容量,性能和容量的扩张都可以在线完成,不需要中止应用。SVC处于存储和主机之间,可以把不同存储设备组成一个大型存储池,防止出现存储设备的信息孤岛。

c. 性能一致性

对于超融合架构而言,存储性能是很大的挑战。原因主要有两点:

一是超融合架构“共享一切”:计算和存储会争抢CPU/内存/网络等物理资源,而且计算和存储又相互依赖,一旦一方资源需求骤升就是导致另一方资源枯竭,进而影响性能并在整个基础架构中产生涟漪效应。

二是超融合架构“一切分布式和软件定义”:集群规模较大后,网络、硬盘、服务器发生故障的概率都会增大,数据重删/压缩/加密/纠删码等功能都用软件实现,故障的自修复和数据功能实现都会消耗一定的系统资源,导致性能下降和抖动。

数据中心中存储的性能至关重要,而且期望性能是可以预测并保持一致性的,包括延迟、IOPS和带宽,这一点尤其对核心业务系统很关键。LinuxONE平台设计考虑的是稳定和可靠的性能输出,采用均衡设计的思想,不会为了突出某方面的性能而拖累整体性能输出。对于关键业务支撑平台而言,LinuxONE能够在业务高峰甚至在系统处于很高利用率的状态下依然保持高效稳定的运行,LinuxONE平台在设计方面做了很多针对性的优化。

d.扩展的灵活性和复杂性

超融合中计算能力、存储性能和容量是同步扩容的,无法满足现实中单项能力的扩展,有些厂商还对扩容最小单元有要求,扩展灵活性会受到限制。集群达到一定规模后,系统架构复杂性就会线性增加,集群管理变的更加困难,硬件故障和自修复发生的概率也会大大增加。

LinuxONE只需要2个IFL就可以配置,CPU和内存,I/O和网络端口数的选配粒度非常小,客户可以根据需求按需选配。LinuxONE提供扩展的灵活性,单机可扩展至141颗CPU,10TB内存和160个PCIe插槽,而无需不断增加新的物理设备,提升纵向扩展能力。LinuxONE利用多层级虚拟化能力,帮助客户实现横向扩展,提升资源使用效率和管理效率。

e.IT复杂度

超融合架构需要采用CVM虚拟机控制器,并且需要将主机物理设备透传给控制虚机,增加了部署配置管理的复杂性。计算和存储对硬件平台的要求都不同,融合后也会一定程度上增加兼容性验证的复杂性。超融合架构下,管理、计算、存储、高可用通常都需要配置独立的虚拟网络,网络配置也会更加复杂。同时,共享物理资源的分配、隔离、调度,这也是额外增加的复杂性。还有一点,如果出现故障,问题的跟踪调试和分析诊断也变得更加困难。

LinuxONE硬件平台N+1全冗余智能容错设计打造 MBTF(无故障运行时间)>30年以及高达99.999%系统级高可用的关键数据和核心业务支撑系统。通过LinuxONE部署,设备变得更少,容易排查故障点。LinuxONE硬件平台紧耦合设计帮助提升管理的有效性,只需管理1-2台主机即可整合大量工作负载,简化IT复杂度。借助zAWARE智能日志监控软件能够提前发现和防范系统异常。

f.SSD分层存储

SSD擅长的随机读写,对于带宽型应用,SSD对性能并没有帮助。如果SSD热点占比配置不足,性能会变得更差。即便配置合理,SSD空间最终要被热点数据占满,就会触发数据迁移,这时HDD存储仍将成为I/O性能瓶颈,同时还要承担正常的I/O业务负载,整体性能就会出现降级和抖动。通过SSD Cache/Tier环节这一问题,会过滤掉顺序读写I/O,把空间阈值设置较低,尽早进行数据迁移,同时选择系统空闲时间执行和流控。带来的负面效应是,SSD性能加速效果受限,物理设备效率发挥不充分。另外,SSD本身被写满时性能也会出现较大的波动。单个存储节点带宽有限,内部复杂的网络使得性能稳定性没有保障,数据迁移带来性能波动。

LinuxONE自身携带的SAP I/O协处理能够帮助处理I/O异步请求,同时借助PCIe卡上集成的Power8协处理器加速I/O传输速度,保证计算性能的同时,提升整体I/O性能。LinuxONE本身没有存储,通过结合SVC方案,简化存储的管理,利用SVC的QoS功能,对高性能的磁盘池分配更多的系统资源,同时对每个VDisk都可以限制对其服务的等级,以满足某段时间内对某个应用服务级别的要求。

g.异构虚拟化环境

目前超融合方案通常是仅支持一种虚拟化环境,Nutanix可以支持多种虚拟化环境,但是对于一套超融合架构部署,实际上也仅支持一种虚拟化环境。每种虚拟化环境都有各自的优势,很多企业可能需要同时运行几种虚拟化环境,比如VMware、KVM、Hyper-V、XEN,因为超融合不支持异构虚拟化环境,需要部署多套超融合架构,这就是新的信息孤岛。

LinuxONE借助z/VM CMA,通过部署在z/VM虚拟机上的软件和工具的集合提供一种易于部署在LinuxONE平台上的Openstack云解决方案。z/VM CMA基于Openstack框架的私有云平台,并支持混合云管理,提供一种可以跨多个环境执行IT服务的自服务分配方式,也可以同时与第三方云提供商连接,在一个云环境中支持多个虚拟化平台。提供了开放的API、广泛的管理程序和操作系统支持,可以实现混合云的对接。

h.开放与封闭

超融合目前处于快速发展期,泡沫化严重,目前有三个大的阵营,包括N家(Nutanix),V家(Vmware),O家(Openstack),互相的侧重点不同,且壁垒严重。即便是基于某一家的架构或者方案,厂商OEM后又增加了更多的壁垒,使得超融合市场虽然热闹,却没有统一的标准,互不兼容,给企业IT发展带来了潜在的障碍。

基于LinuxONE平台的Linux和其他平台并没有太多不一样,客户可以根据实际需要变更工作负载,进行应用迁移。LinuxONE帮助客户实现:

Linux版本、数据库、中间件、分析工具、管理工具、编程语言等商业或开源软件自由组合,按需选配

基于裸机、分区、虚机、容器结合企业私有云、动态混合云等实现灵活部署。

i.集成还是融合

当前超融合市场乱象丛生,产品众多,硬件不一样,软件不一样,组合不一样,厂商不一样,功能却大体相同,经过包装不断洗脑客户,其实质就是X86+虚拟化,或者再加上SSD,利用不成熟的分布式存储软件,最后号称超融合或者私有云,或者直接“互联网+”。如同当年信息化建设一样,通过不同品牌的电脑配件进行组装,喜欢什么就集成什么,而且美名其曰“定制化”,客户真实需求被忽略,投资回报得不到保障。

不同的硬件+不同的组合+不同的软件+不同的厂商=超融合品牌A

相同的硬件+不同的组合+不同的软件+不同的厂商=超融合品牌B

不同的硬件+相同的组合+不同的软件+不同的厂商=超融合品牌C

…………………………………………………………超融合品牌N

LinuxONE硬件平台是上世纪六十年代发展起来的计算机系统,是IBM最优秀的商用服务器平台,也是业界最高端的服务器。其一体化嵌入式设计,严谨的装配工艺造就了该平台的卓越性。LinuxONE工业设计的先进性包括先进的封装技术和严格的出厂测试超过了50年的不断发展。经过五十多年的不断更新,其稳定性和安全性在所有计算机系统中是首屈一指。正是因为这方面的优点和强大的数据处理能力,到现当前为止还没有其他的系统可以替代。从美国“阿波罗登月计划”的成功,到天气预报、军事科学的发展,以及全球金融业、制造业商业模式的变换,都离不开该系统的功劳。

j.硬件可靠性

x86硬件平台故障率高,承载大量应用带来IT复杂度的蔓延,低可靠性的叠加带来的是整个数据库中心不稳定性。超融合平台有大量的组件需要装配,组装式大规模的分散物理硬件, 包括网络,存储,计算,以及各种虚拟化及分布式软件部署,将大量低可靠性的硬件组装到一起势必带来整体的低可靠性,当需要进行扩展升级的时候,这样的问题变得更加突出。

LinuxONE硬件所以组件都是冗余设计,故障自动切换,模块化设计,严格测试后出厂,内部激活方式升级,无需再组装.

k.同时提请客户注意以下超融合选型需要注意的以下问题:

企业级数据功能:

相对于高端存储系统,如果超融合架构要承载核心关键应用,还有很大的差距,包括但不限于QoS控制、数据保护、数据迁移、备份容灾、一致性的高性能。核心存储系统应该遵循RAS-P原则,先做好稳定可靠性,其次是企业数据功能完备性,最后才是高性能,这个顺序不能乱,光有高性能是不行的。

物理环境应用:

目前普遍公认的适合应用场景是桌面云、服务器虚拟化、OpenStack私有云、大数据分析等新型应用。超融合系统管理虚拟化环境,而更多的传统IT应用仍然运行在物理服务器和传统存储系统之上,但是考虑到运行效率、硬件依赖性以及和虚拟化环境兼容性等因素,很多IT应用最好还是继续保持运行在物理硬件架构,比如数据库应用、实时控制系统以及大量遗留IT系统。

超融合数据共享:

超融合架构采用软件定义存储替换传统的共享式存储解决了虚拟化存储问题,这里的SDS实际上主要是指ServerSAN,提供分布式块存储。然而无论是虚拟机还是物理机,实际IT应用都有着数据共享需求,需要分布式文件系统或NAS存储系统。这是目前超融合普遍缺失的,现实还是依赖外部独立部署的NAS或集群NAS存储系统,比如GlusterFS、ZFS。从技术架构和实现来说,一个SDS系统很好地统一支持Object/Block/File存储,这个非常难以实现的。比如Ceph,它的CephFS一直没有达到生产环境部署标准,更别提性能。

全栈超融合架构:

目前很多厂商都在推超融合架构方案,其中一部分是SDS厂商,一部分是虚拟化厂商,还有更多的是集成商,像VMware/Nutanix同时做SDS和虚拟化的厂商非常少。SDS和虚拟化是两个完全迥异的领域,而且技术门槛都非常高,一个厂商同时把这两块都做到很好是非常难的。两者都想做的厂商,无非是想控制成本、自主可控、扩大市场、融资好讲故事。对于初创公司,团队和资金非常有限,打造全栈超融合架构更是困难重重。

硬件生产 · 2017-05-23
浏览7551

回答者

tangguobing
系统架构师IBM
擅长领域: 存储服务器灾备

tangguobing 最近回答过的问题

回答状态

  • 发布时间:2017-05-23
  • 关注会员:24 人
  • 回答浏览:7551
  • X社区推广