超融合技术已经运用多年了,有没有一些常见的故障案例,希望能分享一下。
收起超融合网络问题的解决办法
可尝试从以下几个方面的因素去解决超融合环境中的网络问题:
保证网络具有较高的性能。10千兆以太网(GbE)是基本。使用光纤用于互连,而不是铜线电缆。大多数环境中,使用顶级机架交换机连接的节点到节点的内部通信,确保到核心节点有40 GbE的上行速度,确保连接到其他环境的带宽。
理想情况下,应在环境中预布线和保留预置的接线板,以适应活动组件间在最终连接完成前的变化。这样做的目标是不必打开一个节点来进行移动、添加和更改。这种设计被称为真正的结构化布线,能够解决最大网络的所有性能问题:次优的性能或总连接性的损失。
实施专用存储网络。大多数超融合的架构需要在所有的网段(存储和计算)实施以太网,要把存储的I/O放到一个特定的网络区段。专用的超融合网络将存储流量从服务器间的流量中拆分出来,保证性能上的一致性。
检查超融合架构中的数据是如何存储的。所有的超融合架构必须以某种方式呈现出对存储访问的共享,即使存储本身是内部性质。到目前为止,供应商提供了两种方法来进行实现:
在超融合架构的一个或其他多个节点上复制一套与虚拟机本身近乎一致的镜像。如果虚拟机需要迁移,该复制的景象可以实例化任意一个存储节点。虽然从容量角度来说有些浪费,但它可以从减少存储I/O的角度,通过只囊括少数几个节点的方式来规避这一弊端。
汇聚过程把所有的内部媒体到集群的节点汇集创建一个虚拟池。尽管从容量的角度来看更具效率,但汇聚的方法通常需要产生更高的I/O流量(从而加重网络负担)。
供应商在这两种方法上有自己的微调,因此不同的产品中的诠释也不尽相同。
超融合网络的主要挑战之一是缩放。要解决物理缩放问题,应该使用如前文所述的结构化的布线方法。随着节点数量的增加,特别是用聚合方法时,软件问题变得更加复杂。节点越多,存储的I/O流量就越大,环境变得越来越复杂。如果公司计划设置几十个节点,并有具体的性能期望,带有专用级别计算和存储层的传统的架构可能是更合适的方法。