本文共 1273 字,大约阅读时间需要 4 分钟。
超融合技术架构的实施为公司带来了意义非凡的价值。不过在许多环境都有那么一部分应用程序对于性能有着很高和具体的要求,这很容易造成超融合网络的瓶颈。
在任何超融合设计中,网络都是必不可少的组成部分。超融合网络将不同节点的存储汇聚到一起,应用程序能够跨越并借助其他节点的CPU运行。网络则相对静态,节点之间的带宽是可以重新分配的,超融合架构的物理线缆之多可能让人恐惧。要切记超融合架构是一个集群,包含许多潜在的节点。这些节点之间需要相互通讯以保证它们之间的信息是同步的。
在过去,传统的集群有专门的存储系统,访问共享的数据。超融合的架构通常将内部每个节点的存储汇聚到一个虚拟存储池。I/O需求负担较重的环境会将负载都压在超融合网络之上。会造成节点间的通信和存储I/O通信的延迟升高,特别是在基于Flash的超融合架构中。
超融合网络问题的解决办法
可尝试从以下几个方面的因素去解决超融合环境中的网络问题:
保证网络具有较高的性能。10千兆以太网(GbE)是基本。使用光纤用于互连,而不是铜线电缆。大多数环境中,使用顶级机架交换机连接的节点到节点的内部通信,确保到核心节点有40 GbE的上行速度,确保连接到其他环境的带宽。
理想情况下,应在环境中预布线和保留预置的接线板,以适应活动组件间在最终连接完成前的变化。这样做的目标是不必打开一个节点来进行移动、添加和更改。这种设计被称为真正的结构化布线,能够解决最大网络的所有性能问题:次优的性能或总连接性的损失。
实施专用存储网络。大多数超融合的架构需要在所有的网段(存储和计算)实施以太网,要把存储的I/O放到一个特定的网络区段。专用的超融合网络将存储流量从服务器间的流量中拆分出来,保证性能上的一致性。
检查超融合架构中的数据是如何存储的。所有的超融合架构必须以某种方式呈现出对存储访问的共享,即使存储本身是内部性质。到目前为止,供应商提供了两种方法来进行实现:
在超融合架构的一个或其他多个节点上复制一套与虚拟机本身近乎一致的镜像。如果虚拟机需要迁移,该复制的景象可以实例化任意一个存储节点。虽然从容量角度来说有些浪费,但它可以从减少存储I/O的角度,通过只囊括少数几个节点的方式来规避这一弊端。
汇聚过程把所有的内部媒体到集群的节点汇集创建一个虚拟池。尽管从容量的角度来看更具效率,但汇聚的方法通常需要产生更高的I/O流量(从而加重网络负担)。
供应商在这两种方法上有自己的微调,因此不同的产品中的诠释也不尽相同。
超融合网络的主要挑战之一是缩放。要解决物理缩放问题,应该使用如前文所述的结构化的布线方法。随着节点数量的增加,特别是用聚合方法时,软件问题变得更加复杂。节点越多,存储的I/O流量就越大,环境变得越来越复杂。如果公司计划设置几十个节点,并有具体的性能期望,带有专用级别计算和存储层的传统的架构可能是更合适的方法。
====================================分割线================================
本文转自d1net(转载)