0
简体中文

新闻中心
见行见新,洞悉未来

2x400G H-Cable在400G以太网中的应用优势
2023-09-25 74

随着高性能计算、人工智能和AI模型训练等的需求的爆火,越来越多的公司开始从事于搭建GPU算力集群,对外提供算力租赁服务,作为新的业务增长点。

目前搭建算力集群的主流技术方案分别是infiniband网络方案和以TCP/IP为基础的ROCEv2网络方案。特别是在链路速率从200G到400G的过渡过程中,infiniband网络方案产品的价格越来越高,货期越来越长,导致ROCEv2网络方案的价格优势和货期优势越来越大,越来越多的用户开始使用ROCEv2网络方案组建集群的算力网络。

400G ROCEv2网络方案

目前主流网络设备厂商都有推出自己的400G以太网交换机,盒式交换机面板设计普遍采用64个400G端口,采用QSFP56-DD的封装格式。按照此种规格计算,采用Spine-Leaf的胖树的设计架构,设备的最大组网能力是

64*64/2=2048

也就是2048个400G网卡的接入能力,按照HGX GPU服务器普遍采用4张400G CX-7的计算网卡来计算,设备的最大组网能力是512台HGX GPU服务器。

这种组网规模在目前AI领域的飞速发展下是不够的,如何能够在保证ROCEv2网络方案价格优势的前提下,平滑的对集群进行扩容?

2x400G H-Cable助力集群平滑扩展

采用传统的网络产品和光连接产品,当集群规模超出Spine-Leaf二层架构的最大承载能力时,需要对集群的网络架构进行重新的设计和整改。采用Core-Spine-Leaf的方式设计网络架构,根据每台服务器网卡数量设计POD,这个过程需要投入更多的网络设备和线缆,需要重新规划和设计网络IP地址和路由,很难平滑过渡。2x400G H-Cable线缆就可以很好的解决这个问题,通过2x400G H-Cable可以在不改变Spine-Leaf二层网络架构的情况下,提升一倍网络接入能力,使得集群的规模扩大一倍。

2x400G H-Cable简要介绍

如下图,2x400G H-Cable的两端都是两个400G QDD光模块,整根线缆有4个400G QDD光模块,可以同时使得4台交换机进行全互联。

在实际组网应用中,2x400G H-Cable常用于部署在Spine-Leaf交换机之间,将交换机的端口做端口拆分,提供交换机交叉互联的能力。

2x400G H-Cable的优势

1、扩大二层网络规模

spine-leaf架构下的无阻塞网络的最大接入能力为:如果fabric交换机端口数量为P, spine-leaf架构下的无阻塞网络的最大接入能力为P²/2。如果在不改变网络架构的前提下,提高网络的最大接入能力,就需要增加交换机的端口数量,2x400G H-Cable线缆就是如此。

简单示例,四台400G交换机全互联,使用400G QSFP-DD线缆则需要4根,需要占用8个设备端口。使用2x400G H-Cable线缆则只需要一根,仅需要占用4个设备端口。2x400G H-Cable作用于交换机上,将原本的交换机端口数扩大一倍,按照上述的端口数P²/2 的公式,网络的最大接入能力将提高一倍。

2、降低成本

2x400G H-Cable的最大作用是将设备在Spine-Leaf架构下的组网能力提升一倍,我们以NVIDIA 64端口400G以太网交换机 SN5400为例,对比一下在使用2x400G H-Cable组建最大二层网络规模时,使用传统400G QSFP-DD所需的网络架构和设备数量:

上表可以很直观的看出:同样提供4096个400G端口的接入能力,使用2x400G H-Cable可以使交换机数量减少40%,线缆数量减少50%以上,整体大概节约40%-50%左右的组网成本。这无疑是巨大的价格优势,这种组网优势随着网络规模的增大而增大。

总结

在用户服务器算力集群规模逐渐扩大的过程中,采用2x400G H-Cable极大的减少了交换机设备和线缆的数量、降低成本、提升了组网的端口接入能力、并为网络升级提供了更加平滑和经济的扩展能力。随着集群规模不断增大,2x400G H-Cable组网的成本优势会越来越明显,当集群规模到512台服务器时,成本优势达到最大,最多能够节省40%-50%的网络成本。

NADDOD纳多德可提供不同米数的2x400G H-Cable线缆,适用于各个厂商的400G QSFP-DD交换机,以满足数据中心各种场景下的使用和部署。

公众号
电话
027-5972 6363
购物车
0
需求反馈
需求反馈