数据中心 400G 应用的三大迫切需求场景
2010 年以来,不同类型数据中心的需求呈现分化趋势,需求层次日益多样化,用户选择不同带宽的应用,是基于业务类型作出的理性决策。在这一背景下,以下几种场景对数据中心 400G 应用有着相对迫切的需求。
一、超大规模数据中心
超大规模数据中心普遍采用扁平的二层叶 - 脊(Leaf-Spine)架构,这种架构需要大量的互连 —— 每个 Leaf 与 Spine 完全互连,以最大限度实现交换机之间的无阻塞网络连接。
随着数据中心中硬件加速器、人工智能和深度学习功能的广泛应用,高带宽消耗成为常态,这迫使高端数据中心快速转向以更高数据速率运行的下一代互连技术。
400G 在超大规模数据中心的网络叶 - 脊架构互连中具有重要意义:相比大量采用 100G 互连,使用 400G 接口不仅能简化网络架构,还能降低同等速率应用的成本以及单位流量的功耗。因此,超大规模数据中心(尤其是采用叶 - 脊架构的网络)对 400G 的需求具有现实意义与迫切性。
二、数据中心互连(DCI)
伴随着数据流量的爆炸性增长,数据中心网络逐步走向 IP 互联网的中心位置。如今的数据中心早已不再局限于一座或几座机房,而是形成一组数据中心集群。为保障网络业务正常运行,这些数据中心需要协同运转,相互之间有海量信息需要及时交互,这就催生了 DCI 网络需求。
云业务从根本上改变了计算模型和流量模型:网络流向从传统的南北流量,转变为 IDC 到 IDC 之间或资源池之间的横向流量,且横向流量的占比正逐步提升。这要求数据中心互联网络必须具备大容量、无阻塞和低时延的特征,带宽成为 DCI 建设的首要焦点。
对于大型数据中心而言,出于地理上靠近客户以提供更好服务体验,或数据中心之间互为灾备等考虑,这些数据中心可能分布在同一园区、同一城市的不同区域,甚至不同城市,通常它们之间的距离在 500 米到 80 公里范围内。在这样的场景下,400G 能很好地满足大容量、高速率的传输需求,支撑数据中心集群的高效协同。
三、芯片到芯片及芯片到模块的连接
芯片对芯片(C2C)和芯片对模块(C2M)是最简单的互连形式。其中,芯片到芯片的电气接口位于同一 PCB 平面上的两个 IC 之间,而芯片到模块的接口位于端口 ASIC 和具有信号调节 IC 的模块设备之间。
IEEE 802.3 已定义连接单元接口(AUI),该接口基于不同类型光学模块的每通道 50GB/s 电气特性。根据互连长度和吞吐量要求,网络实施者可以选择不同的芯片到模块接口连接到光学模块。
硅光子技术是推动芯片与芯片互连的重要力量。它基于硅和硅基衬底材料(如 SiGe/Si、SOI 等),利用现有 CMOS 工艺进行光器件开发和集成,结合了集成电路技术超大规模、超高精度制造的特性和光子技术超高速率、超低功耗的优势,是应对摩尔定律失效的颠覆性技术。
根据硅光子产业发展规划,该产业已进入快速发展期。与当前状态相比,硅光子技术在每秒峰值速度、能耗、成本方面分别能提高 8 倍、降低 85%、降低 84%。凭借传播速度快和功耗低的特点,硅光子成为超级计算市场的重要研究方向。
随着数据中心核心网络设备间传输速率的不断升高,自 400G 应用开始,在芯片到芯片(C2C)以及芯片到模块的连接中,400G 乃至 800G、1.6T 等更高速率的传输技术,其优秀的技术特性与商业价值将会得到更多显现。
综上所述,超大规模数据中心的架构互连、数据中心集群的 DCI 网络以及芯片级别的高速连接,是当前对 400G 应用需求最为迫切的场景。400G 技术在这些场景中的应用,不仅能满足日益增长的带宽需求,还能优化成本与功耗,推动数据中心向更高性能、更高效益的方向发展。