欢迎光临敏速云
我们一直在努力

到底什么是NPOCPO数据中心的黑科技


所谓“东数西算”,其实就是数据中心的任务分工调整。我们将东部沿海地区的部分算力需求,转移到西部地区的数据中心完成。

之所以这么做,就是因为西部地区能源资源比较充沛,而且自然温度较低,可以大幅减少电费以及碳排放。

我们都知道,数据中心是算力的载体,现阶段我们大搞数字化转型和数字经济,离不开算力,也离不开数据中心。但是,数据中心的耗电问题,无法忽视。

根据数据显示,2021 年全国数据中心总用电量为 2166 亿千瓦时,占全国总用电量的 2.6%,相当于 2 个三峡水电站的年发电量,1.8 个北京地区的总用电量。

大家应该都知道,数据中心有一个重要的参数指标,那就是PUE(Power Usage Effectiveness,电能使用效率)。

PUE = 数据中心总能耗 / IT 设备能耗。其中数据中心总能耗,包括 IT 设备能耗,以及制冷、配电等其它系统的能耗。

说起主设备,大家马上就想到了服务器。是的没错,服务器是数据中心最主要的设备,它上面承载了各种业务服务,有 CPU、内存等硬件,可以输出算力。

目前,AI / ML(人工智能 / 机器学习)的加速落地,再加上物联网的高速发展,使得数据中心的业务压力越来越大。

这个压力不仅体现在算力需求上,也体现在网络流量上。数据中心的网络接入带宽标准,从过去的 10G、40G,一路提升到现在 100G、200G 甚至 400G。

网络设备为了满足流量增长的需求,自身也就需要不断迭代升级。于是乎,更强劲的交换芯片,还有更高速率的光模块,统统开始用上。

交换芯片是网络设备的心脏,它的处理能力直接决定了设备的能力。这些年,交换芯片的功耗水涨船高,如下图所示:

值得一提的是,虽然网络设备的总体功耗在持续提升,但是,单 Bit(比特)的功耗是持续降低的。也就是说,能效越来越高。

随着 40G、100G 到现在的 400G,800G 甚至以后的 1.6T 光模块,功耗提升速度就像坐上了火箭,一路飙升,直逼 30W。大家可要知道,一个交换机可不止一个光模块,满载的话,往往就有几十个光模块(假如 48 个,就是 48×30=1440 W)。

一般来说,光模块的功耗大约占整机功耗的 40% 以上。这就意味着,整机的功耗极大可能会超过 3000 W。

除了交换芯片和光模块之外,网络设备还有一个大家可能不太熟悉的“耗电大户”,那就是 ——SerDes。

SerDes 是英文 SERializer(串行器)/DESerializer(解串器)的简称。在网络设备中,它是一个重要器件,主要负责连接光模块和网络交换芯片。

简单来说,就是将交换芯片出来的并行数据,转换成串行数据进行传输。然后,在接收端,又将串行数据转换成并行数据。

前面提到,网络交换芯片的能力在不断提升。因此,SerDes 的速率也必须随之提升,以便满足数据传输的要求。

需要注意的是,SerDes 的速率和传输距离,会受到 PCB 材料工艺的影响,并不能无限增加。换句话说,当 SerDes 速率增加、功耗增加时,PCB 铜箔能力不足,不能让信号传播得更远。只有缩短传输距离,才能保证传输效果。

这意味着,在 SerDes 没有技术突破的前提下,网络交换芯片和光模块之间的距离,必须缩短。

根据设备厂商的数据显示,过去的 12 年时间,数据中心的网络交换带宽提升了 80 倍,背后的代价就是:交换芯片功耗提升约 8 倍,光模块功耗提升 26 倍,交换芯片 SerDes 功耗提升 25 倍。

根据数据统计,交换设备在典型数据中心总能耗中的占比,仅仅只有 4% 左右,还不到服务器的 1/10。

但是散热呢?根据 CCID 数据统计,2019 年中国数据中心能耗中,约有 43% 是用于 IT 设备的散热,基本与 45% 的 IT 设备自身的能耗持平。

即便是现在国家对 PUE 提出了严格要求,按照三级能效(PUE=1.5,数据中心的限定值)来算,散热也占了将近 40%。

传统的散热方式(风冷 / 空调制冷),已经不能满足当前高密数据中心的业务发展需求。于是,我们引入了液冷技术。

液冷,是使用液体作为冷媒,为发热部件散热的一种新技术。引入液冷,可以降低数据中心能近 90% 的散热能耗。数据中心整体能耗,则可下降近 36%。

除了散热更强更省电之外,液冷在噪音、选址(不受环境气候影响)、建设成本(可以让机柜采用高密度布局,减少机房占地面积)等方面也有显著优势。

所以,现在几乎所有的数据中心,都在采用液冷。有的液冷数据中心,甚至可以将 PUE 干到 1.1 左右,接近 1 的极限值。

冷板式,也称间接式,是将主要散热部件与一块金属板贴合,然后金属板里有冷媒液体流动,把热量带走。现在很多 DIY 组装电脑,就是冷板式。

服务器采用液冷,已经是非常成熟的技术。那么,既然要上液冷,当然是服务器和网络设备一起上,会更好啊,不然还要搞两套体系。

为了尽可能地降低网络设备的自身工作功耗以及散热功耗,在 OIF(光互联网络论坛)的主导下,业界多家厂商,共同推出了 ——NPO / CPO 技术。

2021 年 11 月,国内设备厂商锐捷网络(Ruijie Networks),发布了全球第一款 25.6T 的 NPO 冷板式液冷交换机。2022 年 3 月,他们又发布了 51.2T 的 NPO 冷板式液冷交换机(概念机)。

我们传统的连接方式,叫做 Pluggable(可插拔)。光引擎是可插拔的光模块。光纤过来以后,插在光模块上,然后通过 SerDes 通道,送到网络交换芯片(AISC)。

CPO 呢,是将交换芯片和光引擎共同装配在同一个 Socketed(插槽)上,形成芯片和模组的共封装。

大家应该能看出来,CPO 是终极形态,NPO 是过渡阶段。NPO 更容易实现,也更具开放性。

之所以要做集成(“封装”),目的很明确,就是为了缩短了交换芯片和光引擎间的距离(控制在 5~7cm),使得高速电信号能够高质量的在两者之间传输,满足系统的误码率(BER)要求。

硅光,是以光子和电子为信息载体的硅基光电子大规模集成技术。简单来说,就是把多种光器件集成在一个硅基衬底上,变成集成“光”路。它是一种微型光学系统。

硅光之所以这么火,根本原因在于微电子技术已经逐渐接近性能极限,传统的“电芯片”在带宽、功耗、时延方面,越来越力不从心,所以,就改走了“(硅)光芯片”这个新赛道。

NPO / CPO 技术是目前各大厂商研究的热门方向。尤其是 NPO,因为拥有最优开放生态,产业链更加成熟,可以获得成本及功耗的最快收益,所以,发展落地更快。

那款 51.2T 硅光 NPO 冷板式液冷交换机,高度不变,将 NPO 模组从 1.6T 升级到了 3.2T,前面板支持 64 个 800G 连接器,每个连接器还可以分成 2 个 400G 端口,实现向前兼容。外置光源模块增加到了 16 个。

在实际组网中,51.2T 的 NPO 交换机(最快在 2023 年底商用发布),可以应用于 100G / 200G 的接入网络,作为接入 & 汇聚设备,实现高速互联。

值得一提的是,NPO / CPO 的技术和产品研发,并不是一件简单的事情,背后是对一家企业整体研发实力的考验。

这次锐捷网络能够全球首发 NPO / CPO 产品,是他们持续投入资源进行艰苦研发和创新的成果,也体现了他们在这个领域的技术领先性。

锐捷网络在 2019 年开始关注硅光领域技术,2020 年 6 月正式成立研发及产品团队。作为 OIF / COBO 的成员,他们一直都有参与工作组全球会议,参加相关标准的讨论和制定。

这两项技术,是数据中心网络设备毫无疑问的发展方向。在目前的数字化浪潮下,我们对算力和网络通信能力的追求是无止境的。在追求性能的同时,我们也要努力平衡功耗。毕竟,我们要走的是可持续性发展的道路。

希望以 NPO / CPO 为代表的硅光科技,能够进一步加速落地,为信息基础设施的绿色低碳做出贡献。
小编推荐Excel服务器设计纯查询模板|office


版权声明:本站大部分内容来自互联网,不拥有所有权,不承担相关法律责任。如发现有违法违规的内容或本文侵犯了你的权益, 请联系管理员,一经查实,本站将立刻删除。未经允许不得转载 » 到底什么是NPOCPO数据中心的黑科技