北京某数据中心空调气流组织节能分析

/ 2

北京某数据中心空调气流组织节能分析

许伟伟,陈振辉,李辉

中联云港数据科技股份有限公司 101102

摘  要

近年来,随着新基建、物联网技术、工业互联网的快速发展,数据中心领域的计算能力、存储规模等大幅度提高,使得数据中心市场规模快速扩大。数据中心是一个高能耗行业,不仅其IT设备耗电较高,制冷设备的耗电量也非常大。本文主要是对北京某数据中心机房内温湿度、空调耗电量测试。采用Airpak软件对本数据中心气流组织进行CFD模拟。

关键词:新基建,数据中心,气流组织、能源使用效率

1.引言

随着人工智能、5G、物联网技术快速发展,数据中心制冷系统也在随之更新换代,中大型数据中心采用水冷式制冷系统成为主流。本文以北京市某数据中心为例[1],对弥漫式送风方式和封闭冷通道进行能耗测试。使用Airpak软件对数据中心机房内弥漫式气流组织、封闭冷通道、封闭热通道进行建模分析,导出速度、温度云图。

2.机房测试

2.1项目概况

本项目制冷系统冷冻侧冷冻供回水温度为14/20 ℃,夏天冷却供回水温度为32/37 ℃。数据中心制冷设备共配置4套1000 RT(3517 kW)制冷单元,3用1备。机房内有2155个标准机柜,每个机柜4.4 kW的额定功率。             

2.2数据中心机房测试

本次以数据中心302机房为测试对象,此模块机房面积465.65 ㎡,240个4.4 kW机柜,两侧有两个空调间,空调间配置5台水冷精密空调,四用一备,每台精密空调制冷量152 kW,额定功率为8.4 kW,风量为39400 m³/h。

测试依据本次机房测试依据包括《数据中心基础设施施工及验收规范》GB50462-2015等规范,按照机房内相关测试方法进行测试机房内环境[2],在测试不同冷通道送风温度下的耗电量。


3.Airpak软件仿真模拟

AIRPAK软件进行数值模拟,机房内具体尺寸、主要参数见下表3-1。导出数据中心三种气流组织云图,并进行简要分析。

表3-1  机房内的具体设置参数表

名称

数量/个

尺寸/m

模型类型

主要参数

图形

机柜

240

2.2×1.2×0.6

creat blocks

4.4 kW

 

机柜进出风口

240

2.2×0.6

creat openings

/

 

精密空调

10

2.55×0.95×1.97

creat blocks

152 kW

 

精密空调风机尺寸

20

2.55×0.95

creat fans

13.1 kg/s

 

送风地板

240

0.6×0.6

creat resistances

/

 

3.1弥漫式送风方式CFD模拟

机房不同切面下速度分析,机房风速的速度范围在2 m/s到4 m/s之间机房冷通道送风温度在22 ℃左右,回风温度在34 ℃左右。从图中可以得出,机房气流在空调间、吊顶内部局部形成涡流,这是因为局部地方没有封闭,造成气流紊乱。从302机房弥漫式方式云图可以看出,机房吊顶内做回风口出现以下问题;(1)冷热通道出现混流现象,造成机房回风温度过高。(2)机房内机柜上方服务器出现局部高温的情况。(3)机房整体温度较高不利于节能。

3.2封闭冷通道CFD模拟

在弥漫式送风方式基础上进行封闭冷通道,可以有效改善气流组织。机房在y=1.0m下截面的温度云图,冷通道内温度为22 ℃,热通道温度29度左右,整个机房没有出现冷热气流混流现象。总而言之,通过冷通道全封闭可以发现,机房内气流组织可以避免冷热通道气流混流的现象,进而可以减少机房内局部热点,降低机房热通道的温度,有利于节能减排。

3.3封闭热通道CFD模拟

机房封闭热通道后,模拟场景的送风口、过道等公共区域为低温环境,对热通道进行封闭后,比无封闭热通道温度要有所降低。使用封闭热通道后,同样可以像封闭冷通道一样规避冷热气流混流,减少能耗浪费。将冷热气流进行隔离,可以提高机房内冷空气的冷却效果,避免冷热气流混流。

4.机房不同气流组织能耗对比

4.1不同送风温度下的能耗对比

根据数据中心现场实际能耗测试情况,提高末端机房空调耗电量对整个数据中心的耗电量的准确性,通过控制变量法进行分析。控制IT日用耗电量、制冷系统日用耗电量、电力损耗等来分析机房空调能耗情况在控制机房IT日用耗电量不变的情况下,IT日用耗电量为148800 kW·h,电力功率损耗占IT功率的10%计算,电力功率损耗为14880 kW,随着空调温度设定值的上调,机房的总体耗电量也在逐渐下降。

数据中心内制冷能耗因子CLF变化,制冷系统能耗因子是制冷设备的总耗电量与IT设备总耗电量的比值,机房精密空调随着送风温度的上调,精密空调的耗电也随之下降。温度设定值从22 ℃至26 ℃,机房末端空调日用耗电量从14810 kW·h降至8320 kW·h,节省6490 kW·h,每年可以节约2368850 kW·h。由于北京地区工业用电是按峰谷计费,每度电费平均按0.65元,数据中心运营周期按10年计算,可以节省1539万元。

4.2冷通道封闭后的能耗对比

在2021年6月21和8月21号进行302机房有无冷通道封闭的能耗使用情况对比,见表4-2。

表4-2  有无冷通道封闭能耗表

日期

6月21日

8月21日

冷通道有无封闭

无封闭

封闭

送风温度设定值℃

24

24

冷通道温度平均值℃

25.4

23.8

空调总日用耗电量×100 kW·h

110.0

91.5

数据中心总日用耗电量×100 kW·h

2111.5

2093.1

IT日用耗电量×100 kW·h

1488.0

1488.0

制冷系统日用耗电量×100 kW·h

354.8

354.8

PUE

1.419

1.407

PLF

0.100

0.100

CLF

0.319

0.307

机房末端精密空调部分CLF

0.074

0.051

根据数据中心现场实际测试能耗情况,发现2021年6月21日无封闭冷通道下的数据,对比2021年8月11日封闭冷通道下的数据参数。控制机房精密空调的送风温度、IT日用耗电量、制冷系统日用耗电量、电力损耗等重要参数不变,改变有无冷通道封闭。对比两种有无封闭冷通道的日用能耗,得出机房内精密空调能耗因子CLF从0.074下降至0.051,降低了0.013,末端空调日用耗电量可以从11000 kW·h降至9150 kW·h,节省1850 kW·h,每年可以节约573544 kW·h。

5.结论

本文以北京某数据中心机房空调气流组织作为研究对象,使用Airpak软件对本数据中心进行CFD模拟。得出以下结论。

(1)本数据中心在保证机房各服务器负荷和制冷系统实际功率不变的前提条件下,机房服务器进风温度可从22 ℃提高到26 ℃,数据中心机房的PUE可以从1.445降低到1.401。

(2)对本数据中心机房弥漫式送风方式和冷通道封闭两种气流组织进行整体能耗对比,机房末端精密空调部分CLF从0.074下降至0.051。

(3)采用Airpak软件对本数据中心机房气流组织进行CFD模拟。本次模拟是302机房的气流组织,得出冷热通道封闭内的气流组织比较优秀,可以减少机房内空气阻力,避免局部热点。

随着数字化时代的快速发展,数据量的迅猛增加,大中型、甚至超大型数据中心应运而生,相关数据中心新技术、新理念也随着时代在更新进步,在21世纪定会实现绿色数据中心,实现“碳中和,碳达峰”。


参考文献

[1]许伟伟. 数据中心机房空调气流组织研究[D].北方工业大学,2022.

[2]GB50174-2017. 数据中心设计规范[S].

作者简介:许伟伟1991.02.11河南省安阳县汉族硕士研究生中联云港数据科技股份有限公司研究方向: 数据中心基础设施暖通方向

陈振辉1990.04.08河北省邯郸市大名县汉族本科中联云港数据科技股份有限公司研究方向: 数据中心基础设施暖通方向

李辉1995.08.28河南省光山县汉族研究生中联云港数据科技股份有限公司研究方向: 数据中心基础设施暖通方向