特定场景下的数据中心密封热通道优势方案研究

(整期优先)网络出版时间:2023-06-29
/ 3

特定场景下的数据中心密封热通道优势方案研究

李沛 梅增杨 华纬韬 柳旭 徐惠臣 祁步仁

国网江苏省电力有限公司信息通信分公司  210000

摘要:本文针对数据中心制冷策略展开了讨论,研究了机房传统制冷方式的优缺点。从提高数据中心制冷系统的可靠性、节能性以及运维的角度,分析了封闭冷、热通道方案技术特点,还有两种密封方式各自的适用场景。结合密封热通道在江宁机房环境建设项目-高效能云计算数据中心的实际应用,介绍了在特定场景下密封热通道方案的优势。

关键词:密封通道;数据中心;精密空调

Researchon Advantages of Hot-aisle Containment System in Data Center under Specific scenario

李沛 梅增杨 华纬韬 柳旭 徐惠臣 祁步仁

(Information & Telecommunication Branch, State Grid Jiangsu Electric Power Company, Nanjing 210024, China)

Abstract:In this paper, the refrigeration strategies of data center were discussed. The technical characteristics of cold-aisle and hot-aisle containment system,and respective appropriate scenario were analyzed from the point of improving reliability、energy efficiency and operation. Combined with the practical application of hot-aisle containment system in Jiangning data center construction project, the advantages were introduced in specific scenario.

Key words:Aisle Containment System; Data center; Precision Air Condition  


0引言

当前,数据中心已经成为企业生产系统重要的组成部分,是企业提升竞争力与运营效率的重要工具。随着个人信息消费需求、企业信息化程度的爆炸性提高及大数据、云计算、物联网、AI 等兴起,数据中心近年来的投资飞速增长,规模日益增大、功率密度不断提升,能耗数字居高不下。数据中心已经是全球第五大耗能产业,年耗电高达4000亿kWh以上。

精密空调作为数据中心L1层的重要设施,通过严格控制环境的温湿度在特定范围,对设备散热从而确保其可靠、稳定运行,但精密空调同时也是数据中心内除IT设备外最耗能的部分。激增的数据中心能耗和能源成本的攀升使得行业专家开始重新思考制冷系统的策略和方案。除了对空调本身的能效进行提升,如采用变频压缩机、EC风机、电子膨胀阀等,机房内气流组织的优化也是被认为是目前数据中心全生命周期最具前景的节能增效措施之一。

合理的气流组织应能将冷、热空气隔离,让冷空气顺利送入设备内部,进行热交换,然后将设备产生的热量再送回空调机组,避免冷热气流短路,出现不必要的热交换,提升机房内制冷效率。机房内进行冷、热通道布局方式的实践从2000年开始,慢慢演进到目前主流的行级空调制冷+气流遏制系统,让冷热空气混合最少,送回风路径最短。布局方式包括:密闭冷通道和密闭热通道。最新的国家标准GB50174《数据中心机房设计规范》和国际标准TIA-942《数据中心电信基础设施标准》都要求机柜布置需形成冷、热通道。本文主要对封闭冷或热通道的方案进行比较,结合实际案例,分析介绍了密封热通道在具体场景下的优势。

1数据中心气流组织

数据中心机房气流组织的形式是受机房本身建筑环境、设备布置方式、设备自身冷却形式、散热密度等多方面因素共同影响,按照制冷源与IT设备的远近可以分为机柜机制冷、行级制冷和房间级制冷。

(1)机柜级制冷气流组织,空调直接置于机柜中,紧挨IT负载,冷气流水平送出就近为负载散热,具备精确送风特点,是一种较为节能的制冷气流组织方式,如华为的FM800小型数据中心解决方案。此级别精密空调制冷量相对较小,比较适用于如二级分行和大型营业网点等场景。如用于中、大型数据中设备成本和安装成本会相对较高。

(2)行级制冷气流组织,目前中大型数据中心的主流方式,空调柜与IT柜并排布置,空调水平送风。

(3)房间级制冷气流组织,空调通常不和IT柜一起布置,而是部署于机房两端,通过地板下送风或风管上送风,达到为IT设备散热的目的。

当前气流组织的优化主要通过气流遏制实现,通过通道封闭隔离冷、热气流,使空调送风携带的冷量经最快路径直接作用于机柜设备,有足够大的温差进行快速、高效换热,而交换后的热气流也能集中回到空调的回风侧,促进空调能效的提升。

2传统机房气流组织

2.1 机房传统气流组织方式

传统机房通常使用房间级精密空调进行制冷,置于房间两侧,冷、热气流未做严格遏制隔离。如下图1所示。

图1 机房传气流组织

Fig1. Traditional Airflow Distribution in Computer Room

传统气机房气流组织是空调通过地板下送风或直接上送风给房间输送冷量,与IT柜出来的热风进行交换,达到给设备散热的目的。从路径来讲属于先冷却环境然后冷却设备。

2.2 机房传统气流组织的优缺点

2.2.1 优点

(1)无气流遏制措施,技术方案简单

(2)无配套通道组件,设备可独立安装。

2.2.2 缺点

(1)空头冷量无法做到按需分配,易造成机房内环境冷热不平衡,出现局部热点;

(2)冷热气流易短路,换热效率低下,空调回风温度不均衡,整体能效低。

3封闭通道的气流组织

3.1 概念

封闭通道,包括封闭冷通道或热通道,用于取代传统的数据中心“漫灌”制冷形式的气流组织方案。在机房传统的布置形式上,为IT柜加通道组件(包括通道门、通道天窗、以及通道走线槽、走线架等),形成“冷池”和“热池”,实现冷热气流的有序分离,提升机房整体制冷效率。按照使用不同形式的精密空调,气流组织方式也不尽相同。如机架式空调和行级空调可直接封闭通道布置,而房间级空调因与IT机柜分开布置,除了对成列的机柜通道做封闭外,根据上、下送风形式,需要架空地板或连接风管从而往密封通道内送风。当前主流的通道封闭是使用行级空调,按照模块化方式进行部署,如图2所示。

图2 封闭通道方案

Fig2. Cold-aisle or Hot-aisle Containment System

3.2 技术特点和价值体现

在机房内封闭通道,并结合行级制冷方案,相比用房间级制冷的方案对于地板架高高度要求更低,也可以无需架空地板,无需配置风帽、风管,对机房层高的限制低,能实现模块化的设计和部署,柔性扩容。相较而言,其技术特点和价值体现可归纳为以下四个方面:

(1)可靠:气流分布更加均匀,消除传统气流组织易出现的局部热点;负载共用冷池或热池,空调即使故障影响范围很小。

(2)经济:减少空调冷量的过度设计,降低建设成本;减少机柜的温度梯度,提升顶部机柜空间利用率;气流组织的优化得以提升机柜的功率密度,可合理规划提高空间利用率;冷、热隔离,可提高空调制冷显热比,减少除湿/加湿成本。

(3)高效:空调送回风距离短,风机功耗低;空调靠近机柜,制冷更快速;可以提高送回风温度设置,空调COP更高;增加自然冷却运行时间,充分利用自然冷源,降低PUE。

(4)美观:空调、机柜、UPS、配电和通道封闭所有组件颜色外观统一,基础设备尺寸统一,通道透明,美观度高,观赏性强。

通过上述封闭通道的技术特点和价值特性可比较发现,封闭通道行级制冷方案具有更明显的优势,而针对冷通道封闭和热通道封闭,在特定场景下又各有优势。

3.3 封闭冷、热通道对比分析

数据中心机房采用行级制冷方案,冷通道封闭和热通道封闭在不同场景下各具优势,对比如表1所示。

通道封闭形式

封闭冷通道

封闭热通道

说明

空调效率

封闭热通道,空调回风温度高,输出冷量及效率要更高

向外漏热

室外温度较高时,封闭热通道向外传导的冷量要稍多

外围设备友好性

当模块外有配电柜、电池或存储设备。封闭冷通道方案外围是热环境,会影响其寿命,需对其额外制冷。

对外围材料影响

封闭冷通道方案外围是热环境,装修材料、地板长期经受高温,影响耐久性。

对通道内影响

同上,封闭热通道,通道内地板处于高温,寿命缩短

运维环境友好性

封闭热通道,运维人员工作在冷区(22~27℃),舒适性较好;密封冷通道,运维人员工作在热区(>32℃),影响身体

故障后持续制冷时间

空调停止工作场景,封闭热通道相比封闭冷通道的冷空气容量更大,制冷持续时间长。

自然冷却利用时间

封闭热通道,通道内温度更高,且考虑运维人员都能工作在舒适区,相比封闭冷通道,节能运行时间更长些。

门禁要求

封闭冷冻道,设备正面在通道内,仅需通道设门禁即可;封闭热通道,设备正面面向房间,还需机柜门禁,成本要高。

空调噪音

空调噪音主要为风机,封闭热通道,空调风机朝外,噪音相比密封冷通道噪音要大。

表1 行级制冷封闭冷、热通道效果对比

Table 1. Performance Comparison between Hot-aisle and Cold-aisle Containment System with In-row Air Condition

通过上述对比可以发现,封闭冷通道和封闭道有各自更适用的场景特点和要求。

封闭冷通道,适用于客户对机房噪音要求较高,对设备的私密和安全性要求更高,以及机房结构密封性稍差或长期有人员进出回会导致冷量泄露较多的场景。

封闭热通道,适用于IT负载较高,客户对PUE极度关注,外部有配电柜和电池及存储设备,且经常有对外参观展示或运维人员需要常在外部通道办公运维的场景。

4 系统方案

4.1 项目介绍

该项目大楼位于南京市江宁区苏源大道。大楼地上主体共五层,本工程位于3层高密机房,包括机房配套的电源、空调、机房装修、智能化系统、消防系统和其他辅助系统,将建设成高效能云计算数据中心示范应用和配套建设项目示范应用项目。空调系统,是整体数据中心机房高可靠性和可用性的关键基础设施。这个系统不仅要确保设备运行的温湿度环境稳定,同时整体能耗和效率以及机房环境友好等也是必须重点考虑的问题。

4.2 设计方案

该高密机房核心区域面积260平方米,机房整体高度3.6米,架空地板0.6米,实际布置两个微模块,共68个机柜,单柜负载8kW。模块内布置了行级水氟转换空调,由水氟换热主机进行冷媒冷却和分配,前端配备风冷冷冻水主机集中制冷,为水氟换热主机提供冷冻水用于冷却氟,工作原理如图3所示:

说明: 定点制冷-冷冻水.jpg

图3 空调系统原理

Fig3. Principle of Cooling System

按照上述制冷方案进行设计,空调入列可以大大缩短送风距离,满足高密机柜散热需求。此外,使用水氟换热末端,与风冷末端相比,无需室外机,可大大节能室外机占地,同时避免室外机噪音干扰;而与冷冻水末端相比,水不进机房,可避免机房漏水隐患。

机房按照模块化部署设计,首先对机房总负荷进行核算,设备总功耗544kW,建筑围护结构、照明及人员负荷按照100W/m2核算,总负荷570kW。结合机房实际布局,选用30kW水氟转换末端和240kW水氟换热主机,每台水氟换热主机8个分支,最大能支持8台末端空调同时工作。最终机房按照模块化部署,如图4所示。

图4 高密机房部署

Fig4. Deployment of High Density Computer Room

两个模块采用封闭热通道的方式,空调末端按照N+2原则进行配置,共计27台,水氟换热主机共配置4台。基于上一章节冷热通道方案各自更适应的场景的对比,本项目采用封闭热通道设计更具有优势。

该高密机房属于示范应用,会有频繁的参观展示需求。按照机房对机柜进风要求在18~27℃,若封闭冷通道,模块外机房温度将在29~38℃,舒适性很差。而封闭热通道在保证机柜进风温度的同时,人员恰好也属于最舒适的环境温度下。同样的条件下,为保证封闭冷通道方案下,参观和维护时工作环境舒适性,回风温度最高确定在27℃,满负载运行时空调送风温度为16℃,与封闭热通道方案27℃送风相比,送风温度低首先是会导致冷机的效率大大降低,且对自然冷源的利用时间也大大缩短,不利于降低PUE。其次,较低的送风温度,会更容易形成凝露,对冷量的利用也不够充分。

从可用性的角度考虑,一旦制冷系统停止工作,机房内可持续为设备散热的冷源只有冷池内的空气。封闭冷通道方案,可利用的冷池空气体积82.8m3,而封闭热通道方案,模块外房间内的空气都可进行持续制冷,体积为531.6m3,相同的负载下,可维持设备持续制冷的时间是封闭冷通道方案的6.4倍。

5 结语

封闭热通道方案在模块化的数据中心中应用更适用于高密场景,能充分发挥其节能、高效的价值。该方案正符合了大数据背景下数据中心机房功率密度越来越高、对能耗日益重视、可用性要求更严格的的发展趋势。国网江苏电力-江宁机房环境建设一期-高效能云计算数据中心高密机房,结合实际场景和需求在制冷解决方案中采用行级水氟末端结合封闭热通道的系统性方案,提高了数据中心制冷系统可用性,整体更加节能高效,相比传统的数据中心和普遍的封闭冷通道设计给出了更合适的机房温控解决方案。

参考文献:

[1]李洪珠,段林洁. 数据中心封闭冷热通道数据模拟对比分析[J]. 制冷, 2014(3): 60-64.

[2]宋志鹏,王利平. 浅析数据中心机房空调系统设计及气流优化 [J]. 建筑工程技术于设计, 2010(6): 2815-2818.