APP下载

大型数据中心水冷空调末端设备的优化

2018-03-22谷峰赵世萍曹继业

中国管理信息化 2018年5期
关键词:数据中心

谷峰 赵世萍 曹继业

[摘 要] 近几年随着信息行业迅猛发展,云计算技术的普遍应用,服务器向着高功率、高密度的趋势发展。传统数据中心制冷系统的末端空调形式主要面向低功率服务器,较难适应云计算发展潮流。2017年某高校与某数据中心合作,在数据中心内部建立一个机房示范工程,应用热管空调技术,PUE值低于1.20,末端的空调形式适合高功率的服务器散热。数据中心结合现有设备,借鉴示范工程末端空调形式,提出针对高密度服务器机房的优化建议。

[关键词] 数据中心;精密空调;热管空调;空调末端

doi : 10 . 3969 / j . issn . 1673 - 0194 . 2018. 05. 063

[中图分类号] TP308 [文献标识码] A [文章编号] 1673 - 0194(2018)05- 0149- 04

0 引 言

在云计算席卷全球、云计算产业发展浪潮风起云涌的背景下,建设绿色数据中心、实现节能减排成为了近年来学术界和产业界关注的话题之一。传统数据中心企业原有的数据中心如何尽快转变成适合云计算要求的云计算中心,也是迫切需要解决的问题[1]。传统数据中心制冷系统的末端空调形式主要面向低功率服务器,较难适应云计算发展潮流。2017年某高校在某数据中心内建立一个应用热管空调技术的机房示范工程,PUE值国内领先。该数据中心结合现有设备,借鉴末端空调形式,提出针对高密度服务器机房的优化建议。

1 数据中心现有制冷设备

1.1 现有制冷系统

某中心采用水冷离心式冷水机组作为冷源,为数据机房全年供冷。设置4套(3用1备)1150RT制冷单元。每套制冷单元含:1台离心式冷水机组、1台板式换热器、1台冷却水泵、1台冷却水一次泵及1台闭式冷却塔。空调冷冻水系统采用环路设计,并用分段阀隔离各个故障点,保证单点故障时正常运行。冷冻水系统采用一次泵定流量、二次泵变流量系统。设置4台冷冻水二次泵为数据机房服务,二次泵配UPS电源[2]。

1.2 现有末端空调形式

每个模块的机房设置10+2套机房精密空调机组。模块机房精密空调机组采用下送风上回风的气流方式,送风经过开孔地板直接送至冷通道区。模块机房加湿采用湿膜加湿的方式,湿膜加湿器放置在模块机房的空调设备区内。

2 示范工程采用的热管空调技术

2017年某数据中心作为子课题承担单位,参与国家重点研发计划课题“数据中心新型冷却技术研发与示范”,参与示范工程建设和测试工作。

該项目建立一个数据中心示范工程,采用项目组所研发的模块化冷却系统和高效供电系统。项目投用后,预计全年运行PUE低于1.20,其中冷却能耗比低于0.16,供电能耗比低于0.04。该示范工程是多项前沿性技术和理论创新的综合体现。属于国内领先、国际前沿的数据中心示范点。

2.1 示范项目制冷系统

制冷系统采用全氟热管复合节能空调系统。全氟热管复合节能空调是利用室内外空气温度差,通过封闭管路中工质的蒸发、冷凝循环而形成动态热力平衡,利用较小的自然温差将室内的热量高效传递到室外,维持机房内部良好的工作热环境的节能排热设备。

2.2 末端空调形式

2.2.1 采用热管背板系统

示范工程项目共有6列机柜,其中E、F两列为高密度机柜,单柜功率最小为6kW,最大为12kW。这两列空调末端采用热管背板空调与专用的通信机柜相结合的热管排热机柜。热管依靠内部工作液体相变来实现传热,且工作液体的回流依靠重力,无须其他动力。热管排热机柜的风机能自动调速运行,能按照要求自动调节室内温度,系统可靠性高、能耗低。热管背板空调具有高可靠性,高显热比以及大风量的特点,能够适用于不同散热密度的数据中心。

2.2.2 采用热管列间系统

本示范工程机房A-D列采用热管列间空调系统,在机柜间预留位置,安装列间空调。为改善机房气流组织,减少局部热点及混风损失,提高换热效率,以2列为一个微模块的形式,封闭热通道,从而使机房环境为冷环境。

3 末端空调形式的优缺点对比

根据不同的末端空调形式,从空调应用场合、安全性、初始投资、后续运行费用、气流组织等方面进行综合对比。

中心现有的末端精密空调适合低密度机房,满足单机柜4kW功率的散热需要。但随着IT行业的发展、云计算等技术的广泛应用,IT设备发热量逐步升高。热管的背板和列间形式能更好地应对高密度机柜。

4 根据数据中心现状对于高密度机柜机房的优化

本项目室内末端采用热管背板和热管列间相结合的形式,室外机采用风冷机组,整套设备采用全氟利昂系统,但室外机整体投资费用较高,而且室外机布局受楼顶区域限制。

针对高密度机房的优化首先要考虑到将高密度机柜进行整合,集中放置在若干个机房之内,针对这些机房进行优化。以最小的投入,取得最优的效果。优化过程中,考虑以下几方面内容。

4.1 关于冷源的选择

中心现有制冷设备为水冷离心式冷水机组,冷量有较大富裕。配套闭式冷却塔散热效果好于全氟热管空调室外机。因此改造后制冷系统冷源仍使用冷水机组,考虑使用中间换热器连接热管。

4.2 关于末端的选择

根据中心实际情况,目前10个机房机柜已固定完毕,更换列间空调需拆除部分机柜,且入驻高功率服务器,需要列间空调数也随之增加,服务器机柜数进一步压缩,此方案不可取。列管空调末端也可采用吊顶式空调,但吊顶式空调要求地板与棚顶之间净高在4米以上。中心机房现有高度不满足条件,调整吊棚高度工程量较大,且吊顶式空调有冷凝水滴落的风险,此方案不可取。

末端使用背板空调仅需在现有机柜外增加框架,将背板固定在框架之上,机柜厚度增加约200mm,施工便利,适宜规划中的高密度机房使用。

4.3 中间换热器的相关要求

根据冷源的选择,需增加中间换热器。供热管背板系统的中间换热单元底部与热管背板顶部应满足一定高差。中间换热单元与热管背板在同层安装,应设置在机房与走廊之間的隔墙上部,中间换热单元及所接冷冻水管均不得进入机房。

板式换热器建设采用一拖多形式,每列背板热管配置一组冷凝器。该冷凝器采用双系统结构,每组冷凝器分为冷凝器A、冷凝器B两个制冷系统。

4.4 冷冻水管路设计

数据中心动力站接出4根DN350的主干管,供水管线形成环路,在需使用热管末端的机房外预留DN125供、回水接口;根据机柜数量,机房外预留接口为10供10回,根据机房设计,每个机房需配置20个中间换热单元,为避免单点故障,需要将2根供水及2根回水管路分别做成环路,连接4个中间换热单元,为中间换热器提供冷冻水的供/回水,实现管路冷冻水系统双管路备份系统。

4.5 IT设备区的热管背板系统制冷剂管路设计

机房机柜每列为单回路管路设计方式热管背板的管路连接方式为相邻两个机架连接不同的中间换热器。以满足热管背板系统单回路冗余备份的设计要求。当其中一个背板发生故障时,其邻近的背板将感应到环境温度有上升的趋势,此时邻近的背板将增大循环风量,提高冷量输出,以补偿故障背板的冷量。发生故障热管背板可在线检修、单独在线更换。

通过以上几方面的改造和优化,能够在数据中心现有设施设备的基础上,快速搭建适合高密度服务器的机房。

5 结 语

随着云计算技术的普遍应用,服务器向着高功率、高密度的方向发展。传统数据中心制冷系统的末端空调形式无法解决高密度服务器的散热需求。本文通过分析各类空调末端的优劣,考虑应用现有制冷系统设备,末端空调改造的可行性,提出使用水冷离心式冷水机组作为冷源,使用中间换热器,末端使用背板式热管系统的优化建议。

主要参考文献

[1]邓维,刘方明. 云计算数据中心的新能源应用:研究现状与趋势[J]. 计算机学报,2013(3):583-598.

[2]王建民,曹继业,赵世萍. 自由冷却技术在大型数据中心制冷系统中的设计原理[J].信息与电脑,2013(9):117-118.

[3]Zhenying Wang, Xiaotong Zhang, Zhen Li,Ming Luo.Analysis on Energy Efficiency of an Integrated Heat Pipe System in Data Centers[J].Applied Thermal Engineering,2015(90):937-944.

[4]Tao Ding , Zhi guang He , Tian Hao , Zhen Li.Application of Separated Heat Pipe System in Data Center Cooling[J].Applied Thermal Engineering,2016(109):207-216.

猜你喜欢

数据中心
酒泉云计算大数据中心
数据中心ECC设计方案研究
关于建立“格萨尔文献数据中心”的初步构想
数据中心制冷节能技术及应用
民航绿色云数据中心PUE控制
大唐电信数据中心产品解决方案
基于VMware vSphere的高校数据中心建设
10kV油机在大型数据中心的并机控制与切换方案探讨
浅谈云计算数据中心在沪宁高速公路中的应用
基于云计算的交通运输数据中心实现与应用