打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
【HVAC】上海某数据中心空调系统设计


1 项目概况

  项目位于上海市某科技园区,机房标准按照A级机房+T4级别设计,数据机房建筑面积为28 657 m2,机房区2层、办公区4层(局部6层),框架结构。机房1层层高为5 m,2层层高为4.2 m,办公区层高为3 m。IT机房和精密空调机房区域设架空层,1层机房区域架空地板高度为1 m,2层机房区域架空地板高度为0.75 m。1,2层共设计16个模块化数据机房,其中5 kV·A机柜2 823个,3 kV·A机柜1 377个,总机柜达4 200个。


2 数据机房空调系统

2.1 空调负荷及设计参数

  机房内空调负荷主要有围护结构、人员、灯光、新风、IT设备负荷等;湿负荷主要为工作人员进入机房产生的偶然性湿负荷。主要特点如下:新风量小、显热负荷大、湿负荷很小、空调送风量大、空调系统全年制冷运行,IT设备负荷占比最大(70%~99%)。该项目数据机房冷负荷14 083 kW,占总冷负荷的95%;预留后期发展增容负荷4 200 kW。因该项目对安全性要求较高,考虑机房全年无故障运行,结合项目所在地极端最高温天气,按照夏季室外计算干球温度45 ℃、湿球温度31.5 ℃配置冷却塔。该数据中心核心区室内设计参数见表1。

表1 核心区室内设计参数



2.2 空调冷源设计

  数据中心空调冷源形式有:风冷直接膨胀制冷型、水冷直接膨胀制冷型、冷水制冷型。该数据中心设置集中冷源,采用冷水制冷型。根据GB 50174—2008《电子信息系统机房设计规范》A级机房的设置标准,参照TIA-942—2005《数据中心电信基础设施标准》中的有关规定,在1层设置2个冷源(NN配置),每个冷源内的冷水机组、冷水泵、冷却水泵和屋顶冷却塔等设备均相同配置(两机房轮值),以保证在一路电源丧失时,另一个冷源能够100%保证数据中心的安全运行。制冷机的安装可根据业主实际的增容过程分期投入,在初期建设至最终满负荷运转过程中,均可实现实际运行负荷率在25%~100%之间变化。

  10 kV冷水机组相比380 V的冷水机组初投资更省,变压器损耗也小很多,该数据中心每个制冷站设计4台39 742 kW(11 300 rt)的10 kV高压离心冷水机组,机组中各设置1台变频机组以加强低负荷工况的调节能力。冷水管道按照A/B双路设计,可互为备用。A/B环路公共区域用防火板作物理分隔。夏季工况:冷水供回水温度12 ℃/18 ℃,冷却水进出水温度39 ℃/34 ℃;冬季工况:冷却水进出水温度15.5 ℃/10.5 ℃,制冷站1(同制冷站2)冷源系统原理如图1所示。


图1 制冷站1冷源系统原理


  考虑柴油发电机启动时间10 min,电制冷冷水机组启动时间5 min,蓄冷罐作为应急冷源能保证在满负荷下持续供冷15 min,设计蓄冷罐容积480 m3,位于室外。连续供冷由蓄冷罐、空调冷水泵和精密空调保证。空调冷水泵、精密空调机组由UPS供电,供电时间15 min。平时蓄冷罐处于蓄冷状态,充满12 ℃的冷水。当双路市电断电,系统向柴油发电机供电转换期间,在冷水系统恢复正常运行之前,冷水泵、机房精密空调连续运行,蓄冷罐处于放冷状态,提供IT机房精密空调机组冷水,保证IT机房的不间断供冷。


2.3 空调水系统设计

  数据中心冷水系统为2个独立的系统,并且独立于大楼舒适性空调系统,每个冷水系统均采用一级泵变流量系统,根据最不利回路末端压差控制水泵转速,调节水泵变频器频率,改变用户侧水量。为提高系统的安全性,冷水主干管布置成环路,设置于1层走道和空调机房间内,2层走架空层,为远期建设扩容预留条件。机房扩容充分考虑机房空调的预留位置及检修条件。

  每个制冷站的冷却水系统设计采用母管制,冷却塔进出水管道采用并联,冷却水泵与冷水机组一一对应,冷却水泵定流量,冷却塔风机变频。

  每个制冷机房附近设有冷却水补水池,由两路市政给水,当市政给水出现故障时,水池容积最少满足系统满负荷连续运转24 h。

  两路冷水经不同路由送至各楼层及各空调机房,满足容错系统的物理分割要求。冷水管路系统及机房精密空调均为2N配置,任何一路冷水或任何一台精密空调故障,均不影响关键负荷100%运行,保证在线维护的需要。当空调设备突发故障时,能及时关断故障设备两侧的阀门,检修或更换故障设备,同时还能保证除关断阀门管路之外的空调系统设备的正常运行。


2.4 免费供冷技术应用

  该工程设计采用冷却塔免费供冷系统,每台制冷机配有1台板式换热器。根据室外环境温度的变化,制冷站分为制冷机供冷模式、部分免费供冷模式、完全免费供冷(节能)模式。制冷机供冷模式由冷水机组供冷,板式换热器不工作,冷水不经过板式换热器直接被旁通之后进入制冷机。部分免费供冷模式是制冷机与板式换热器同时工作,冷水先进入板式换热器预冷后再进入制冷机。完全免费供冷模式是当室外温度降到一定值时,完全由冷却塔通过板式换热器间接向末端空调供冷。

  当冷却塔出水温度高于16 ℃(对应湿球温度10 ℃左右)时应采用制冷机供冷模式;当出水温度低于10 ℃(对应湿球温度约5 ℃)时,采用完全免费供冷模式;当出水温度高于10 ℃且不超过16 ℃时,可以采用部分免费供冷模式。

  基于上海地区的累年气象参数统计,全年中约27.9%的时间可以利用免费供冷,其中16.3%的时间(1 430 h)为完全免费供冷,11.6%的时间(1 022 h)为部分免费供冷。上海地区日平均温度在5 ℃左右的时间大约有3个半月,其中冷却水出水温度低于10 ℃的时间累计约2个月,最高出水温度高于10 ℃而低于16 ℃的时间超过1个半月,因此约有2个月的时间可以使用完全免费供冷,1个半月时间可以部分使用免费供冷,节能优势明显。


2.5 空调风系统设计

  该数据中心采用温湿度独立控制的空调方式,数据中心的内部湿负荷很小,通常由新风机组承担。

  为了保证机房内空气的品质与湿度,满足机房内工作人员健康的要求以及保证机房内正压,机房区的新风量根据以下原则确定:1)按工作人员新风量40 m3/(人·h);2)维持室内正压5~10 Pa;3)夏季采用等室内露点温度送风,控制室内湿度。

  该机房的新风量按换气次数1 h-1设计,采用自带冷源风冷独立新风机组,向房间供应新风。在2层和屋顶层共设有16台组合式集中新风机组。新风对IT和电气机房施加正压,使渗入的灰尘和微粒减到最低的水平,同时控制室内湿度,防止静电和凝结水聚集,保证机房内人员新风要求。

  夏季新风是以等室内露点温度送入室内,冬季新风加热至12 ℃(高于室内露点温度)后送入室内吊顶,与机房空调机组回风混合后再送入室内,湿度由安装在数据机房架空层或送风管内的湿膜加湿器控制。当机房内部相对湿度低于40%时启动湿膜加湿器进行加湿。


2.5.1 空调系统配置及气流组织

  采用机房精密空调机组,2N冗余配置,下送风、上回风,高效EC风机变风量运行,配置微电子控制器与效率为65%的空气过滤器(0.5 μm颗粒)。机组需要双路(A路、B路)供电,末端相互切换。其中部分精密空调设计加湿功能;下送风各空调机组采用导风管送风进入活动地板,利用集中回风口进行回风。机房精密空调机组的冷水供回水温度为12 ℃/18 ℃,冷通道送风温度16 ℃,热通道回风温度29 ℃。精密空调机组设定送风温度(16 ℃)高于室内露点温度(12.8 ℃),机组为干工况运行,全部承担显热负荷。


2.5.2 机房冷热通道设计

  机房内部机柜采用面对面/背对背的摆放方式,面对面之间的通道为冷通道,背对背之间的通道为热通道。机列与机列之间形成相对封闭的冷通道和热通道,目的是对发热设备进行精确送冷风,然后再从隔离通道回风,让设备有效地排出热空气,该方式消除了冷热气流的短路现象,而且可以针对不同发热量的设备进行风量匹配和冷量调节,冷风利用率很高,实现了定点、定量输送冷风,大大提高冷空气的利用率,提高末端精密空调的制冷效率,从而极大提高机柜冷却效率。研究表明,采用精确送冷风方式,送风量下降42%,能耗明显降低。

  该数据中心通道间距按8块地板的宽度设置。冷通道设2块可检视地板块(600 mm×600 mm),开孔率40%。热通道上方吊顶设置回风口。冷热通道设计见图3。

图3 冷热通道设计


2.5.3 机房气流组织设计

  数据中心机房空调系统气流组织有下送风上回风、上送风前回风(或侧回风)等方式。地板下送风方式是目前数据中心送风的主要形式。按照冷热通道设计,空调送风由高架地板送入冷通道,冷风精确分配到IT服务器,热排风经由热通道顶部设置的回风口,回至精密空调机组,气流组织更为合理,在大大降低空调能耗的同时,也保证了设备的安全稳定可靠运行。精密空调机组设置在专用空调间,机房精密空调沿机房长边侧进风,单侧单排且垂直于机架布置,送风距离控制在20 m以内。机柜的散热气流基本为从正面吸进冷风,从背面排出热风,机柜也多采用前后网孔门。网孔门的通孔率取决于设备的发热量和通风量的要求。机柜前进风,前门开孔率≥60%,孔径应为4.5~8.0 mm,开孔区域面积比≥80%;后门开孔率≥50%,孔径应为4.5~8.0 mm,开孔区域面积比≥70%。


2.6 机房CFD模拟

  数据中心机房气流组织模拟的目的是检验空调输出的冷空气是否按照设计的意图、按照设计的流量和流速,均匀分配到目标设备上以达到冷却效果。对于地板下送风,地板下为静压箱,只有保持静压箱中有足够的静压且静压的分布相对均匀,才能保证每个机柜的冷风量。通过CFD技术对机房的气流组织进行了模拟和验证。

  静压箱内的气流在机组出风口处速度较大,随着送风进一步扩散,气流速度逐渐衰减,在气流末端,即静压箱中间位置,气流速度最小。压力分布整体比较均匀,靠近送风口处气流压力扰动较大,送风末端气流压力趋于稳定。

  低温送风气流可以较好地通过发热机柜后由排风口排出,机组降温效果明显。由于机柜是主要的热源,温度分布呈现明显的冷热通道。送风通道温度较低,排风通道温度较高;发热机柜整体上温度都被降低,靠近送风通道侧的机组温度降低较快,满足机柜运行需要,与设计意图一致。从模拟结果看,由于冷量集中在通道内,服务器得到更好的冷却,减少了气流短路现象,室内气流组织路线清晰,空调的无效送风量大大减少,空调的运行时间缩短,运行费用降低,制冷和节能效果显著。


3 数据中心通风系统设计

  数据中心机房和电气机房均设置气体灭火,在气体灭火区域设置灾后废气排除系统。换气次数设计为5 h-1

  电池室设有机械排风,换气次数平时3 h-1,灾后5 h-1。电池室排风系统兼灾后排风。电池室排风支管上设2个排风口,一个设在上部,排除可能产生的少量氢气,另一个靠近地板,用以排除灾后废气。

  钢瓶间设有排风系统,分为平时通风和紧急通风2种模式。平时通风换气次数2 h-1,常年运行。紧急通风在室内消防气体浓度超过安全值时启动,关闭系统中其他房间的风阀,事故房间风阀全开,换气次数5 h-1


4 空调系统安全要求

  数据机房的功率密度由20世纪90年代初的0.1 kW/机柜逐步提升到21世纪初的1 kW/机柜以上,现代刀片式服务器的出现,使功率密度骤然提升到10 kW/机柜甚至100 kW/机柜以上。数据中心空调负荷强度高,即使在冬季仍然需要空调供冷。一旦空调系统出现故障,IT设备散热量无法及时消除,机房温度很快超过设备对工作温度的要求,可能会导致IT设备损坏,造成巨大损失。因此设计时须避免空调制冷系统的单点故障,保证系统24 h全天不间断供冷,并且能在线维护(保证系统不间断供冷的情况下维修或更换部分设备或者配件)。首先冷源方面,设计采用备份甚至双冷源系统,空气源热泵系统供新风机组及辅助区域空调;冷水机组供数据机房的精密空调。主机均按Nxx=1~N)设置备用,同时蓄冷罐作为应急备用冷源,保证系统断电时不间断供冷。在管路方面,冷源侧及末端均采用复线或环路设计,以提高水系统的可靠性与安全性,保证系统不间断运行。数据中心空调系统按容错2N配置为:两路市电电源、备用电源、2套低压配电系统、2N冗余的机房专用空调系统、机柜系统。共同实现不间断的数据信息服务,系统就有高可用性、高可靠性、高安全性、高可扩展性。


5 数据中心节能要求

  评价数据中心的能源效率,行业中采用PUE值来衡量,PUE越接近1,表明能效水平越好。目前全球数据中心的平均PUE为2.0,发达国家的PUE约为1.5~1.8,我国80%以上的数据中心PUE大于2.0,有的甚至高达3.0,该项目设计PUE为1.42。

  数据机房空调系统能耗巨大,其节能潜力也很大,空调节能设计体现在以下5个方面。1)冷源方面,提高冷水供回水温度至12 ℃/18 ℃,制冷机COP可达6.28,部分负荷下可达8.1,以及采用变速驱动的离心机有效提高其满负荷及部分负荷的性能系数。4)冬季采用免费供冷技术。3)数据机房采用温湿度独立控制的空调方式。4)数据机房服务器采用封闭冷热通道的冷却方式、避免冷风和热风的混合,从而提高末端冷却的效率。5)数据机房与外围护结构间设置走廊或辅助设备用房,同时数据机房楼不设外窗,减少数据机房与外界的直接接触。这种机房布局方式也使外围护结构负荷对机房负荷的影响降至最低,使机房负荷维持在一个相对稳定的范围内。


6 结语

  近年来,我国通信产业迅猛发展,服务于各行业的大型数据中心越来越多,机架设备功率越来也大,对空调节能技术提出了新的更高要求,需要进一步拓展机房节能潜力的空间。数据机房设计时,要各专业紧密配合,考虑将综合的节能集成技术应用在项目中达到远期和近期统一、合理。空调专业要保证为机房提供良好的运行环境,采用机房专用恒温恒湿精密空调,合理设计气流组织,充分考虑机房空调系统安全性和节能性,为未来5~10年预留一定的扩容空间。


本文刊登于《暖通空调》2016年第8期

作者:

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
机房制冷变革需从合理规划开始
大型数据机房空调系统设计
气流组织优化—数据中心节能的魔术手
机房为什么要设计冷热通道,设计原则及如何施工?
典型数据中心机房设计方案
PUE是什么?说说数据中心和PUE
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服