打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
数据中心空调技术发展趋势(一)
数据中心面临着能源消耗日趋严峻的考验,数据中心空调系统的节能任重而道远。
 
绿色数据中心已经成为数据中心建设和使用方以及设备供应商的共识。空调制冷系统是数据中心的耗电大户,约占整个数据中心能耗的30% ~ 50%,制冷系统的节能受到了前所未有的关注。优化送风方式、冷热通道布局、冷热通道隔离、智能群控、利用室外自然冷源等方案已经呈现出百花齐放的现象。
 
在温湿度设定方面,GB50174 和ASHRAE 推荐的温度范围也放宽了要求。在保证机房设备正常运行的同时,可以减少机房制冷、加热、加湿、除湿的耗能, 降低机房空调系统的能耗并提高能效。
 
在节能空调设备方面,变容量压缩机、高效EC 风机、节能智能控制、自然冷源利用等技术的应用使得空调机组的能效和适应性越来越强。
 
对于水的关注也逐步加强,WUE、中水利用、循环水应用、雨水回收等也在数据中心的设计中得到重视。

动态制冷


IT 设备的生命周期一般为3~5 年,而数据中心基础设施的生命周期为10~15 年,而IT 设备的功率密度约每5 年翻一倍。因此,数据中心基础设施需满足架构弹性、分期投资等需求,这就需要空调系统也能实现动态制冷。目前,“按需制冷”、“动态制冷”成为数据中心冷却方案中一项很重要的评价标准,数据中心空调的冷量输出是伴随着IT 热负荷的变化而变化,是一个动态的、可调节的输出。
 
同时,目前大型数据中心多数承载的IT 业务不同,数据中心须匹配不同功率密度的IT 设备混合部署。不同IT 设备需要不同的环境温度,这就要求空调系统提供动态制冷,同时满足多种IT 设备的需求。

智能冷却


近年来人工智能技术领域研究不断深入和突破,已经在众多领域有较多发展应用,而人工智能在数据中心还不够普及,人工智能  数据中心拥有巨大的发展潜力,可以明显提升运行效率,降低运行成本,也使得制冷空调系统更加智能。
 
数据中心通常实际运行PUE 高于设计PUE,在中低负载时可以相差0.15~0.2, 实际运行中的低负载、不同工况下的调节特性及系统自身设计的富裕余量等因素使得数据中心制冷系统有较大的优化空间,这些优化过程涉及上百个控制参数及多层控制逻辑,若通过人工完成操作会给运营工作造成极大的困难,因此数据中心引入人工智能,可使系统实时运行在最优节能状态。
 
谷歌公司是将人工智能(AI)技术应用在数据中心冷却方面的行业先驱。该公司于2016 年在其数据中心设施采用了人工智能技术,并随着时间的推移不断改进。该人工智能系统每几分钟从大量传感器收集一次数据。随后AI 根据这些参数自动决定系统运行策略并自动控制系统,随着收集的数据不断增多,人工智能也不断自我学习,节能效果不断提高,应用AI 节能率可达到30%。
 

高密度制冷


近年来,随着IT 技术的高速发展,对数据的处理速度和处理能力要求越来越高。大量体积小、处理能力快、功能强的高密度机架服务器和存储服务器应运而生。单个机柜的功率由1kW、3kW 提高至5kW 以上,刀片式服务器甚至单机柜功率可达30kW 甚至更高。除了单个机柜发热量大的特点,一些数据中心还具有刀片式服务器的分布不均衡性;同时,在业务增长而增加网络设备过程中,不同机柜内以及区域的功率密度也会变得不均衡。
 
高密度数据中心的特点决定采用传统空调系统形式会出现很多弊端,例如当机柜的功率超过5kW 时,采用传统的集中式制冷方式, 实际运行时机柜顶部存在局部热点和地板下送风不足等问题,这些都将导致设备过热保护引发宕机。又如当刀片式服务器的分布不均衡时,导致机房各个部位发热量不同,加上一些机房因下送上回的送风方式,使得地板下线路拥堵,阻碍气流流通;同时网络设备增容过程中,不同机柜内以及区域的功率密度不再均衡,导致不同节点设备辐射的热量不同,这些问题都会使机房出现局部设备附近过热现象,即产生局部热点, 严重增加机房能耗,影响机房效率。因此合理设计适合于高密度数据中心的制冷空调系统也变得越来越重要。
 
文章来源:
《数据中心蒸发冷却冷水系统及高效空调末端集成技术白皮书》
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
怎样计算机房的耗电量?
【分享】数据中心水冷空调系统设计指南
PUE
数据中心设计要点简析www.huisheliren.com
不间断制冷技术在数据中心工程中的应用
机房的冷热通道系统
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服