打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
数据中心工艺和能耗特点

数据中心工艺特点



· 可靠性要求高
国标GB50174-2017《数据中心设计规范》中把数据中心分为A、B、C三级,A级机房可用性最高,C级最低。数据中心的业务连续性要求非常高,中断供电或制冷会造成极大损失。A类数据中心更是提出应达到自动容错的要求。


在国标GB50174-2017《数据中心设计规范》中,对主机房的环境要求给出了推荐值和允许值。


· 功率密度高

  1. IT设备功能越来越强劲,虚拟化技术的应用,随之而来的是用电功率密度越来越高。数据中心设备机柜平均功率密度由以前的2kW/机柜,提高到现阶段的6~8kW/机柜,在某些特别的数据中心,如互联网行业的整机柜布署数据中心和超算中心,平均功率密度高达20~50kW/机柜。

  2. 数据中心的极高的功率密度是其区别于一般工业和民用建筑的一个显著特点,也是衡量数据中心规模的重要指标,面积已不再做为主要指标,单位面积的供电和制冷能力成为一个标尺。机柜数量*单机柜功率密度,才是衡量数据中心规模的重要指标。


数据中心能耗特点



据测算,目前数据中心的总能耗约占全社会总能耗的2%,数据中心的节能减排已经成为重点关注的行业。同时,日益增长的能源成本正推动数据中心行业采用高能效的技术和设备等,来降低运行能耗。工业和信息化部、国家机关事务管理局、国家能源局2019年初联合印发《关于加强绿色数据中心建设的指导意见》提出:到2022年,数据中心平均能耗基本达到国际先进水平,新建大型、超大型数据中心的电能使用效率值达到1.4以下。

空调系统能耗特点



下图为一个典型的数据中心能耗的分布情况,PUE为1.92,IT设备占52%,是最大的能耗设备;空调的能耗占38%,在非IT设备里占据绝大部分比例。数据中心如果要降低能耗费用,减少碳排放,在无法升级IT设备时,空调系统是首先需要考虑的。空调系统的节能是数据中心节能的核心,也是降低数据中心能源消耗的重要途径,是数据中心节能潜力最大的环节。可以说,数据中心的PUE是否能降低到合理水平,主要取决于空调系统的能耗。

PUE控制在1.92左右的数据中心能耗典型分布为下图:
PUE控制在1.5左右的数据中心能耗典型分布为下图:
PUE控制在1.3左右的数据中心能耗典型分布为下图:
数据中心能耗分布PUE=1.3

提高空调系统的能效,降低能耗,不但可以降低能源费用,而且可以有更多的电力来支持IT设备,可以在相同的电力供给情况下安装更多的IT设备。
内容来源:
《数据中心间接蒸发冷却技术白皮书》

重磅权威资料亮相数据中心绿色能源大会

《数据中心蒸发冷却冷水系统及高效空调末端集成技术白皮书》

空调系统能耗在数据中心的PUE之中的影响因素较大,蒸发冷却技术以其有效降低PUE的特点而在数据中心行业得以迅猛发展。而蒸发冷却技术较为多样化和复杂化,除间接蒸发冷却技术外,蒸发冷却冷水系统及高效空调末端集成技术也存在较大的推广应用空间。近年来各种数据中心相关的高效空调末端获得了快速发展,与蒸发冷却冷水系统有效结合可发挥更大的优势。目前与蒸发冷却技术相关的“冷源 输配 末端”的系统集成技术在数据中心行业缺乏相关的技术指导文件。基于行业内少量案例以及技术积累,CDCC组织国内权威的咨询、设计、研究机构在内的科研院所、大型互联网公司、用户、总包、设备制造商等行业资深专家,共同启动开展了相关课题研究和成果编制。
主要内容:数据中心工艺和能耗特点、数据中心空调技术发展趋势、室内外空气计算参数、蒸发冷却冷水系统工作原理及系统组成、主要设备、水管理、补充机械制冷、蒸发冷却与机械制冷的冷冻水混合应用技术、高效末端与气流组织、运行模式与控制逻辑、不间断供冷、经济性分析等。

会议时间:2020年9月21-23日
会议地点:上海新国际博览中心
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
浅谈如何提升数据中心制冷能效
论文|长三角地区某数据中心空调系统设计
技术:数据中心全氟冷却技术的应用
浸没式液冷:数据中心主流液冷技术,龙头全梳理
东数西算概念持续火爆,大机遇面前如何分到一杯羹?
【网络规划设计师】每日一题
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服