打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
优化计算中心机房的送风方式与节能
送风方式对能耗的影响本课件作者:丁涛。观点:不能因为计算中心占地面积大,能耗大就可以大手大脚,不计成本。其实计算中心挖潜的余地很大,优化计算中心机房的送风方式就是一个很好的例证!
下送风方式优于其它送风方式
对全国几个具代表性的大型IDC机房进行调研,(同室外环境温度35~38℃的状态下):
内 容
下送风
专用空调机房
上送风
专用空调机房
上送风专用空调
和普通空调间隔安装
服务器运行负载功率(KW)
1120
255
112
509
空调同步能耗功率(KW)
550
322
121
981
空调占服务器能耗的比值
49%
126%
108%
192%
温度梯度的图解模型:
根据数学模型,我们建立温度梯度的图解模型,机房不同高度的温度梯度可模拟为下图(下送上回方式见图a;上送下回方式见图b)。
温度梯度图形解析
由下图中最右的温度梯度图形可知,在同一个机房的相同环境下,两种送风方式在机房空间的温度梯度存在明显差异,其差值可由下图表示为:
下送风方式是计算中心机房最佳的气流组织方式。它使温度在机房工作区整个高度上的阶跃值小于上送风的方式,因为它阻止了设备放出的热量再返回到机房工作区,提高了制冷效率,节约了能耗。
对上送风机房的送风改造措施
上海电信某上送风IDC机房,其通信设备发热量与空调机冷量数据如下:
机房名称
机房面积
空调总容量
设备总发热量
机房冷负荷(设备发热量+其他冷负荷)
主机房
450㎡
308.5KW
187.95KW
215KW
网络机房
100㎡
47.1KW
21.575KW
28KW
小 计
550㎡
355.6KW
209.5KW
243KW
由于IDC机房热量大,上送风空调冷风吹不远,往往在机架走道1/2--2/3距离内有效果,其余地方是热浪滚滚。为此,我们采取计算摸拟的方式来确定介决方案:
采取加装接力风机的方式,见下图。机房经过两个夏季的考验,效果良好。
机算中心上送风机房另一种改造方法:管道上送风方式(节电20%以上)
下送风的两种形式
(1).IDC机架工艺(冷风架内循环)
IDC标准机架工艺
(2) IDC机架工艺(冷风架外循环)
冷风架外循环理想状态
架外冷风循环不理想状态
两种气流组织方式比较
机架内
机架外
1
风阻
2
先冷却机架内
3
先冷却环境
4
影响机架上部冷却
机架实测:
某数据中心
单个机架发热量:2.8kW
送风方式:下送风上走线
实际测试:
送风平均温度为18℃,机架出
风温度为30℃
小结
采用冷风架内循环(小于4KW/架)时:
*假地板高度0.5米,机架顶应加装强制风冷电机。
假地板高度0.5米,功耗2KW/架左右可不加装强制风冷电机。
*假地板高度大于1米时,机架可自然冷却。
在冷量足够时,要确保冷风路由不短路,不紊流,这才是空调节能的保证!
气流组织要适应高功率密度机架约束气流和自由气流
气流的流动有2种基本形式,一种是约束流,即在有限空间内被强制按照人为规定的路径流动,例如风管内的气流, 机架内的风道;另一种是自由气流,例如上送风系统中的射流。在计算中心机房中,约束流的计算方便,气流利用率高(不容易形成呆滞区),在冷却设备时应首先考虑此种方式。自由气流对环境冷却中可以应用,由于其有较好的弥漫性,对控制环境有很好的作用。
气流短路和送风扩散
气流短路主要是存在短路路径,例如空调出风口和回风口太近且无物理阻隔,就会造成空调气流短路,又如在机架中,进风的前腔和排风的后腔的水平空间中没有隔板,也会造成冷气不经过服务器而直接短路到排风。气流短路还可能发生在前后没有良好隔绝的服务器进风和排风口。短路的气流是有害的,没有按照规定的路径带走热量,只是空循环。
在实践中,我们对送风扩散做过测试,选择前面板开孔的机架,测量进风速度、排风速度和机架内参考点温度,然后将面板封闭,在其他工况完全的情况下,数据有明显差异。
上表说明,在面板开孔情况下,由于送风无效扩散,风速大风量大能耗增大,而冷却效果下降。
一个刀片是一个卡式服务器,上面装有处理,记忆单元,硬盘,整合的以太网 NICs,可选的光纤HBAs通道,硬件方案管理及其他 I/O 技术。
IBM:
Each BladeCenter chassis occupies “7U”– 每個刀片机箱占“7U”;
Max 6 BladeCenters in standard “42U” rack – 每個机架可裝6個机箱共“42U”;
Max heat output per BladeCenter: 4kW – 每個机箱最大發熱量4KW;
Max heat output per rack: 24kW – 每個机架最大發熱量24KW;
Nominal cooling airflow: 6×850 = 5100 m3/h –額定散熱風量 6×850 = 5100 m3/h。
Dell:
10 PowerEdge 1855 Blades occupy “7U”–10個PowerEdge 1855刀片占“7U”
Max 60 PowerEdge 1855 Blades instandard “42U” rack–每個机架可裝60個PowerEdge 1855刀片共“42U”
Max heat output per 10 Blades: 4.17kW–10個刀片最大發熱量4.17KW
Max heat output per rack: 25kW –每個机架最大發熱量: 25KW
Nominal cooling airflow: 6×680= 4080 m3/h – 額定散熱風量: 6×680 = 4080 m3/h
kW/m2→KW/Rack
刀片服务器是插入一个供应共用框架,如电源,制冷,服务器管理,KVM开关的机箱
每个机箱是7U,每个机架是42U,也就是每个机架可装6个机箱
目前刀片服务器在数据中心一般都分散装在几个机架上
重量也是问题-满载机架大约可达到900公斤
由于在同一个机架上的刀片服务器不可能同时满载,实际上的热负荷小于估计值(IBM和Siemens只为他们的设备提供最大15KW的制冷量)
对策
a.低功率密度(小于4KW/架)
下送风架内循环,效率高已采用
b.中功率密度
下送风+活化地板,己有部分机房在试用
活化地板系統:
EC 風機,由独特的控制軟件控制
c.高功率密度(大于12KW/架)
下送风+冷池+活化地板+吊顶(风管),修改目前规范。
多种对策在一个机房的应用:
专用空调与普通空调对能耗的影响
计算中心机房显热量大:
专用空调显热比为0.95压缩机能效比3.3
普通空调显热比为0.65压缩机能效比2.9
以CM20A专用空调为例:总冷量19.1KW,则显冷量18.2KW;
普通空调要产生18.2KW的显冷量,则:18.2KW/0.65=28KW
两种空调的年耗电计算:
专用空调
(19.1/3.3)*24*365=50702KWH
普通空调:
(28/2.9)*24*365=84579KWH
普通空调比专用空调年耗电量大:
84579/50702=1.67倍。
计算中心机房的节能管理
(1)节能减排工作的理念:
a.计算中心是耗电大户,一定要有节能意识。
b.一切服从于安全供电,不断提高供电系统的可用性永远是第一位的,安全供电是最大的节能,不能牺牲设备的使用寿命。
c.节能数量不能是无限的,大多数节能是节约原来多消耗的那一部分。
d节能在短期内还需要一定的投入。
e节能不能增加维护工作量。
(2)节能管理的三种模式
A.减少能耗(节约)型节能;
限制用能:“人走灯灭”
非高峰时段停开部分电梯;(不影响使用)
B.设备改善(更新)型节能;
用新的高能效的设备(如:改造相控)
C.运行改善(优化管理)型节能。
负荷追踪的动态管理:装置与供电局同步的智能电表(统计用)
成本追踪的动态管理:跟踪电费单。
(3)系统功能:(供参考)
1 实时监控
●实时能耗监测
●能源质量监测
●主要设备运行监控
●实时能量平衡
2 设备优化
●能耗最优的控制模型
●优化控制
3 需量管理
●设备分组管理
●控制优先级
●提前调节预警
●线路运行方式自动识别
4 无功管理
5 仿真优化
●自动负荷仿真建模
●仿真运行
●仿真调度
6 成本单耗分析
●成本分摊
●单耗分析
7 其他能源管理
8 能耗审计(选项)
●帐单校核
●生成审计报表
9 决策支持(选项)
●预测分析
●项目改造效果预测
●数据综合分析
10 系统维护管理
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
数据机房节能降耗解决方案,一年能节省几十万电费
浅谈数据中心IT机房的空气调节(上篇)-气流遏制
01-通信机房空调节能-桑永礼
IDC 机房空调问题解决方案
中国约有数据中心50万个,空调系统耗能极大,如何设计才更节能?
冷通道封闭、热通道封闭,到底哪个更好?
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服