打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
怎样计算机房的耗电量?

一、 目前我国大型数椐信息中心用电情况

目前我国大型数椐信息中心用电量比起先进国家差距比较大。例如我国机房的能效比PUE在2.2以上,而谷歌(Google)数椐中心PUE值是1.2,他的PUE平均值只有1.07。

调查国内机房用电分配是:IT占44%,制冷占38%以上(有甚至的高达50%),其余电源、照明占18%左右。可以看出制冷耗电是影响PUE值的关键,空调冷是机房的耗电元凶。

国内专家曾大声疾呼,吧制冷耗电降下来,要多采用自然通风。看谷歌(Google)数椐中心是怎样做到的?谷歌(Google)把它的数据中心建在美国西海岸北部,哪里气候干燥寒冷、四季自然通风,没有硫和粉尘污染,气温较低没有空调制冷。这些自然环境决定了它的PUE低值。看来少用制冷设备,采用自然通风是降低用电量的关键。

二、 机房关键设备机柜的功率

机柜有服务器(大容量)柜功率为14~30kW;标准存储柜有3~5kW;网络柜1~1.5kW。它们的组合比例是按规划用途设计的,其中标准存储柜占绝大多数,是决定它们的平均功率的决定因素。例如北京电信通三元大厦互连网数据中心(简称IDC):它是北京电信通在京投资兴建的规模最大、功能最强、网络资源最丰富的数据中心(它位于朝阳区三环北路三元大厦四层,比邻中国国际展览中心)。该数据中心内使用了思科、MGE、等多家国际一流厂商的先进技术和设备,;它外网出口有:电报大楼、中国电信、中国联通、中国铁通、中国网通、灶君庙,其次在外省市也有节点,保证最大端到端延迟时间<100ms,网络丢包率<1%,每年网络不可用时间<50秒,可提供的网络利用率>99.99%。该数据中心正在为用户提供全面的高质量服务。

它的机柜配置如下:机柜总数268台,其中大容量服务器柜10台(每台14kW);网路柜9台(每台1.5kW);设备柜和核心(配电)柜8 4=12台(计80kW);其余全为标准存储柜237台(每台3kW)。以上IT总功率944.5kW,因机柜是单向供电,换到三项并考虑功率因数(0.85)应为:

944.5/1.732/0.85=641.6kVA;

该系统能效比PUE为16;

它的每台平均功率为944.5kW/268=3.6kW.

该系统用电配置了1000kVA变压器一台;还配置了四台200kVA的UPS电源作为停电急用。

调研知国内金融行业机房机柜多在3~5kw之间。

三、 我国数椐信息中心机房用电发展趋势

本文并不认为机房单台用电功率随发展趋势而增大。原因是:

1、大量先进技术的应用使机柜耗电下降。

机房中耗电量大的是大容量服务器机柜,只要把用电大户耗电降下就事半功倍。目前推广应用的云计算储存、云计算技术在IT也得到应用,用标准-模块化技术,采用云存储的高性能机制和PB级规模下高密度低功耗的运作模式将有效控制云计算耗电量,可使大容量服务器机柜用电不大于4kW;

我们还能透过虚拟化技术,将10部实体服务器整并成一部,即可减少最高80~90%的服务器用电量。

在IT技术不断普及的今天,数据中心的作用日益体现出来。如何建设一个绿色节能、稳定可靠、能满足不断变化的IT需求的数据中心,也成为数据中心的管理者和建设者们一个非常关心的问题。而云计算、虚拟化以及大数据在数据中心中的应用,使得未来数据中心充满了活力也充满了变数,但我们可以相信更加节能稳定的数据中心离我们以及不远。

 大量智能模块的应用;如电压调节模块、自动检测模块、系统自动控制模块可使机房在最节能有效情况下运行。

2、国家及企业对绿色环保、节能的重视使机房耗电下降

国家有关部门高度重视我国数据机房的能效鼻PUE值在2.2以上,专家也呼吁尽快制定机房建设节能标准。估计新的标准PUE在1.2~1.6之间;

企业也在根据自己的需求建设技术先进、功能使用,经济合理、绿色环保节能的数据中心上下功夫。在节能要求上尽量要求设计部门细致做到最先进的机房布局;采用自然进气,尽量减少制冷设备的使用。还有很多降低电耗的方法,如:

降低大容量服务器的用电量,比如我公司服务器并不需要绘图处理器等,因此拿掉不需要的零组件,不但减少电力的浪费,由于零组件数量降低,风扇的使用数目也可减少,提升整体服务器的用电效率;

加装气流辅助设备,如果有建置高密度机柜的机房,高密度机柜容易产生热点,可以在机柜后方加装气流辅助设备,这样一来,热空气就不是透过热通道将热带走,而是透过气流辅助设备,将机柜的热量集中直接往天花板排送,加速机柜的的散热速度。

 平均分配高密度机柜——高密度机柜如果摆放的位置过于紧密,容易因为热点,造成机柜冷却效率不彰,此时,如果只是强化冷却效果,不但造成空调的浪费,机柜冷却的效果有限。于是,将高密度机柜平均分配在整个机房环境,比方来说,机房某一个区域,都是摆放负载量不大的机柜,这个时候就可以将部分高密度机柜摆放至该区域,也因此,透过「借用」未充分使用的冷却效能,不但可以解决高密度机柜所造成热点的问题,透过平均分担,也减轻空调系统的负荷,更重要的是,也减少空调系统电力的支出;

 采用无变压的UPS设备——随着企业规模的扩增,IT设备的采购量也会跟着递增,设备越多,就需要更多的UPS设备来强化电力系统的稳定性与可靠度。目前有越来越多的厂商推出无变压式的UPS设备,可以让整机效率提升至90%,相较于传统的UPS,效率只有75%至85%,透过无变压器的UPS能更有效率的使用电源,让每一度电都花费在系统运作上,进而降低电力成本;等等。

四、对我公司机房用电量的测算

根据以上论述,考虑项目实际情况及数据信息中心发展的趋势,本项目决定上10000个标准机柜,每台机柜用电功率定为7kW。能效比PUE为1.4。总用电为:

7X10000X1.4X0.8/0.95=82562.32kW

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
PUE
能耗指标与数据中心规模
能源 | 新基建:未来的用电大户
计算机房电费如何计算?
IDC微模块机房的案例设计是什么样的?
浅谈如何提升数据中心制冷能效
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服