打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
钟景华:数据中心建设现状与标准的变化

  【IT168 资讯】2015年11月19-20日,由中国工程建设标准化协会(CECS)主办,中国数据中心工作组(CDCC)、综合布线工作组(CTEAM)联合承办的2015中国数据中心年度论坛暨中国优秀数据中心颁奖典礼于11月19-20日在北京新云南皇冠假日酒店成功召开。

  来自Uptime Institute、The Green Grid (绿色网格)、UL、TUV NORD集团、腾讯、百度、阿里巴巴、设计院、领导企业等机构的50余位技术专家应邀将在大会上做了精彩的主题演讲。同时,在会议现场,共有数据中心行业的54家企业集中展示了数据中心产品和解决方案。

  钟景华:数据中心建设现状与标准的变化

  数据中心标准的问题主要涉及到标准的修订,在2008年奥运会《2008年电子系统系统规划》发布之后,到现在已经将近7年多的时间。在这七多时间中,数据中心的建设发生了很大的变化,所以标准也要跟随变化,新的规范名称叫数据中心设计规范已经通过了专家审查,最后获得住建部的批准才能发布。

  前几年美国一家咨询公司发布的全球数据中心占有率的统计,给大家展示图的目的,就是让大家知道中国数据中心的前程非常宽广,我们是朝阳行业。在这个图表里面美国占全世界44%,中国占了10%,日本、新加坡等等占5%。新加坡这样一个小小的国家占全世界的5%,中国这么大一个国家占10%,相对来讲还是少的,说明建设数据中心的任务还是很重。因为中国人口众多,十几亿的人口,人口越多所需要的信息量就越大。

  中石油北京数据中心:在这个数据中心里面,我们没有用市电。大家知道数据中心是耗电大户,也是高载能用户,把这个能源变成了信息传输到世界各地。但是在这个项目里面,我们用的是天然气,利用天然气的能源梯级预热,先发电,发完电预热制冷。一个电一个冷,通过一个天然气把这两个事全部解决,而且实现了清洁能源、分布式能源国家倡导的概念。这个项目前年也曾经在咱们工作组获得最佳设计奖。

  新疆建设的灾备数据中心:在新疆克拉玛依,主要是一带一路沿线上的,为哈萨克斯坦等国家利用的中心,还有为新疆政府、企业用的数据中心。现在一期工程也正在试用过程中,二级、三级正在筹划过程中。

  光大银行正在首钢搬走之后的空地上建设的数据中心:目前增正在设计过程中,3万平米的数据中心,加上3万平米的办公建筑,在北京地区也是属于大型项目。

  浙商银行在杭州建设的数据中心:给大家看这张图片的目的,数据中心不仅仅是一层、两层、三层、四层,可以建几十层,但是数据中心是在下面,上面是写字楼,可以和写字楼一起建设,也是非常壮观的。

  陕西广电数据中心:在西安新区刚刚完成设计,准备施工,也是3万平米设计中心,加上运维、办公等等建筑。

  深交所数据中心:3万平米完全用旧厂房改造,原来是一个家具生产工厂,现在全部该该数据闲心,现在正在招标设计,正在建几十万屏幕的数据中心,这是目前中国非常大的项目。

  大家关注的张北数据港数据中心,由上海数据港这个数据中心承建数据中心,也是规模非常庞大的一个数据工作群。一期工程已经建筑封顶,正在设备安装过程中。

  我们按A级叫做数据中心容错,对于A级标准过去规范里规定非常严格,等级非常高。但是经过这几年互联网行业、云计算行业等等行业的发展,发现了A级标准虽然好,但是它要求比较高,建设成本比较高。我们在新的国家标准里面,把互联网行业、云计算行业也列进来。A级标准最重要是容错,只要不违反容错原则都可以是A级,什么是容错?就是允许系统前面犯错误,可最终的结果是对的。怎么前面系统是错的,后面结果是对的?就必须有两套或者两套以上的系统在同时运行,任何一套系统出现错误,另一套系统就能承上,这就是容错的思想。

  新的国家规范把国家标准分为三种类型,一种数据中心的基础设施。按容错系统配置,这里面明显提出容错,在电子信息系统运行期间,基础设施仍在一次意外事故后获单系统维护或检修时,仍能保持电子系统运行正常。这里强调三点:

  第一容错;第二一次事故。这也是现在这两年大家总结出来的数据中心越做越复杂,投资越来越高,造成使用方的承受能力一次一次被挑战。现在标准都重新定义了,现在结果只考虑一次,不考虑一次事故两次以上发生。

  比如说我们有两轮市电,柴油发电机,不考虑在市电的时候柴油机出现故障。不能说市电停了,柴油机也坏了,这种情况是不考虑。

  第三单系统设计,单系统故障。A级系统是双系统或者三系统在同时运行,我们只考虑同时运行单系统,不能要求两个系统同时维护,我们的设备还能正常运行,这是不可以。

  A级数据中心涵盖B级、C级数据中心性能要求,其实比B级、C级系统要求更高,意外事故包括操作失误、设备故障、正常电源中断等,一般按照发生一次意外事故做设计,不考虑多个意外事故同时发生。设备维护和研修也只考虑同时维修一个系统设备不考虑多个设备同时维修,这是A级机房的一种情况。

  A级系统典型的系统图:这个系统图框图已经经历了A个项目,是非常典型,非常可靠。双系统,两个市电接入备用,后面的变压器都是“1+1+1”出现,一对一队出现,UPS也是“2N”或者“2N+1”出现。所有的IT设备都是双UPS供电,任何一套系统出现故障,另一套系统都能全部负责机要,这就是A级基本的思想。

  信达资产在合肥建的数据中心:目前设备正在安装过程中,刚才这个标准A级就符合金融行业的要求。这个园区也是17万多平方米建筑,其中数据中心是2万平米。

  A级标准第二种情况,主要是针对互联网行业。互联网行业认为前面的标准好,但是造价比较高。针对现在的情况,一般互联网行业一路用市点,一路用UPS情况,也是双系统,也满足容错的要求,只是有一路电源质量有问题,也可以归为A级。但是只要满足下列条件才可以做。A级系统数据中心同时满足下列要求时,电子信息设备的供电电源可采用不间断电源和市电源相结合的供电方式。

  1)设备或线路的维护时,应保证的电子信息设备正常运行。第一句话就告诉你必须是双系统。

  2)市电直接供电的电源质量应满足电子信息设备正常运行的要求。也就是说我们一有一路是市电直接供电,如果这个地区市电供电质量差,质量差就是经常断电。这种情况就不能用现在这个做法,比如电源质量满足的要求的情况下,才可以一路市电或者UPS来供电。

  3)市电介入处的功率因数应符合当地的供电的部门的要求。这一条主要针对IT设备主要针对非线性设备,非线设备就产生大量的斜坡。当把电源质量问题直接反应到电网上面,在企业里面直接的反应是什么?就是功率因数下降,也就是误工产生了非常多,这时候会被供电局罚款。这种情况下要对斜坡进行处理,要让功率达到0.59以上才可以。

  4)柴油机电机系统应能够承受容性负载的影响。其士商所有发电机都在感性生产,如果说你在IT设备,IT设备属于容性负载,也就是供应性是超前的,在这种情况下柴油机会因为温度升高、柴油温度升高等等产生宕机等等。如果直接供电的时候,要采用柴油机发电的时候,要让柴油机容忍容这种负载的影响。

  5)向电网注入的总电流皆含量的不应超过10%。我们IT产生的斜坡大概30%-40%,如果不超过10%,一定对IT设备进行斜坡处理。

  这是第二种情况的系统框图:在这个框图里面可以看到和刚才框图基本一样,实现了双系统,实现了容错。不一样的地方,就是UPS少了一组,一组UPS加上一路市电供电,每一个UPS供电都是一路市电加UPS供电,和刚才两路UPS供电区别在这里。现在BAT三家和360等等,互联网行业用得非常多,这也是为了节省建设投资。

  腾讯汕尾建设将近10万平米的数据中心,共6个模组组成,全国采用我刚才说的这种系统。

  A级系统第三种情况对云计算来讲,对基础设施来讲对于云计算来讲就是要弹性,什么是弹性?也就是最高负荷和一般负荷时候都能满足需要。比如刚过去“双11”阿里在28秒就破亿,1分多少秒就破10亿等等,这是负荷两搞的情况,平时是没有这么高的负荷。如果我们的数据中心按照高负荷去建设,在平时是非常浪费的。如果按照一般的负荷去建设,在高的负荷时一定不满足要求。怎么满足在高负荷低负荷都满足要求?必须要让这个数据中心有弹性,所谓有弹性不是建一个数据中心,两个、三个同时建设,要建一个集群,每一个数据中心间隔40-50公里,让它们自己之间形成一个网络实现这种弹性。在平时的时候,我们可以互为备份,在高峰的时候,我们可以同时运行,实现这样的功能。

  A级数据中心一的一种情况,主要适用于云计算数据中心、互联网数据中心等,当两个或两个以上不同区域的数据中心互为备份,且数据实时传输备份,业务满足连续性的要求时,由于数据中心之间已实现容错功能。因此其基础设施可根据实际情况,按容错或冗余系统进行配置。

  以数据中心之间的“容错”实现A级数据中心的要求:也就是说美国的T2或者T3不到这样的情况,但是我们这一个集群,我们不认为它是A级,实现互相的容错。

  亚马逊数据中心已经建好,正在安装。

  数据中心选址对节能和规范非常重要,国家主要同位置上进行了强调:

  电力供应应充分可靠,通信应快捷通畅,交通应便捷。通信敏捷通畅是非常必要的。在中国有很多的地方电力非常充足,我们可以去建数据中心。通信畅通、快捷。数据中心就是一个发电厂,网络就是我们的电网,数据中心如果没有网络的支持,就是一个孤岛运行,是没有任何运输,所以数据中心离不开网络,网络离开不数据中心支持,这两个相辅相成的。

  采用水蒸发冷去方式制冷的数据中心,水源应充足。数据中心制冷两大方式,一种是风冷,一种是水冷。这两种各有利弊,风冷机组节省了水,但是POE耗电量相对高。也就是说每天耗水量是600吨,这样去算一天600吨,一天是多少水?这个水量是非常大的数字,我们要想建设水冷数据中心,一定要水源充足。

  自然环境应清洁,环境温度有利于节能能源。这也是倡导到西部建数据中心的原因,我们IT设备耗电量大,如果把数据中心放在北方可以节省很多能源。比如在能建数据中心完全采用的自然冷却,只有在极端天气下才会采用电制冷,是非常节能的方式。

  应原理产生粉丝、油烟、有害气体以及生产或储存具有腐蚀性、易燃易爆物品的场所。这一条大家可以理解,在大家新的规范里面有一个特别的变化,就是在天津发生大爆炸之后。有了一个新规范,要远离爆炸储存2000米以上,这一次爆炸腾讯数据中心离爆炸点1公里多,基本上没有损害,只有轻微损害,但是国家明确规定要大于2000米。

  应远离水灾和水灾隐患区域及自然灾害贫乏地区:也不是不允许这些地方,但是建设成本一定会。比如水灾,有些人说这个地方绝对不会发生水灾,你能保证水管、水供用材质一定可靠。深圳大厦刚刚落成3年,突然有一天水管爆裂,自来水管把地下水淹没,大楼里面也有数据中心同时停电。这个就造成了事故。也就是说我们除了防止设备的损坏,也要防止人为的损坏。

  应远离强振源和强噪声源:这个大家不好理解,为什么远离这个,因为所有设备都怕振动的。网上有一个视频,有一个人对折存储设备大吼一声导致设备停机了。因为大吼也是强遭声源。

  应必看强电磁场干扰:

  A级数据中心不宜建在公共停车库的正上方:这也是国家新的标准规定的,在草稿的时候不允许建在任何停车库的正上方,但是在征求意见的时候,后来把这一条改成不应建在停车库正上方。如果这个数据中心是你自己家,可以自己选择,但是数据中心是我们最核心机密的地方,也是别人最向破坏的地方。即使在中国没有炸弹,但是能保证每个人在下面开车水平都那么高,每个人水平不撞在柱子上产生振动,要建就是不能达到A级的标准。

  大中型数据中心不宜建在居民小区和区内,与住宅的距离不宜小于100米:这是去年上海建数据中心离小区居民非常近,导致居民打官司,最后导致居民赢了。因为数据中心噪声非常大,主要是冷源的噪声,冷却塔、噪声机组也好,我们测算过一台数据中心一台左右,机组不可能是这么多。在这种噪声下人是失眠的,所以居民会打官司,在这种情况下也不安全。居民会往楼上扔砖头等等,也把冷却塔坏了。

  我们重新测算过,在大概70-80米的时候,这个噪声可以达到和平时噪声一样的情况,规范规定出100米。这个恰恰在前几天法国也出现了这样一个事情,也是居民跟数据中心打官司,也是噪声等等问题。也就是说这个噪声不仅在国内出现,在国外也出现,所以国家规定出这么一条。

  距离甲、乙类厂房和仓库不英小于2000米。所谓甲、乙类主要是闪点低于多少,就是容易爆炸的意思。

  数据中心建设在年度论坛讲了两大核心:第一是电源系统,尤其是分级标准中,A级系统该怎么配置,怎么结合中国国情,该怎么样扩展。再一个数据中心选址、安全问题做了一个图文并茂,做了一个详细介绍。

  华为中国区网络能源解决方案销售总部总工程师杜坤:《极智节能,慧享简单——模块化指挥数据中心建设》

  第一、目前业务数据正在极具爆发的过程中,但是整个网络或者通信行业的飞速发展,导致整个数据中心的业务,实际上建设分两部分:第一个整个大型化数据中心集中一个爆发,现在数据中心一些网点配合。如何去建设这个场景是非常重要,现在最大的问题,在大型数据中心爆发式的增长,如何建立一个合适、合理切合用户的数据中心。这里首先谈到一点,增长迅速之后我们建设还是在一些比较缓慢的过程中。比如咱们的数据中心如果提到技术设施,风火水电是我们碰到最常见的问题,最传统的模式都是按照一步到位的模式规划,包括我们电、UPS、空调、水等相关东西都是一次性按照容量规划这样的业务。规划业务带来的风险也是巨大的,很多人没有这样的经验或者没有这样的能量,因为没有前人给我们的能力,决定这个数据中心到地上业务,或者这个业务能达到一个理想的状况。

  第二、既然业务上线,上下之后如何保证业务快速运行。在现在大数据、互联网时代,可以看到整个业务上线和运营一定非常迅速,及时响应到客户的需求。我们短时间之内整个业务上线是无法预估的,但是在匹配这块业务的时候,如何做到真正核心的业务设施,如何准确的匹配这是很难的,目前这一块也是所有业务和业主最头疼的问题。

  这里面要提到一个非常大的概念,既然要建设一个数据中心,再申请一个合理,比较有用的环境之后。首先要解决一个问题,我们如何去建?这个建谈实际就是主业务,再谈到实际就是机会,如何在一个有限时间内不知你的机会,这是一个非常大的命题。最主要来说,传统业务整个功能模块相对独立,相对结构间、走廊等等相对独立,这里面有一个优化布局对比。如果现在用一个先进化模块对比,在同等基础上可以做到250个,如果传统通道只是单纯机会,大家只是建了235个,如果不按最传统配比只有212个。在以后的数据爆炸和增长中,尤其我们单个最主的业务模式能放更多的机会,或者整个收入会更加好,这也是我们为业主解决的问题。

  当然我们IT设备有很用的一个数据,或者很有意思的数据。给出一个数据报告,现在看到整个数据中心运维,大部分数据处在不太饱和的情况下。第一组数据看到电、数据、容量都可以看到在70%左右,这是我们认为是一个合理的数据中心,在IT层面上资源已经达到比较优化利用的数据中心。但是下面就比较明确,电、冷只有50%,但是机会容量已经达到一个饱和。就是数据容量就是IT和基础设施没有配合,联动上导致你的资源造成一定的浪费。

  回到基础设施本身,对于基础设施衡量基础设施最有效的一个值,就是POE,如何利用如何明确?能量的使用或者整个运维的费用花在哪里?这里面有一个数据对比出来,目前包括北京、公信部建都1.5、1.6,但是看大于1.8数据中心比比皆是,但是最高数据中心能到2.0、2.5以上。我们只看1.5、1.6,如果数据中心每天在电费花费超过2000万,这个数字非常恐怖的。先不说全世界,结合中国体量,数据中心很明确成为全球最大耗能产业。按照这个来说,以后这样的电费消耗是难以承受,作为绿色这个值也是我们主流超导的东西。

  当然如何区别你的数据中心,真正是一个环境影响?这里面有三个因素比较明确。配合风火水电来说你的空调、水、制冷方式以及搭配是最重要的一个因素。

  机房复杂化、人工维户困难、如何怎动化?我们最重要的三个感知。我们一个数据中心变得非常复杂,但是专业从业人员没有多少,或者您能找到多少?一个专业人员既懂IT,也要懂软件,还要包括云计算、机构等等这些基础东西。这两种方式你更愿意选哪个?这个答案毋庸置疑,如果用运维来管理节约成本我们是喜闻乐见的。我们跟南方主管聊过,现在两层四栋楼的运维机房,工程师每天早上都不用干,每天把四层楼巡视,就需要一上午。如果出现故障巡视时间就更长,这个时间也是经常忽略,也是目前应该关注的。毕竟建完之后这个运维就是我们应该最关注的一部分。

  数据中心的资源如何最大化建立:刚才提到两点很明确,我们的数据中心只分为两部分,一个是建设,一个是运维。运维从关键先一个要素,从运维真正做不到欠使用、不够使用,人员如何搭配或者如何做到最高效的应用,这是相辅相成的东西。在建设初期所有的东西,在数据中心隔地选定之后就决定了,但是如何更有效的利用这是我们所有关注的一个课题。

  业界很多友商,这是一个模块化的模式,现在很多人把很多广泛接受。从产品特点来看分硬件和软件两个层面。硬件层面很简单,集中供电、制冷、机会秘密通道化让把它变成一个可能。尤其一家拥有核心器件厂商更有管控健康和生命状态。或者谈级用户身上,从建设初期到使用初期,使用时间在工厂运制、安装等等做到非常合理的应用。在空间上由于高密、可复制一些特源,一些可以机动设计的大部分的适应。现在规模化的设定比较简单,一方面标准,一方面能适应目前大部分应用场景。

  当然从产品行为上来说,我们也确实存在大中小三个产品。大中小三个产品也可以很明确,目前单贵的方案,从简单规模化方案,从规模化数字方案,都可以满足所有需求,唯一区别就在于整个体量和运维大与小。刚才PUE是衡量主要指标。刚才提到如何在一个有限的空间下最大化布置你的机会?这是后续关注的问题,这是单柜解决的手段,也是我们最有效的解决手段。对于客户、业主来说,单柜的模式,除了运营模式来说这已经成为最重要的一个因素。

  当然这里面还考虑智能化运维,现在很多友商已经在从事这方面的一些研究,管理软件这里更多谈到跟IT层的管理软件,如何识别你的资源?我有多少个数据中心在全国分布在哪里?目前健康度是多少?使用量是多少?目前那些业务在放业务?单柜布置了那些东西,还有在哪些东西?这些软件统一管理,可以让所有用户实时知道,到底还有多大空间,资源还有多少余量,什么时候筹划下一步的建设。这一切的建设可以通过数据化全部满足。

  谈到基础设施层和达到,大家都非常研究。基础设施IT层是完全分成两块业务,之间没有任何通信,没有任何联动。基础设施规划非常完美,非常好。我们的空调选择非常好,最后上了IT业务不清楚。IT业务单柜达洗煤达不清楚,这两个截欧的断层,达不成。目前我们做一些开发,对L1层和L2实时监控,温度等,让整个IT业务温度达到一个平衡。

  我们基础设施本身来说,目前还是聚焦四点,如何管控我们风火水电,这里面一个基础管理系统是必须的。目前所能做到这条管理系统各自有各自的优势,从根本上意义上还是两套管理系统。有机整合以后,让整个用户只需要针对一套界面就可以完整管理一套数据中心,现在整个数据中心已经包含了或者已经具备了一些供单、报表等等一系列系统。目前这个阶段已经实现了全部的功能,已经不存在任何问题。

  目前根据数据中心来说,华为公司所做到一些实践。首先针对所有的大、中、小型场景有完整的解决方案。根据我们解决方案的层级和应用分为500、800、1000等全系统的解决产品。在这个上来可以不解决整个解决,华为从软件层面到核心部件、整套模块系统,这在一块已经有非常多的案板案例可以供大家做信息参考。

  自动化部分,在基础设施层集中在两块:自动化供应系统和智能化供电系统。包括风扇、风能和电池,从系统级到部件级,甚至到器件级做到全生命周期的监控,在这里受到提示信息。第一知道我的数据中心已经做一些更换或者改进。另外在自动化功能系统上,目前也是后台联动,设施职能、变频智能变成了现实。这一块最大影响的数据中心单U实现这么一个概念。

  现在目前做到单柜160供配电,也就是在160平方厘米下一套解决了全系统,如果按1000万能支持超过20个机柜的一个模块化整合,只需要一个单个配合。另外对整套设施的监控,包括一些烟感、温感、温湿度等等照明化。

  另外在目前规模化小场景下,我们现在一个单柜也整合了两套电源,加上风能电源的整合,这样在业界来说做了一个首创的力度。

  康宁通信大众化区企业网技术市场经理房毅:《数据中心光纤系统未来之路》

  三个小主题:第一个对行业目前的探讨;第二在数据中心规划建设方面,我们基础设施有怎样的转变和当前的状态。第三分析在数据中心建设和规划方面,怎么样选择一些最高最优化的方式来构建我们的数据中心。

  第一对行业的需求,不论大家从事数据中心哪一个专业系统,实际上认识是大家共有的。对信息、信息的需求量是越来越明显,越来越大。从网络的发展,大家也能够非常简单,非常清晰得到这样一个理念。从图上看到,早期以太网的建设、标准出现到目前最新100G的标准,我们200G、400G以太网标准也在建设当中,发展是非常非常迅速。目前这个标准已经行业存在的,有些是在发展的。目前到了40G和100G行业标准,最新200G、400G行业相关都正在做一些研究。

  在整个数据中心发展研究当中,跟网络有关的是网络设备。我们通过两张图表给我们这样一些信息。第一网络交换机,交换机是网络当中最重要的一个设备。网络交换机的端口和带宽的需求代表了介质的需求,应用基础设施约束的类别和种类。大家通过图片可以看到,在2014、2015年得出一个数据,网络产生一个非常明显的需求。早期万兆可能出现一个相对平稳或者停滞的一种状态,大家从图上可以看得到,40G也会处于相对平稳的状态,不会上升的过程。需求量更大的话,可能100G甚至更高的速率的需求,相应设备也会做出一些变化和调整。

  除了网络交换机之外,就是服务器端口跟我们服务器相互呼应。我们拿到数据显示出来,在2015年左右服务器端口主要是万兆为主,新的行业标准正在做一些。这周正在看到新的是52G和50G,单通道的行业标准已经差不多要推出。在这种情况下,其实我们可以看到,未来200G和400G更多基于25G和50G多通道的负用。我们得到信息在未来20G、40G、50G这样一个通道会逐渐慢慢呈现一个上升的趋势。

  在整个光纤应用当中,大家都知道在整个高速运行当中,早期低速率的时候,在使用单一的光纤采用单波长的信息方式。随着信息需求量,带宽两又不能提供更高要求的时候。我们目前在光纤上使用的复用技术,这个复用技术,用多个波长实现容量的扩张。第二张图并行光学的应用,也就是在每一个通道速率不能得到提升的情况下,可以采用多采用复用技术,从而达到更高的带宽。这两种方式在整个光纤通信行业当中都是采用的,而且是相应的技术出现。

  由于在数据中心,大家多合光纤是我们应用主要方式。不管WDM还是并行光学,实际上单模还是多摸都可以实现,在数据中心是多模为主。在多模光纤上怎么样使用这样的技术提升我们的贷款,达到的传输熟虑的提高。

  在当前多模光线设计当中有两个标准:第一个两芯标准的,目前行业并没有给明确的定义,但是实际工程应用当中有这么一个用法,在移动光纤上可以通过多波长的使用提高传输速率。第二在目前的以太网等都有明确的定义,包括2010年出现的标准,今年出现HT新标准,我们怎么支持在多芯光纤上多传输技术。

  现在相关行业标准正在做类似于OM5光纤,但现在还没有OM5这个名字。我们怎么通过多波长实现光纤传播速率。我们现在的40G实际应用当中,就是怎么向未来40G、100G过度方式。通过多波光纤和更多光纤复用,比如每一对光纤实现10G、20G速度,可以在40G光纤达到这个应用。

  除了以太网之外,光纤通道也是在数据中心当中重要的两类网络应用之一,一个是以太网,一个是通用网络。同这个数据可以看出来,不光是以太网,在发表当中也是有类似的发展路径。也就是说未来会沿着两芯或者四芯的方向用。现在都是以两芯就是8GFC、16GFC,下面可能是32GFC或者12GFC,未来可以向更多比如64G、128G等更多的路径。

  在数据中心当中基本所有从业的专业人士大家都知道,在光纤采用非常少的,都是少的安装方法。给的图负责简易,在描述方面工厂在建设方式的做法。基于这么一个系统,目前大家都知道通常都是采用12芯MPU的接头做转化,转成两芯的接头。我们对这个是非常新的,不管是2芯、四对12芯,都是以两芯作为一个基础。不管12芯、24芯、32芯、48芯等都会到2芯、8芯、12芯、24芯。后面我们也做了一个对比分析。

  除了正常12芯、24芯或者8芯使用,网络架构正在进行演变,这个演变主要跟前面讲的嘉宾也提到有关系。其实网络这种动态性在逐渐增强,网络架构主要应和网络附载均衡或者平衡我们处在能力而发生的。网络的演变就是由早期,比如从三层的网络结构逐渐向扁平化趋势发展。扁平化的结果带给给我们布线系统,因为布线为网络做服务。网络也会发生变化,可能网的扁平化导致光纤的使用量远远超过我们预期,可能在同缆方面逐步减少,更多是使用机柜内短距离的连接,通常主干连接通常光的系统。

  我们做了统计,通过下面的比例做了统计。比如早10年数据中心同缆做到80%,现在比例正好翻的一个。现在看到数据基本再一个数据当中,光纤的使用量达到2/3,或者达到80%左右。这个数据来自交换机、以太网或者带宽速率需求。这里面提到一个数据,交换机对40G、16G通道需求增加,光纤的使用量自然而然就会得到更大的扩展。

  分析关于行业背景一些标准,还有网络结构,网络对于速率需求的变化。我们看到了第三个,就是怎么样思考或者考虑我们在构建数据中心选择我们,或者评估网络基线性。

  就是对布线成功考量,在任何技术发展和演进当中。我给大家展示,在通常通信当中作为一个常规的演化周期,在我们使用两芯技术和四对光纤技术方面是有一个选择,这个选择是基于收发器的状态。我们给出这个接收器,在4-5年生命周期会呈现这么一个变化。两芯是基于现有的光纤技术,具体不能花时间分析细节。我们采用比较新的技术,两芯的光纤实现传输,必须要采用比较新型的收发技术,如果大家考虑一个成本考虑,会考虑两芯的技术,这个综合成本比较低的。

  不光考虑网络成本,也考虑了其他成本,做了一个分析对比。基于单模和多模,我们给大家做了一个成本对比,对比下来。在使用100G多模,这个是结论。从目前来看,考虑未来的应用,我们认为基于多芯光纤应用技术,多模技术经济性是最好的。

  刚才给大家提一个图,这个图有2芯、8芯、12芯、24芯等等,同行业说为什么早期用12芯,这是历史上12芯一个延长。实际历史上最优化12芯并不是最优化,我们分析出一个过程。比如光纤利用率方面,如果未来都使用8芯系统,很明显12芯不是最优化,会有浪费的图表。把所有12芯、8芯、24芯做了一个对比,通过对比认为8芯多模系统,对于未来不论2芯、4芯400G适用率是最高的。通过这个表给出一个结论就可以的,给大家做出的建议,认为多模的8芯系统是我们当前和未来发展方面,适用性是比较高的,也就是说它是最优化的。

  同时做了另外一个图的分析。大家已经提到的以太网数据通信,在数据中心面临两类的网络应用,这方面也可以看得出来8G系统是最优化,光纤的使用效率和可用性方面都是最高的。

  第三还有一个非常重要的,在网络设备应用方面都是以8、16、24、32为基础的。这样的基础其实也碰到客户在使用当中的不方便。在使用当中会有使用匹配的一些顾虑,在真正使用当中会发现有一些光纤使用率不高,会存在浪费的问题。也就是端口的映射,我们都是很容易查到数据。在现有的系统当中,可以看到所有跟设备相关,基本上都是86、32等为基础的。基于这样一个端口配合,当然使用8芯光纤在配合使用方面效果是最好的,或者是最优化的。这个图表可以看到,这方面是绿的,并非最优化的可能性出现。

  总而言之,在整个数据中心跟光纤发展有关,我们认为数据中心带宽需求、网络速率要求是非常明显的,光纤的使用率大家也是有目共睹得到非常快速的提升。在系统构建提升和方面跟我们系统有非常密切的关联,在未来发展方面,我们认为2芯和8芯在光线路线技术方面发展的主要方向。

  大家在使用光线系统的时候,或者选择光线系统的时候,要充分考虑到当前和未来的应用。最后几个图片也帮大家分析,8芯的光纤系统向未来系统扩展,或者我们的光纤使用效率和端口映射方面,都带给大家非常好的便利性和优化。

  最后一章介绍,作为康宁公司是整个行业当中一个创新的领导者。这是我们的今年7月份在全球统一发布的8芯系统,是目前行业的第一家,整个系统是全部是8芯。这样用户在使用这样一套系统,可以更好满足现在和未来系统扩展的使用。其实创新是无止境的,当时在下面跟行业几个朋友聊天提到,OM5光纤现在有这个名字,但是这个名字现在不存在。现在新型光纤叫宽带型的WBMMF光纤,这个工作预计2016年初形成这么一个标准。这个标准是兼在3和4的情况下,把带宽做了更高的扩展,这个扩展并不是光纤原来波长的扩展,是在光纤使用过程中做了扩展。它将来的波长可能更宽,不可能限于现在的850nm,可能是880nm而,可以非常容易实现100G传输,我们技术不久待到市场上,便于用户更多的选择。是使用宣传的MS光纤,还是面向未来的更多宽带型的应用光纤。

  让用户选择光纤提供用户的初衷,也是希望大家更好把现有系统和未来的活动作为一个非常简单,非常平滑的一个升级。

  泰豪公司技术总监傅学东:《数据中心柴油发电机组》

  第一已经对数据中心进行了分类解读,A级是没有冗余,B级有部分冗余,C是全冗余。柴油发有两种运行方式,一种是单机运行方式,在负荷不大的情况下,单机不大的情况进行容量备份。还有多机并联方式,在数据中心附载比较大的情况下,可以选择多机并联的方式和分级做一个备份。

  这里面有一个例子,比如这三台柴油机发电机组,当一台机子故障的时候,通常采用“3+1”的方式对柴油机进行冗余。另外一台机组在一台机组激动切换。在数据中心也把柴油机发电机功率给大家稍微分享一下,因为这个定义大家对到底选哪种功率?

  柴油功率:

  一个运行时间、一个负载系数。持续功率系数是百分之百,百分之百可以持续运行,基本功率是70%,国家标准是70%,我们的系数100%,也可以对运行实现,每年运行比如500小时,应急备用功率一个是对时间,对运行的负载系数都有要求。一个是200小时,70%。备用基础和备用功率,这是大家经常提到问题,是不是备用机组是不是备用功率,不是的?备用功率只是我们刚才讲的功率,不能超载,按国家标准每年运行200小时,这个功率零做了一个比值,这个比值1.1:1:1:0.7,这个比值是按照国家标准比。就是对不同厂家对负载系数是不一样的,大家在选型的时候要注意一下负载系的问题。比如选了基本功率,成功功率就要这个去设计,如果按这个负载按照这个算是有功率的,可以按照100%的程序运行。

  刚才讲了数据中心为了增加可靠性,通常采用冗余的方式。比如柴油发电机组采用“N+1”的方式。这时候柴油机个体本身,是不是通过冗余本身的可靠性来解决一些,提高本身数据中心本身可靠性的问题。现在采用什么方式?利用双启动方式冗余技术进行才有发电机的启动柴油机发动机起不了是比较高的方式,双马达的方式,就是一套训练值或者一套马达,如果三次启动失败以后自动切换到另一套系统,然后再启动三次达到成功,按照这种方式增加一套。

  还有很多数据都会用在北方,对柴油发电机来说,就是采用水、气、还有进气加冷这种方式。除了启动冗余,也在启动控制冗余。就是两套系统在线备份,如果一套系统出故障,马上切换到另外一套系统,就不会系统单个模块出问题而造成崩溃。

  除了模块以外,整个柴油机通讯方式进行管理,通信方式也进行了冗余,这个是用了片冗余和双冗余。发电机组没有还有一个机组就是快速并机,这个技术在启动的同时把柴油机先合上,在同时的速度减压,这样就缩短了后续机组相互同步的时间,这样达到一个快速并机的目的。

  发电机技术也非常重要,我们跟ABB在南昌建了一个合资公司,现在对核准技术做了一个开发。一个是柴油发电机机组是非线性负载,用了速时调节器。我们采用了特有特种片阻尼绕组技术,优化发电机输入的电压波形,提高了发电机抗谐效率可以达到92.18%。

  数据中心很多是容性,带容性关键性强不强?从这里看,左边是工艺是超前的,右边是工艺超后的部分。从0.8到0.9之间,这个发动机可以在1500千瓦到1900千万之前都有一个运行。现在国外也开始重视起,也会把带荣幸纳入到标准,国内目前还没有。

  云负载平台事情,现在随着互联网发展柴油机组厂家也非常注重对客户的服务。如何做好客户服务,开发了一个云服务平台。云服务平台做了DTO,自己开发的DTO,针对自己的控制器,目前主要是用进口品牌,针对不同的品

  牌设计的DTO,DTO实现的无线方式进行通信的,里面插了一个手机卡或者流量器。用两宽可以上网可以在PC、手机可以对柴油发电机进行远端控制。

  这个是安卓和苹果两个监控,装了之后可以监控柴油机的发电状况,这样对维修人员和维护人员非常方便。

  PC端主要上固定网址、密码就可以进界面。这个界面显示自己柴油机的网点在那里,点开就可以显示这台柴油机的目前运行状况,比如温度、电压等等都可以看出来,流量就是50秒刷一次。同时可以历史曲线,还可以看到自然发电的资料,都可以通过网上调,非常方便就不需要自己画。

  分享一个案例:天津赛得数据中心做了“9+1”,每一台是1800千瓦,这个柴油机采用双模技术,发动机都是进口品牌。

  简单说一下泰豪,泰豪总部在南昌。泰豪公司在2002年在上海证交所诸般上班,也是目前柴油机唯一一家在主板上市的上市公司。泰豪目前博士后科研工作站、国家认证企业技术中心,已经是一个高薪企业。同时还有24小时咨询热线,非常感谢大家,希望大家有机会能够到泰豪去。

  捷联克莱门特集团IDC事业部经理郝凤云:《空调制冷节能技术解决方案》

  克莱门特作为欧洲最大的供应商,也是国内少有冷却机组,克莱门特在上海建制冷机和空调工厂,是40个办事处和30个办事网点,为客户提供可靠的产品之外,还有可靠的服务。正是数据一年制冷,也是室外冷空气对室内降温,行业就是自然冷却。

  目前自然冷却市场上有很多的形式,比如全新风制冷,还有利用河水、喝水、降水的制冷,当然还有热泵管制冷也是比较热门的技术。我们介绍的是风冷自然冷却技术。首先看一下我们能提供的产品,风冷产品已经做得成熟,我们可以不同的需求选择不同的产品,比如从几十千万到160个千瓦到2000千瓦,根据不同的要求至选择不同的要求。对宅冷选择不动液和纯水,根据用户实际需求可以选不同的需求,当然根据不同低于需求选配一些需求,不管那些机器原理是一样的,我们可以分享一下原理。

  早期的一种风冷制冷示意图,选用普通的冷风机组加上干冷器构成自然冷却系统。这种系统并不是说就不好,就是在早期年代已经非常好的解决方案。这种用户我们也是行业的专家,(张敬)张老师在哈尔滨就是用这套系统,这套活动弱势就是室外占地面积比大,但是跟我们后出来的节能型上是一致的。随着大家对系统的应用和系统的理解,也逐步对系统有了进一步的研发或者更新,我们渐渐把自然冷却部分,和风冷冷水机结合在一起,这样就变得比较简单,就是看到风冷一起机,不需要单独做容量。但是这个系统有一个相对的弱势。因为24小时连续运转,所说自然冷却旁管还需要做一些防冻保护,就是需要加不冻液。我们要求进末端通常是纯水,在原有项目基础加一个循环,做一个乙二醇泵,使这个部分还是走得纯水。把泵和乙二醇泵,使这个系统更简单、更集成化。

  最后推出这个系统选购一台带有风冷风冻技术,这样使系统在我们设计阶段、施工阶段和将来运行维护方面都是比较简单的,这也是一个演变的过程。最后在回味一下,我们这个机器到底包含了那些工作?可以看到,普通带有低制冷功能的制订及,当然还有指控系统,相当于把这些都集成在机器的内部。

  我们可以过一下原理,所有原理都是一样的。更从事与室外制冷机结合,做到三机无缝联系,在全压缩机状态下制冷机是一样的。我们的机器除了零下低温制冷能力,还有高温制冷能力,当环境达到50度也是正常工作,我们这些机都放在室外的,对制冷能力可靠性都是非常的。当回水温度就进入到混合制冷阶段。

  混合制冷阶段,这是我们所说的冷量分布图,随着温度的降低,自然冷却的逐渐攀升,制冷攀升逐渐降低,最终达到100%的冷量过程。所有的过程都是控制做好的,机器不需要人为再去调节。

  当室外环境温度足够低的时候,通常在北京一般是0-4度,机器就可以全部进入冷却,这样全部冷却就剩下,室外环境温度相当高,风扇起凝,功率也是在逐渐降低的,最终当然都是为了实现节能的效果。

  最后统计,大概在北京采用这种系统节能的一个情况,我们是以12、18温度为例,折算一下运行状态。可以看到27%时间在全部冷却,30%的时间在混合制冷,剩下时间是压缩机的制冷。从整体来说,在北京地区或者辐射华北、东北、西北还是适合于风冷自然冷却系统,制冷比较简单效果也是比较突出。

  刚才说发展的低层,也是从施工环境来看,近几年市场上系统都是几种系统,就是集中化程度比较高,运行程度也比较方便的系统。回归到根本,不敢采用那种形式根本,追求目标就是三个,一个是系统节能型,另外连续运行的制冷效果的稳定性,当时还有运行的简便性。不管采用哪种方案,这三个方案应该是最核心的考核指标,针对这三个指标分析一下克莱门特在这方面的做的比较突出优势。

  首先,比较有优化管理程序。就是机体本身的控制程序已经写好了程序,完全可以根据室外温度的情况来调节机器的运行状态。也建设压缩机制冷和全部制冷是不需要人为切换,也不需要做外为的控制。

  其次,另外智能控制。比如自动调节风机的状态,电机的状态,电控调整法,调整达到一个更好的状态。可以根据冷凝压力来调整,什么时候开展卸载,什么时候运行调节。还有连续运行的可靠性,比如我空调测温度是12度,室外温度可能到12度一下,怎么包括在这个机器包括12度。克莱门特有超低温模块,不管怎么样我们会保证我稳定的供水稳定,环境温度高也好,低也好,保证末端问题是稳定出水稳定。

  再次,可以提供依赖供电。发现故障可以减缓机器启动时间。从电流所有冷却机器,都是采用双系统甚至40千瓦机器也是采用双系统,双系统就意味可靠性偏好,动电网的冲击也比较小。

  其实我们UDM都不用说了,因为我们是一个闭式循环。一方面点大户,电是重要的考核指标。几十年来工作组,包括对(WE)的貌合,采用这种系统的时候最大优势机会不耗水,就是积压电测有一点耗水。我们有一个技术非常成熟的团队和经验,可以看到用户时间都比较长,可以说国内首例用于数据中心自然冷却技术,就是克莱门特推出的。当然首个使用我们项目也是目前最大的第三方运营上,就是世界互联。

  还列了一些优秀项目,比如建行、联通都是用了几十台系统。时间关系就不把我们用户做罗列,这就是我们坚持几年来在行业里推的冷却技术,在这里老生常谈,得到行业的广泛认可。

  磁悬浮技术,这个技术不仅仅我们在推,其他行业也在推。当然它的造价可能高一点,也简单了解一下磁悬浮。我们磁悬浮在2003年在行业里有了第一个案例,在北京有了2008年有第一个案例,清学示范楼,根据这个推荐,去年收到行业最大一单就是无锡超计算,应该是行业里超垄断磁悬浮的单子。这个也需要冷却塔,板换等,这跟传统是一样的。最大的技术就是传统本身,传统的也是压缩机,一些重要的特点其实在座各位应该都非常非常清楚。采用这个磁悬浮的压机,就是它没有磨擦,没有振动,带来的效果可能CPU值更高一些。

  整个磁悬浮轴承是不需要润滑油,润滑油可能带来潜在问题。随着年代的增加,使用率可以会有衰减,而这个不会。磁悬浮压机,启动是非常小的。对于数据中心来说,部分能耗是非常好的,不会发生传统制冷机的问题。单机容量我们品牌已经从3000千万做到2000千瓦,在行业里这个容量也是比较大的,这是磁悬浮的系统。这是核心案例,还有香港中信集团。这个技术大部分用在南方。

  热回收系统,热回收系统退回来是前面那张表有一个水泵资源技术,在座各位应该是设计院的专家和朋友,克莱门特的朋友应该在传统空调领域知名度非常高,近几年在数据中心应用非常广。这种技术在数据中心里面的应用把原测水,就是把数据中心测18度的回水或者15度回水当成原测水,原测水温度更高或者更好。另外原测水可以提供40-60度的范围,凡是为热需求的地方提供热水。比如生活用水、洗澡用水、地板采暖。目前这种系统,我知道有几个系统都已经采用了这一款机器热回收,面积还是相当大的。移动、内蒙移动、青海移动都上了这个,在亦庄KTI也上了这款机器。

  大家看这是几种形式的热回收的原理图。目前在数据中心应用比较多的,就是我刚刚所说的,传统热泵水资源技术,比在传统应用热系统下面更好。包括我其他几款热回收技术,比热泵更复杂一些,数据中心也是可以应用的,也是根据项目的情况。附带了一些我们用户的案例,所有的这些产品,我们所推荐的这些系统,截止到今天为止都拥有非常成熟的案例,我们也都拥有成熟的经验,可以跟用户、跟专家一起去分享,或者在项目前期一起探讨。

  艾默生网络能源有限公司产品及战略规划部华北片区总经理李宝宇:《数据中心发展和变革方案》

  最近几年数据中心市场异常火爆,发展的如火如荼。我想今天参加这么一个规模宏大的盛会,也是我们行业发展的缩影。在这样一个异常蓬勃发展的背后,其实在技术和市场层面有着直接驱动的因素,这里面既包含了客户业务因素的一个影响,也包含了大家所熟数识的云计算,包括共有云和私有云的计算,还有移动互联网蓬勃兴起,还有大数据的应该说功不可没。还有互联网+等这些都是带来行业的兴起,其实在迎接非常好的机遇同时,数据中心的拥有者和运营者也面临非常大的挑战。

  在他们看来有很多压力,在里面体现比较明显,比如缺乏可建性,在预算管理方面有诸多的问题,在安全性和可用性方面有很多利的因素。此外容量管理也是考量的一个核心问题。在面对压力的背后其实对应着各种各样的,需要我们切实解决掉的核心问题。我简单列了一下:

  比如如何提高生产率,使我们的灵活性得到保障,如何在运营成本上增加我们的优势?如何去处理宕机的风险?怎么样合理规划?针对我们新增加容量减少等待的时间。

  在这里面我们需要解决这些核心问题,恰恰也预示了数据中心这个行业未来发展的方向。我们如何能够切实把我们这些关注点聚焦到这些问题的解决上,相信也能够给我们行业发展带来一个很大的进步。在这里面我们要关注的是可能有很多集中在可靠性与灵活性的部署上面,快速的部署、快速的实施,可扩展性的要求,希望能够很好适应负载需求与密度的增加。此外对于我们固定资产和运营成本要考虑均衡性。除此之外在能源方面能源节省,以及在后期数据中心运营的控制与管理方面,我们生产要投入更大的精力。

  相对于传统数据建设方式而言,应该说是有两个非常关键的问题。这遍一直困扰着我们的客户,首先建设周期冗长的问题。传统数据中心从调研开始到立项、咨询、设计、招标、建设到最后投入运营,少则经理两年的时候,多则经历四到五年的时间,虽然我们设计在赶跑,但是在感慨时间都去哪儿了,仍然觉得时间不够用,这是第一个问题。

  第二个问题也非常明显,规划设计与现实存在着非常大的落差。这个差距非常明显,按照规划的预期可用性可达99.99999%,N多个9,5个9,6个9,非常有严重的事。在PUE设置上的,理论值做到1.5、1.6,北京市政府已经在2014年7月份下发文件限制PUE高于1.5兴建项目,这也是我们对这个指标关注的力度。实际落地之后建设出来的PUE值往往是高的,甚至达到3或者4以上。

  第三在预期方面,本来规划非常合理的,温度场是非常均匀的,能够保证环境的均衡性。但实际上运行起来,会发现这里和那里会出现局部过热的现象,现在采用冷冻水的方案,设计中心里面耗费是非常大的,每年可以达到几十万吨,前期在设计的时候,可能有的时候也会预期不足。除此之外建设数据中心很关键的因素就是我们的安全可靠性,这个是永远放在第一位的。

  在实际落地之后的数据中心,我们发现还是有很多的安全、可靠性息息相关的问题没有解决,甚至说非常严重的火灾这种风险,这种隐患也是存在的。我们做数据中心设计的时候,经常会设计非常漂亮,但到实际落地的时候可以说有点惨不忍睹。

  可以数据大多采用串行方案,从前期立项、招标、土木建设、土木施工、实际施工、安装以及最后投入运行,都是一串行的方案。这个有两个方案,就是刚才提到的问题,建设周期长,经过这么长时间,前期的建设和后期落地存在严重的脱节。我们说这种工厂抑制式的数据中心采用部分基础设施,按照实际物理拜访形式,按照工厂提前做了安装。这样在运输的时候,可能采用整体运输的方案,用集装箱或者采用分块也是装箱运输的方式,我在出厂前就进行了整体方案,系统的链条,到现场再进行就位和安装,这样大大减少现场工程量。从安装来讲也会变得非常演化,建设中心会传统数据大大减少,这样一个展示图,通过这个对比也能够看到,实际从串行方式,变成工作并行话的工作特点,这就给我们带来非常大的收益。

  当这种抑制数据中心提出全新的建设理念,提出技术上的优势会体现在力列出的几个方面:

  1)部署速度加快。

  2)系统可卡长性得到良好保障,我们在设计的时候考虑到系统扩容,从设计前段就把后面的问题做了充分考量。

  3)设计角度已经完全做成标准化的模式。涉及到标准化就会有很好的,适合于流程运作的特点。

  4)具备了这种灵活性和适应性非常好的优势。这二者兼而有之,在思考不打折扣,在成本方面得到非常好的控制。这是抑制数据中心相对传统数据中心而言的优势所在。

  在预制式数据中心设计在可用性上,我们用户在线要求宣传合理的架构,这是考量的因素之一。第二个因素就是PUE值,这是老生常谈的概念。我们说在PUE值的概念上面,从供电系统和制冷系统上面有两个不同路线,无论供电系统的能源,还是制冷系统的冷源都会经历这样一系列的过程,包含了产生、转换、传输和使用,为了降低我们的PUE值,使我们的机房尽可能做到节能环保。我们业内的各个厂家也进行了非常多的实践和探索,也找到了非常好的方法确保PUE表现的一个优势。

  下面设计要考量的因素,会做一些优化的通道一个设计方案。这里会结合我们一些具体的实际的传感器,比如我们的温感、压力传感器,流量的传感器等等,结合我们实际智能控制平台,采用这种通道方案,合理优化我们的气流组织,使得整个数据中心和机房类的空调系统,可以把能耗得到大大的降低。

  另外一个因素就在于固定资产的投资,通过优化架构的方式保证在同等支撑能力的情况下,降低主要设备的一个数量。我们可以合理的规划我们系统的容量和规格,这样不至于做到过设计。通过改革和创新减少大资金量,占用大动资金和低资产利用率的投资设施。

  体现在抑制数据仿真设计上,我们有非常多非常好的工具可以用设计防治,既包括方案类,包括温度场的模拟,包括气流场的模拟,有CFD仿真 模拟,比如现场仿真找到最合理的方案,对虚拟建造进行前期的设计。这样能包括现场设备在实际安装的时候能够做到平滑的兼容,能够做到非常好的匹配性。

  总结一下我们预制式数据中心的内容。从这一点上完全以方案客户化作为特征,这里面包含了我们工程产品化的理念,所有规格都是产品化,从功能上现模块化的理念,能够保证方案在前期做到可视化,在后期运营上面也在管理智能化上面做更多的工作。

  可以使整个数据交付质量做到可靠无忧,这样减少很多工作,正如乐高漆的工作,变成简单,这样叠加可以到后期做一些智能化的特点。

  同样在建设周期方面可以节省很多具体时间,彻底解决数据中心传统建设的尴尬。我们经常会因为某一个部件或者某几个部件不到货,使整个项目周期得到延迟。所有这些部件可以支持同期的抵达。

  这种模块化堆叠的也是我们很好的模块化的优势。

  在后期方面,在前期设计的时候尽可能在核心部件选择上,从品质的角度出发,考虑一些大厂家,一些质量可靠的产品,能够保证我们在后期的维护得到很好的优势一个保障。在抑制化领域一些典型方案,包括Smar单柜,或者Smar半封闭、Smar全封闭和SmarTc标准理念,还有移动式集装箱数据方案。当然比较有优势的方案背后起典型支撑能力还是具体的产品。在产品角度来说提供远征供应链的产品,我们可以借助于完备的器件和完整配电能够,从前端到末端等系列的产品。

  这里面有一个全新概念,叫PTMS。这里面首先第一个至少达到5%这样一个EPK的优化,在这个基础上做一些优化配置,使投资结构做了一个很好的调整。这里面我们可以通过一些系统管理性上面提升,保证了统一信息接口。整个从供应链角度,从前期配电我们把它整合到一起,这样形成一个非常完整的整体性的一个理念。这个跟我们抑制化数据中心是完全一致的,做到更优化的投资结构下,提供系统的可管理性,同时提供信息接口,还可以得DCIM系统提供标准接口,使它具有标准化预制化概念。新推出新中工类eXM UPS,输出功率因数得到1,功率得到一个有效的支撑。

  另外产品中大模块模式,我们叫UPM,是以600为例,这个效率可以96.5%,而且是一个在线的效率值。这个产品除了保留模块化UPS降42%,方案单机、并机、双母线都可以独立性都得到提升。

  空调产品上也有高能耗泵循环自然冷却的一个产品,可以比传统空调机组节能至少提升40%以上。在业界空调这样一个产品上面,有我们的传统型的CRV+产品,可以满足多层次的制冷需求。这里面采用变容量的压缩技术,采用易冷制机,在品牌规格上可以做到完美匹配。

  几个重点产品,包含的配电系统,PPS、UMS等。最后有一个短篇,可以展示我们做了几个典型案例,包括澳大利亚、美洲做的案例,还有给瑞典FaceBook做的案例。这个地方水电资源非常丰富,这是数据中心的供电利用了非常大的清洁能源。因为所处的位置距离北极圈只有100公里,所以在里面全新封的一个制冷方式得到很好的体现,使得全年的PUE值只有1.04,非常节能。在国内通过这个节能方案完成了非常典型的应用,这里包含了可以看到的,在金融领域、冶金能源、外企、互联网、BI特等领域都有成功案例的交互使用。

  我们在这一领域应该说艾默生专注了几十年做得非常深入,在产品以及解决方案部分有非常明显的优势,我们也愿意用我们更大的努力和业界同仁一起去努力,为行业做出贡献。感谢大家。

  东吴政权通信行业首席分析师徐力:《资本角度看IDC行业成本》

  首先,大家对投资而言想打复杂,我们穿越纷繁复杂概念,回归简单商业逻辑。我记得我在上大学的时候,有一位教授跟我说过一句话“最复杂的问题要最基本的概念出发。”这一直影响我们的职业生涯,对IDC行业非常复杂,我觉得从最基本的角度出发,得出一个更合乎道理的概念。

  第二,从投资角度也一样,内在价值也在变化,怎么判断内在价值。

  第三,一家之言,算是抛砖引玉。

  大家都知道,在资本市场而言我们是炒股就是讲故事,其实本质上大家觉得价值投资是什么?价值投资并不等于长期投资。对于任何一个行业而言,它都是有一个从成长到成熟的过程,而我们的投资角度怎么来看?投资的角度应该从成长的初期开始进入,那个时候大家会感觉到这个东西有各种各样的问题,各种各样的不确定性,但是就是这种各种各样不确定性和问题,你才值得去投。它是不是符合大方向?等到它变成一个成熟产业之后,比如说大家说银行,为什么一直就不涨不起来,或者股指很低就是这个道理。任何行业都是有周期的,从投资行业角度看,应该从底层角度,或者中层角度来考虑,而不是它已经长得很大了咱们再来投资。

  实际上市场上是极其有效的,很多人说中国A股是一个赌场,但是我们把最近三年、五年和十年公司业绩成长列出来对比一下。A股中涨幅超过10倍的公司,复合利润率利率是成长23%,低于10倍公司的符合利润增长率是8%,其实市场不是这样的,这个投资市场还是区别非常大的。

  信息时代就是云、管、端。从趋势上大家已经很了解,所谓云管端非常简单,对我们来说还是要回到最基本的概念,说白了信息收集、信息处理和信息应用的过程,各个环节所处的环境是不太一样的。智能数据而言就是数据产生和数据收集,数据收集之后通过传输网络、高速网络到了后面服务器端或者云端,处理之后再返传过来,其实没有什么特别复杂的。

  很简单,智能手机已经从一个成长性变成周期性的行业,一一对应已经变成了周期行业。说白了很多人业绩多么好,对我们投资者来说,这家行业,这家细分行业已经不投了,已经成熟的,不需要投了。

  管:就是指通信设备和通信网络。这个角度依然是一样的,从2009年开始从中国角度来看,这个行业就是由高速增长期变成随着技术更新换代的周期行业。这就是我们为什么老觉得通信涨不起来的原因,因为已经涨起来了,已经没有什么好投了。

  云:大家都知道是方兴未艾的。

  谈IDC毕竟要谈到两个概念,云计算和大数据,这两个概念是一体两个概念。举个例子:比如经常用百度地图、高德地图,比如在使用的时候有无数人在使用,无数人使用速度移动都不太一样,返回到后台服务器里面会计算出结果。计算出结果又反推到你手机上,你就看出来那些路是堵的,还有路是畅通或者自己做出判断。这是一个非常典型的IDC大数据应用,但是从后台来讲它是云计算,因为大量人使用这些软件,后面的服务器是几千、几万台的服务器,从这个角度来讲后台就是云计算。数据现在是指数增加,不用去拍,无所谓用哪种方式。大家都知道数据是呈现指数增加的,今后会越来越大。这种海量数据的存储、分析、应用对今后来说是压力非常大,或者成长空间是非常大的。从分析和存储的角度来讲就是云计算。从应用的角度来讲就是大数据。对于资本市场来讲很简单的一个道理,要把这些概念都要讲清楚。

  现在讨论一下云计算,云计算有很多人都是云山雾罩,我对它的理解比较简单。从电脑的角度来考虑,电脑首先要有硬件,硬件上面就操作系统,操作系统制成我们软件的使用,而人真正用的是要应用软件。云计算也有这三个概念,听起来是很让人费解,IAAS、PAAS、SAAS,前面加上两个字网络就完了。IAAS网络硬件系统,PAAS就是网络操作系统,SAAS就是网络应用软件。互联网是一个丛林法则,阿里做的是IAAS或者PAAS,就是网络硬件和网络操作层面,用友做的是SAAS,网络应用软件层面,这个解决比较合适。其实我做这个云,做那个云,投资的时候要分清楚,你要看清楚它是哪一种云,这个很关键。

  第二、这里是IDC的主会场,主要还是趋向于IDC的方向。很多有一些概念的措施就会把IAAS和IDC机房区别。IAAS是一种服务,提供这种服务的是硬件基础设施。用电脑来做IDC其实就是我们的机箱,不要太复杂。也有人拿IAAS和IDC做对比,说云计算多么高规格,这个对比非常不恰当的。有一个比喻你是拿一个汽车生产制造厂和某一个辆汽车做对比。IDC机房对于我的概念来说,其实就是电脑的机箱,没有什么太复杂的。

  我们为什么在中国非常看好IDC这个行业?首先IAAS和PAAS一定是寡头垄断,平台是不是一个?平台不会很多,就那么一两个,也就是安卓、Linux,苹果就是iOS。如果我们从今年开始算,五年后做到亚马逊今年的水平,SAAS用的一个系统就是网络上微信就是这么一种而已。如果大家做一个行业扩张,行业投资,除了这个产业链如果投一个单独的环节,SAAS可以多考虑一下。

  IDC非常简单,不复杂。虽然市场讲任何故事都讲大量数据,刚才提了数据是指数增长的。这些数据和信息都要存在在服务器和磁盘里面,这些数据都要放在IDC机房里面,这些东西不可能抛个坑过两年再拿来用。IDC是一个机房线性增长。

  2)摩尔定律到达极限。我们研究已经到达极限,现在是指数是10纳米、20纳米,接近归原子的尺寸,这代表这套体系已经到达极限,除非换一套体系才行。在可预见的未来,我们觉得这个技术体系的变更,是比较漫长的,可以忽略不极。全球技术革命就发生三次,第一次革命蒸汽机和机械革命;第二次革命是电器革命;第三次革命是信息革命。第四个革命我们不知道。从这个角度来讲,下一个技术体系的变化是具有居大不确定性,可能50年后会发生,可能50年后发生不了。这就代表前面的逻辑已经成立了,对于我们现在的技术体系而言,单位面积的存储面积和单位指数面积不可能提高,这代表用一个线性面积满足的需求。最后移动发三级报里面有一个很有意思的数据,数据流量同比增长150%以上,这就是指数增长。

  3)可见未来,新技术体系出现是小概率事件。一般说内容都需要硬盘,这个可以反馈个人热数据和冷数据,热数据大概只占整个数据1%。再补充一点什么叫热数据?什么叫冷数据?热数据就是你经常使用的数据,冷数据就是你很少使用的数据。对于应对这个指数增长的需求和线性增长供给之间的矛盾,就要考虑问题,真正的存储真正需求都是低成本,低效率的99%冷效率的数据财政需要我们真正处理的。要应对这个就必须要考虑成本。

  举例,现在是中心城市是内存,边缘城市是硬盘。

  刚刚讲了逻辑推导,现在拍脑袋。市场空间有多大?我们用一个最基本的方式数人头来做,因为所有需求不会来自别的地方,只会来自人本身。比如在美国现在是3.16亿人口,数据中心是中国的10倍,在互联网等各个行业渗透都是非常好,据国家13.7亿人口,还有别的统计14、15亿人口。我们正常提倡互联网+,不管这个提法对错与否,至少说明一个问题,互联网在各个行业的渗透才刚刚开始。做一个简单对比,如果做一个线性对比,应该是美国40倍才能赶上美国的水平,5年以后或者10年以后不要说现在,这应该是平方的关系,这应该更大了。这个行业就是一个三年十倍,十年百倍的行业。大家千万不要觉得这个行业很土,机会行大,就跟互联网一样真正活下来就是BIT,其他都死掉了,现在还照准怎么把这个行业做好。

  中国IDC机房质量很差,大家都是业内人士。原来基本上随便找一个地方,把光纤随便一拉架上去就可以了,根本不考虑性能。现在指数增长需求要慢慢考虑。我个人认为这个行业会推倒重来,因为原来不符合经济性能,经济效益的东西太多了,这个行业就是不行就要推倒重来。

  怎么选?我们希望有一个好的投资标准,当然我不会说。但是我觉得这个对行业是一个参考,有四个标准:

  第一大客户。首先IDC机房需求一定是互联网巨头,不是直接需求例子与老百姓,但是这些需求直接汇集到IDC平台上,但这些需求是最重要的。受到给大客户的供给才是有效的供给。你可以在很多地方建了很多机房,但是你的客户在哪里。

  第二全国布局,这个好力量容在备份。第二能源问题,如果10万个1万机柜,如果按满负载一年小消耗的电量大概130度电,如果5年、10年以后达到美国水平,应该有80万个机柜才能达到美国的水平。第三机房人比较新好管理,这也是全部分布第二。

  第三光纤网络,这个比较好理解,因为机房就是数据仓库,需要数据高速工作和它相配合。当然电信运营商在这里面是处于主导地位的,但是还要提醒一句话,可能有4-5个行业,还有很多的光纤网络,石油、石化、铁路、公路、电网、广电都有全国光纤网络,但是没有充分利用起来,主要还是需求没有起来。现在移动互联网启动以后需求就起来了,这个要多多考虑一下,不仅局限于光纤网络,现在宽带网络在全国已经放开来。

  第四成本低廉。前面讲得非常好,从技术角度算了各种各样的账,成本很重要。因为非常简单,你可能不说一个机柜,两个机柜12成本运行不大,但是运行12万台服务器,这个成本很关键,每省下提高10%会剩下10%。各方面做得好导致服务器运行时间比较长,不是100万台服务器算300万台成本,千万不要小看规模效应,规模效应很重要。

  我们比较关注这些机房怎么来定价?值多少钱?这一件也是非常关键的因素,大家投资的时候一定要考虑这个东西要投多少钱,机房怎么样?机房这个产品对于我们来说,是固定收益类的产品。什么叫固定收益类,每年固定投5元钱,一旦机房公用固定了以后,每天出去的固定产品,算钱就很容易算出来,类似债券的定价,简单一点跟利率相关的。如果从长期来看,比如现在的离去是3个点,加上风险议价5个点,按照正常理解估值来说应该是20倍。不是说每年产生1个亿净利润,给20倍比较适合。

  大家讲了履行环保安全可靠,规模高效。首先第一点我们客户发生了变化,IDC机房从长期来看云计算、互联网毕竟是行业集中度越来越高,以后我们客户是以大客户为主,一定是这样的。大家不要想现在赚钱小客户的钱利润还是听好的,以后这些钱是赚不到的。因为买单发生了变化。

  第二以零售的方式逐步转向批发的方式。现在有很多IDC机房人士去雇佣很多的销售员去互联网讨论多少钱。以后云计算起来以后,关注度越来越高就会产生很多,可能就会产生批发方式。

  第三外来的野蛮人的正在敲门。你觉得这个行业不想改变,不想满足客户需求,一定有人愿意,一定是这样的。

  第四大鱼吃小鱼,快鱼吃慢鱼,富鱼吃穷鱼。这个一定要看规模效益,看谁转型快,快速满足客户需求。最后是这是一个耗钱的行业,每几家行业能掏得起这个钱。

  总体来说,对于投资IDC行业眼光、魄力、财富、自我革命缺一不可。为什么要说自我革命?如果不能够把现在的商业模式自我革命。因为做了批发以后就会导致原来零售的模式会受到比较大的影响,那么你就会舍不得。换一下就可能赚一点或者赔了,这是一个很现实的案例。大家觉得微信很好,4年前中国移动做了一款叫做飞信,大家感觉起来跟微信有什么本质区别?没有什么本质区别,但是极大会影响运营商的短信收入,就发展缓慢,提前四年局部,被微信屌丝逆袭。微信如果按市值不值1万亿的市值,这个有网络、有用户,总之这个东西不好评价。

  行业机会行大,亚马逊今年预计73亿美元,活跃用户超过百万,有1700政府机关,4500家的教育机构。现在国内做得最好是阿里,阿里有有财务报表出来,简单测算下来今年大概3亿美元,活跃用户不知道。假设看起来差距就是这样的,现在时间比较紧迫。假设我们做到美国现在的水平,亚马逊每年还是保持在70%、80%的速度在增长,假设每年降一点,简单测算一下,就算我们5年以后做到亚马逊现在的水平,亚马逊还是比我们领先7.15倍。

  资本市场主力行业快速成长:刚才已经说过这是一个非常需要钱的行业,从银行贷款来说,银行业没有什么地方好贷款,都不敢贷,一贷就赔了。但是这个行行业是非常好的行业,有集聚未来行业的。   

  股权融资保证一定的安全资本金。这个融资一定要从市场获得。

  这个市场集中度一定会提高,客户只有哪几个。

  投资银行部门也可以进行大量的并购重组。

  信托理财的结构化高收益。

  民间和企业的直接投资。民间和企业直接投资可以充分利用上面四个点,我认为从资本市场来看,从银行、股权投资市场、债券投资市场和结构理财市场等等各个方面,我们对IDC抱有很大的信息。因为它未来一定是非常好的行业,只不过更加判断一下对各位企业家或者各位从业人员,哪一位最后能够跑赢胜出是我们的关键点。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
(阿里、万国、XDC )数据中心建设经验哪一款适合你?
绿色数据中心是如何炼成的?
逐向双碳:东数西算中的绿色需求与竞争焦点
【东数西算】液冷散热简介
新政策指引基建新方向,五大数据中心核心股名单出炉,火速收藏!
这就是IDC机房空调制冷系统!
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服