您的位置:首页 > 其它

新一代数据中心的构建与设计市场调查

2009-11-04 10:39 495 查看
[align=center]《智能建筑与城市信息》杂志社编辑整理[/align]

在数据中心工程设计时,如何科学有效的进行能源管理?我想这是目前大家都比较关心的问题。《智能建筑与城市信息》杂志联合数据中心工作组针对数据中心工程设计时的相关问题进行了专项市场调查,共回收了527份调查表。调查对象各城市所占比例,如图1所示。调查对象以设计单位、系统集成商、最终用户为主,其数据分析如图2所示。报告中详细分析了在新一代数据中心的构建和设计中,从业人员比较关心的问题,对从事数据中心建设的广大读者极具参考价值。
(1)调查对象所属地区
本次调查主要选取了有代表性的一些区域,主要包括上海、广州、天津、南京、成都、杭州、西安、沈阳、哈尔滨等9个城市,收回调查表的具体比例如图1所示。



[align=center]图1 各地区回收调查表比例图[/align]
[align=left] (2)调查对象所属类别
本次调查主要围绕设计单位、系统集成商以及最终用户(业主方)进行,各调查对象所属类别所占比例如图2所示。[/align]



[align=center]图2 各调查对象比例图[/align]
[align=left]1 数据中心机房的安放
(1)主机房的面积
在数据中心项目中,一般主机房的面积大约在多少平米才合适呢?不同的项目有着不同的标准规定。通过我们的调查发现,将近一半的人(49.1%)认为数据中心机房的面积应该在100~300 m2之间,还有31.5%的人认为数据中心机房的面积应该在300 m2以上,另外,只有19.4%的人认为数据中心机房的面积应该在100 m2 以内。这个调查说明,目前社会上各行业正在使用的主机房面积普遍在100~300 m2之间,这是符合目前中国国情的,但也有将近1/3的人认为主机房的面积应该在300 m2以上,说明这部分人对数据中心的发展趋势比较了解,正是因为近年来很多人认识到数据中心的重要性,才使得数据中心机房的面积越建越大。[/align]



[align=center]图3 各方对不同面积主机房选择的比例图[/align]
[align=left] (2)机房功率密度
为服务器机房确定功率密度值是 IT 人员正在面临的巨大挑战。如果对数据中心采用传统功率密度值(0.4-0.8kW /m2),则会导致无法可靠地安装新一代的 IT 设备。但如果对数据中心采用新一代高密度IT设备(1.5–2.0kW /m2),则会导致数据中心的供电和制冷技术受到严峻挑战,此外还会导致极高的成本和较低的用电效率。因此,在制定数据中心功率密度时最好能够满足以下要求:(1)确保数据中心符合部分高密度 IT 设备的需求;(2)避免电力、空调、建筑空间和资金的浪费;(3)选择恰当的节能方式,降低PUE值。
在已经建成的数据中心中,功率密度值采用3.0kW/机柜的居多,而在新建或计划建设的数据中心中,机房功率密度多采用5.0kW/机柜,8.0kW/机柜以上的数据中心也在逐渐增多。由此可见,随着数据中心的不断升级,机房功率密度正向越来越高的方向发展。但随之而来的空调降温问题,又会促使机房功率密度值不能太高。
数据中心工程设计时,功率密度值一般按照多少比较合适?通过我们的调查发现:
(1)按照机柜功率密度计算
有超过一半的用户(53.4%)选择了5.0kW/机柜,27.8%的用户选择3.0kW/机柜,10.8%的用户选择了2.0kW/机柜,另外还有5.7%的用户选择了8.0kW/机柜。
从调查数据来看,按照机柜功率密度来算,大家比较倾向的是5.0kW/m2机柜,可见5.0kW/m2机柜是目前数据中心机柜功率密度的主流。[/align]



[align=center]图4 各种机柜功率密度选择的比例图[/align]
[align=left] (2)按照单位面积功率密度计算
有超过三分之一的用户(36.0%)选择了1.0kW/ m2,31.4%的用户选择1.5kW/ m2,14.0%的用户选择了0.5kW/ m2,另外还有12.8%的用户选择了2.0kW/ m2。从调查数据来看,如果按照单位面积功率密度来算,大家比较倾向的是1.0kW/m2,其次是1.5kW/m2的功率密度。[/align]



[align=center]图5 各种单位面积功率密度选择的比例图[/align]
[align=left]2 电子信息设备采用的等电位联结方式
对电子信息设备进行等电位联结是保障人身安全、保证电子信息系统正常运行、避免电磁干扰的基本要求。在数据中心工程设计时,电子信息设备应进行等电位联结,常采用的联结方式有S形、SM形、M形,通过我们的调查发现,从事机房建设的专业人员中,有超过一半的人(52.9%)倾向于M形的等电位联结方式,有31%的人选择SM形的等电位联结方式,另外,只有16.1%的人选择S形的等电位联结方式。
M型等电位联结方式适用于易受干扰的频率大于300kHz的电子信息设备的信号接地,该联结方式具有接地效果良好、安全信号好、保护和功能性接地较好等优点。同时,M型等电位联结方式的网络优势在于在高频时可获得一个低阻抗的网络,对外界的电磁场有一定的衰减作用,并且维护和扩容比较简单。机房建设人员在使用M型等电位联结方式时存在的低频干扰也会因为合理的设计和施工而降到最低限度。大多数电子信息设备应采用此方案实现保护接地和信号接地。
S型等电位联结方式适用于易受干扰的频率在0~30kHz的电子信息设备的信号接地。S型等电位联结的优势在于能够抑制外界的低频干扰,但是维护和扩容比较麻烦,并且在高频环境下容易引入干扰,在目前的机房不断升级的环境下使用者较少。
符合未来发展趋势的SM型联结方式是应景于未来复杂机房建设的联结方式,该联结方式采用单点接地和多点接地组合,可以同时满足高频和低频信号接地的要求。目前该联结方式正处于普及之中,值得广大机房建设人员关注。[/align]



[align=center]图6 各种等电位连接方式所占比例图[/align]
[align=left]3 数据中心机房空调
作为保证机房环境正常温湿度的重要设备,机房空调等制冷设施的应用状况,在很大程度上影响着用户绿色数据中心的建设水平。根据对机房环境要求的不同,空调可分为普通家用(商用)空调和机房专用空调两大类。机房专用空调在可靠性、送风模式、温度精确度、湿度调节能力、可管理性等方面比普通空调要好得多。机房中的环境设备在运行中散热量大而且集中,因此空调在机房中起到了至关重要的作用。[/align]
[align=left] 3.1 机房精密空调的冷源形式
数据中心工程设计中,机房精密空调的冷源形式一般有水冷冷冻水型、风冷冷冻水型、风冷直接膨胀型、水冷直接膨胀型四种。通过调查可以看出,风冷冷冻水性是最受青睐的,其次是风冷直接膨胀型和水冷冷冻水型,水冷直接膨胀型是大家最不看好的一种,具体情况如下:
(1)设计单位中,有40%的人选择了风冷冷冻水型,30%的人选择了风冷直接膨胀型,28.6%的人选择了水冷冷冻水型,只有1.4%的人选择了水冷直接膨胀型;
(2)系统集成商中,有34.9的人选择了风冷直接膨胀型,33.1%的人选择了风冷冷冻水型,27.5%的人选择了水冷冷冻水型,只有4.5%的人选择了水冷直接膨胀型;
(3)业主中,有39.5%的人选择了水冷冷冻水型,27.4%的人选择了风冷直接膨胀型,有22.1%的人选择了风冷冷冻水型,有11%的人选择了水冷直接膨胀型。
通过以上数据,我们可以看出,设计单位、系统集成商和业主在精密空调的冷源形式方面对于几种类型的选择上的区别是很大的。[/align]



[align=center]图7 各种冷源形式选择的比例图[/align]



[align=center]图8 集成商对各种冷源形式选择的比例图[/align]



[align=center]图9 设计院对各种冷源形式选择的比例图[/align]



[align=center]图10 业主对各种冷源形式选择的比例图[/align]
[align=left] 一般而言,在选择冷源形式时需要参考的内容大致包括:系统投资,系统效能,运营、维护的成本,以及所在地气候条件等。就本次调查所涉及的四种冷源形式而言,直接膨胀型冷源的系统投资较小,冷冻水型冷源则具有节能效果更好、故障率和维护成本更低的优势,因而集成商、设计院、业主对水冷型冷源的认可程度普遍比直接膨胀型冷源高出20%以上。风冷直接膨胀型冷源在全国各地都适用,尤其适合于水源缺乏的地区,并且拥有系统结构简单,无需安装水泵、冷却塔等设施的优点;而水冷直接膨胀型冷源能效比风冷直接膨胀型高,但必须要有集中冷却水系统与之相配合,并且由于无法适应北方地区冬季较低的室外温度,不适宜应用于北方地区,因此使得集成商、设计院、业主对它的认可程度受到了十分明显的限制。基于以上粗略的分析不难看出,本次调查反映出的,集成商、设计院、业主在对机房精密空调冷源形式的选择上的差异,与我国国情有着密切的关系。[/align]
[align=left] 3.2 空调系统的用电量占机房总用电量的比例
随着信息技术的普及,数据中心的IT设备数量增长加速。数据中心能耗需求的增长速度高于其它领域,企业每年在数据中心用电方面的花费越来越高。在现在机房的能耗中,主要的消耗是来自于IT设备能耗、空调系统能耗、电源和照明设备的能耗。其中,IT设备的节能手段相对而言单一;照明设备的能耗所占比重相对较小;UPS系统能耗差异不大。因此,机房节能主要依靠空调系统的节能。
空调系统用电一直被称为是数据中心用电的大户,一般数据中心内空调系统的用电量约占机房总用电量的多少?本刊专门针对空调系统用电占到机房总用电量的40%、50%、60%、70%、80%等选项进行了市场调查呢?有超过70%的人认为空调系统用电应占到机房总用电的40%~50%,这是比较节能的;有25.7%的人认为空调系统用电可以占机房总用电的60%以上,说明这部分人对机房节能还不够重视。[/align]



[align=center]图11 各种对空调系统耗能比选择的比例图[/align]



[align=center]图12 集成商对各种空调系统耗能比选择的比例图[/align]



[align=center]图13 设计院对各种空调系统耗能比选择的比例图[/align]



[align=center]图14 业主对各种空调系统耗能比选择的比例图[/align]
[align=left] 绿色网格组织(Green Grid)于2007年2月制定的数据中心能效比指标,PUE(Power Usage Effectiveness)和DCiE(Data Center Infrastructure Efficinecy)是目前较有影响力的数据中心能效模型。PUE为数据中心总能耗(Total Facility Power)与IT设备总能耗(IT Equipment Power)的比值,DCiE则为PUE的倒数,即IT设备总能耗在数据中心总能耗中所占比重。这一能效模型的基本思路,是将数据中心总能耗分为分为IT设备总能耗和基础设施(Infrastructure)总能耗两部分,其中的基础设施总能耗主要分为空调系统能耗、电源系统能耗两部分(照明设备能耗可忽略)。因此,正如上文所言,空调系统能耗就成了影响PUE的最重要的因素。当空调的用电量在主机房总用电量中所占比例较低时,数据中心PUE也较低,较为节能;反之,则数据中心PUE较高,能耗较大。
如果只考虑IT设备总能耗和空调系统能耗,将本次调查中的空调系统用电量在机房总用电量中所占比例粗略地换算成PUE,则按比例从高到低的顺序依次对应为1.6、2.0、2.5、3.3、4.0。从此次调查所得数据来看,有超过70%的集成商、业主和超过50%的设计院认为PUE应在2.0以下,而只有50%左右的集成商、业主和20%左右的设计院认为PUE应在1.6以下。一般而言,一个设计、运营、维护得比较好,节能效果比较理想的数据中心主机房,其PUE应在1.6左右,而不宜超过2.0。因此可以说,目前在数据中心项目上,我国的集成商、设计院和业主的节能理念尚称合理,并仍有提升的空间。造成这种现状的原因是多方面的,一方面,一些现有的机房落成时间较早,当时业内对节能的认识还比较有限,因而造成了这些机房PUE较高、能耗较大的情况;另一方面,尽管节能带来的收益十分明显,但为达到节能的目的在设备选择、设计施工等方面所作出的前期投入仍是在建数据中心主机房所面临的一个不可回避的问题。前者既为当前的数据中心项目节能的任务增加了难度,也提供了既有高能耗数据中心主机房升级改造这一市场空间;而后者则势必在目前全社会倡导节能减排、可持续发展的大背景下,逐步得到解决。[/align]
[align=left] 3.3 主机房的温度一般按照多少进行计算
数据中心工程设计中,主机房的温度一般按照多少进行计算?机房的温度直接决定了空调的用电量,如果温度控制在一个合理的范围之内,可以很好的达到节能省电的效果。71.5%的人认为机房的温度应该控制在23±1℃,12.6%的人认为机房的温度应该控制在22±2℃,7.6%的人认为机房的温度应该控制在24±1℃,另外有7.4%的人认为机房的温度应该控制在21±2℃。[/align]



[align=center]图15 各种冷源形式选择的比例图[/align]



[align=center]图16 集成商对各种冷源形式选择的比例图[/align]



[align=center]图17 设计院对各种冷源形式选择的比例图[/align]



[align=center]图18 业主对各种冷源形式选择的比例图[/align]
[align=left] 《GB50174-2008》对A级和B级主机房开机温度的技术要求值即为23±1℃。从这次调查的结果来看,大多数集成商和设计院对这一技术要求的认知度是比较高的。然而,业主们对此的认知度却极为有限,这是一个需要注意的问题。
造成这一现象的原因,有可能是业主对设计方面的行业规范不甚了解。业主在设计建设机房和日常使用、维护机房的过程中,出于保证设备安全运行的考虑,对空调温度的要求往往比较苛刻(在此次调查中,选择21±2℃和22±2℃两项的业主占到了全部业主的67.9%)。事实上,惯常意义上的服务器正常运转的底限是服务器出口温度不高于40℃,而服务器进出口的温差一般在10℃左右,因此可以说,在风道设计合理的前提下,空调温度由21±2℃调升至23±1℃是不会给服务器的运行带来不利影响的。《GB50174-2008》对C级主机房开机温度的技术要求值为18~28℃,从另一个角度说明了这一问题;美国的《TIA-942》标准要求主机房干球温度保持在20~25℃,也是一个很好的例证。《GB50174-2008》对机房温度的技术要求是经过专家综合考证后得出的,虽然比较多地照顾了节能方面的需要,但也是建立在保证机房设备安全运行的基础上的。相信随着运营商和设计院在实际工程中的宣传和推广,业主们对这一技术标准的认知程度会逐渐提升;而随着这一标准的逐渐普及,我国数据中心的节能水平也必将被提高到一个新的层次。[/align]
[align=left]4 数据中心的综合布线系统
4.1 综合布线系统的选择
针对目前市场上比较常用的超5类、6类、6A屏蔽/非屏蔽等综合布线系统,用户在进行综合布线系统选择时,39.2%的人选择了6类系统,18.3%的人选择了6A非屏蔽系统,15.4%的人选择了超5类系统,12%的人选择了6A屏蔽系统,另外还有9.6%、5.5%的人选择了全光纤、7类屏蔽系统。
但是,综合布线系统的选择应根据用户的需求来选择。用户一般分为三类:一类用户对各类信息的处理和传输速度要求很高,对产品和系统的稳定性、安全性非常重视。一般在布线时采用以光纤为主干,水平布线至少为6类铜缆,并会有大量光纤到桌面的布线需求。二类用户主要处理综合的数据、图像、声音或多媒体信息,具有一定规模,但对信息传输速度的要求不高,以中档写字楼、工厂、大中型企业、医疗单位和智能小区为代表。一般在布线时以光纤为主干,水平布线采用超5类铜缆(或者6类),语音线路多采用3类大对数铜缆。三类用户主要是以能实现信息传输为基本需求,如普通住宅、小型企业、商场等,一般采用铜缆布线。[/align]



[align=center]图19 各种综合布线系统同选择的比例图[/align]
[align=left] 4.2 一般电力电缆和数据电缆的分布
数据中心中的机柜/机架面对面排列形成热风通道,背对背布置形成冷风通道,电力电缆和数据电缆的分布无非是在热通道的地板下面、机柜/机架的地板下面、机柜的上方、冷通道的地板下面几种方式。
设计单位中,有36.2%的人选择在机柜的上方,24.3%的人选择在机柜/机架的地板下面,22.1%的人选择在冷通道的地板下面,17.4%的人选择在热通道的地板下面。
系统集成商中,有30.6%的人选择在热通道的地板下面,28.8%的人选择在机柜的上方,23.4%的人选择在机柜/机架的地板下面,17.2%的人选择在冷通道的地板下面。
业主方中,有34.0%的人选择在机柜/机架的地板下面,23.4%的人选择在热通道的地板下面,另外有着21.3%的同样比例的人选择在机柜的上方和冷通道的地板下面。
电力电缆敷设在架空地板下,数据线缆敷设在机柜上方,这样一方面可以使电力电缆和数据线缆保持安全距离,另一方面又可以使电力电缆产生的热量被稀释。但如果将电缆敷设在冷通道的地板下方,将会阻碍空调送风。本次调查中,超过50%的人选择将缆线敷设在热通道的地板下面和机柜的上方,这是比较正确的缆线敷设方式;但也有18%的人选择将缆线敷设在冷通道的地板下面,说明这部分人对机房气流组织型式还不太了解,也说明需要更深一步地对规范进行宣贯。[/align]



[align=center]图20 各种电缆分布选择的比例图[/align]



[align=center]图21 集成商对各种电缆分布选择的比例图[/align]



[align=center]图22 设计院对各种电缆分布选择的比例图[/align]



[align=center]图23 业主对各种电缆分布选择的比例图[/align]
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息