绿色数据中心空调系统设计说明

上传人:油条 文档编号:39972217 上传时间:2018-05-21 格式:DOC 页数:10 大小:1.36MB
返回 下载 相关 举报
绿色数据中心空调系统设计说明_第1页
第1页 / 共10页
绿色数据中心空调系统设计说明_第2页
第2页 / 共10页
绿色数据中心空调系统设计说明_第3页
第3页 / 共10页
绿色数据中心空调系统设计说明_第4页
第4页 / 共10页
绿色数据中心空调系统设计说明_第5页
第5页 / 共10页
点击查看更多>>
资源描述

《绿色数据中心空调系统设计说明》由会员分享,可在线阅读,更多相关《绿色数据中心空调系统设计说明(10页珍藏版)》请在金锄头文库上搜索。

1、空调负荷的确定空调负荷的确定机房主要热量的来源:设备负荷(计算机及机柜冷负荷) ;机房照明冷负荷;建筑维护结构冷负荷;人员的散热负荷等;其它1.1.1.1.精密空调制冷容量确定精密空调制冷容量确定由于计算机机房内主要热量来自于 IT 设备的显热散热,确定精密空调制冷容量时应以显冷量为指标。本项目精密空调总显冷负荷为 774KW。本项目设计中精密空调选用冷冻水型,冷冻水源由大楼中央空调系统供给,每个机房区域预留冷冻水管接口。同时考虑到制冷设备的冗余备份,采用 N+1 的备份方式。机房精密空调数量及容量表:机房冷机房冷负负荷荷计计算表算表楼楼 层层房房间间名名称称面面 积积服服 务务器器 显显 热

2、热冷冷 负负荷荷负负荷荷密度密度围护围护结结构构, 人人员员, ,灯光灯光 等冷等冷 负负荷荷风风机机 冷冷负负荷荷新新 风风冷冷 负负荷荷总值总值冷冷冷冷 负负荷荷冷冷冻冻水需水需 求流求流 量量热热通通道数道数 量量单单台台精密精密 空空调调最小最小 显显冷冷制冷制冷 量量一期一期 精密精密 空空调调数量数量 (主主 用用/备备用用)单单台台精密精密 空空调调 用用电电量量 ( (风风机机 /电电加加 热热/加加湿)湿)送送风风气流气流本次设计中采用下送风/上回风的气流组织,高架地板以下空间作为送风静压箱,主设备划分冷热通道,地板下送风,自由空间回风。精密空调安装在热通道顶端,送风口安装送

3、风导流板送风至地板下,在冷通道安装送风风口,送风至主设备正面进风口,冷却主设备后,由主设备背面或者上部自由回风至精密空调。冷热通道布置示意图机房内服务器机柜按照冷热通道布置、精密空调安装于热通道顶端的方法和传统的将精密空调布置在冷通道的方法具有明显的优点:m2kWkW/ m2kWkWk WkWm3/h(条条)kW(台台)kWB1机房一机房一3665001.4 29.3 4214585.3 100.7 783.6 8 6/8/8下送下送 上回上回B1机房二机房二123840.7 9.8 914116.8 20.1 1116.8 2 9/8/8下送下送 上回上回Total:489584 39.1

4、702.1120.8 10 注:注:1. 加加热热与加湿不同与加湿不同时时工作;工作;2.室内室内总显总显冷冷冷冷负负荷考荷考虑虑 10%精密空精密空调电调电机温升机温升负负荷;荷;3.UPS 间设备间设备冷冷负负荷根荷根 据据 UPS 负载负载率率计计算得出;算得出;4.电电池池间间及及 UPS 间间采用冷采用冷冻冻水型空水型空调调箱箱 AHU,运运营营商接入商接入间间采用采用风风机机盘盘管管; 5.制冷量制冷量 回回风风温度:温度:24 相相对对湿度湿度 50%; ;6.精密空精密空调调送送风风余余压压大于等于大于等于 100Pa; ;7.精密空精密空调调自自带电动带电动二通二通阀阀; ;

5、8.节节能模式:能模式: 提高冷提高冷冻冻水水给给水温度至水温度至 11 度,精密空度,精密空调调表冷器校核至干工况运行。表冷器校核至干工况运行。机柜面对面、背对背布置,更加易于维护;冷风集中送至发热设备,热风集中回至精密空调回风口,送/回风气流循环更加合理,气流组织严密;高达 80%以上冷量用来冷却设备,能源利用效率大大提高,节能效果显著;机房内服务器设备、冷却设备布局合理,空间利用率提高。末端地板送风口建议采用高开孔率孔板地板或者可调节的地板百叶风口,末端风口数量配置按照主设备负载情况布置。1.2.1.2.方案优点方案优点可提供足够的冷量来满足机房负荷的要求,并满足 N+1 设备冗余;制冷

6、设备初投资冷冻水精密空调远少于风冷型;机组可以进行加湿及除湿,以便达到精密的湿度控制;机组具有加热功能,配合制冷系统可对机房的温度进行精密控制;机组具有高效过滤系统,可使机房达到设计规范要求的洁净标准;机房所配精密空调带有漏水报警器,可对漏水情况进行实时监测。第二节第二节.UPS 间、配电间等辅助用房区域空调系统间、配电间等辅助用房区域空调系统2.12.1 辅助区域空调制冷容量确定辅助区域空调制冷容量确定本项目设计中辅助区域空调设备选用集中式空调箱和风机盘管,冷冻水源由大楼中央空调系统供给,每个机房区域预留冷冻水管接口。空调制冷容量表如下:机房冷机房冷负负荷荷计计算表算表面面积积服服务务 器器

7、显显 热热冷冷 负负荷荷负负荷密荷密度度围护围护结结构构, 人人员员, ,灯光灯光 等冷等冷 负负荷荷风风机机 冷冷 负负荷荷新新 风风冷冷 负负荷荷总值总值冷冷冷冷 负负荷荷冷冷冻冻水需水需 求流求流 量量单单台空台空调调 最小最小显显冷冷制冷量制冷量一期一期 精密精密 空空调调数量数量 (主用主用 /备备用用)楼楼层层房房间间名称名称m2kWkW/m2kWkWkkWm3/hkW(台台)WB1UPS 间间108640.6 8.6 61492.6 15.9 50.0 3 B1电电池池间间一一44200.5 3.5 31440.5 7.0 50.0 2 B1电电池池间间二二60200.3 4.8

8、 31441.8 7.2 50.0 2 B1实验实验室一室一42-8.4 -3.511.9 2.1 4.0 1 B1实验实验室二室二27-5.4 -2.37.7 1.3 8.0 1 B1工作工作间间一一37-7.4 -3.110.5 1.8 12.0 1 B1工作工作间间二二50-10.0 -4.214.2 2.4 14.0 1 B1备备用房一用房一44-8.8 -3.712.5 2.1 12.0 1 B1备备用房二用房二27-5.4 -2.37.7 1.3 8.0 1 B1操作操作间间57-11.4 -4.816.2 2.8 8.0 2 B1更衣室更衣室9-1.8 -0.82.6 0.4 3

9、.0 1 B1前台前台50-10.0 -4.214.2 2.4 14.0 1 Total:555104 85.6 272.37246.8 17注:注:1. 加加热热与加湿不同与加湿不同时时工作;工作;2.室内室内总显总显冷冷冷冷负负荷考荷考虑虑 10%精密空精密空调电调电机温升机温升负负荷;荷;3.UPS 间设备间设备冷冷负负荷根据荷根据 UPS 负载负载率率计计算得出;算得出;4.电电池池间间及及 UPS 间间采用冷采用冷冻冻水型空水型空调调箱箱 AHU,运运营营商接入商接入间间采用采用风风机机盘盘管管; 5.制冷量回制冷量回风风 温度:温度:24 相相对对湿度湿度 50%; ;6.精密空精

10、密空调调送送风风余余压压大于等于大于等于 100Pa; ;7.精密空精密空调调自自带电动带电动二通二通阀阀; ;8.节节能模式:提高冷能模式:提高冷 冻冻水水给给水温度至水温度至 11 度,精密空度,精密空调调表冷器校核至干工况运行。表冷器校核至干工况运行。2.22.2 方案优点方案优点本次辅助区域空调系统具有以下优点:直接引用大楼冷冻水源,节约设备的初投资;与 VRV 空调系统相比,降低了空调冷量的衰减;空调冷凝水集中排放,无需穿越设备间,降低了冷凝水对设备危害。第三节第三节. 高密度机柜冷却解决方案高密度机柜冷却解决方案3.13.1 高密度设备安装趋势高密度设备安装趋势用电设备的功率密度(

11、即单位体积内或单位面积内负载消耗的电能功率)在随着技术的发展而增大。五六年前,一台典型的 IT 机柜内可以放 58 台服务器,功率密度大约为每个机柜 1.01.5KW。如今,随着刀片式服务器的面市,在极端情况下每个机柜内负载量甚至能够达到 20KW 以上。对于未来功率密度的增大速率和程度,尽管每个用户都有自己的一套理论,但有一点是大家共识的,那就是不断增大且无法准确预见。这种情况对于规模相对较大的数据中心来说会带来两方面的问题:一方面,在 IT 设备因业务增长而追加设备的过程中,不同区域或不同机柜内的功率密度会变得不均衡,这样会在数据中心内形成一些功率密度非常高的区域,即形成过热点;另一方面,

12、功率密度的不均衡为设备的配电提出了挑战。3.23.2 一般散热解决方案一般散热解决方案数据中心机柜达不到满配有两个原因:一个前面说的电力供应问题;另外一个就是散热问题,当一个 42U 的机柜全部装满之后,不能很好散热,服务器等系统的稳定性就得不到保证,为了实现散热就只有加大空调的制冷能力。研究发现,空调制冷设备的电力消耗是整个数据中心的 2/3,这些无谓的消耗也加剧了电力供应的紧张。以现在的发展速度,如果数据中心不进行系统改造,散热问题最终将会导致数据中心崩溃的灾难性后果。你可以减少需要移动设备的大小与数量,但是你不能减少需要增加的计算与存储信息设备,你需要结果的可能是在一个更小的空间里,计算

13、与存储系统需要更多的电力消耗。近几年,在一个相对狭小的空间里装备更多的存储与计算能力是完全可以做到的,通过减少空间的占有,增加现有设备的寿命,减少需要维护与管理的设备的数量,让 IT 完成更多的工作。显然,一旦在数据中心中推广这一思想,数据中心占有的空间将会更小,带来的问题是硬件变得更小,性能更高,效率更高,电力供应系统密度也更大,生产的热量更大、更集中,问题也更严重,如何散热变得越来越关键。目前,大多数的数据中心都采用架空地板加精密空调的方式来为设备提供冷却。下图展示了这种数据中心内的气流状况。比较理想的情况是,机柜采用前后通风网孔门,以“面对面,背靠背”的方式排列,将机房空间划分为冷区和热

14、区,精密空调提供的冷风延地板下的风道送至机柜前区域,通过通风地板到达预先定义的冷区,进入机柜为设备提供冷却;从设备排出的热空气集中在预定义的热区,自然上升沿天花板循环回精密空调。3.33.3 高密度散热的挑战高密度散热的挑战从原理上说,热信道和冷信道是最好的,但是有时在实际应用时却达不到目的。特别时放在机架极端的系统特别容易出现问题。首先需要保证的是,数据中心能够从地板下获得足够的冷空气,并使其到达需要冷却的设备位置。但即使可以做到这一点,如何让冷空气达到机柜顶部仍然是一个问题。而且,阻止机器散出的热空气同冷空气混合更是困难重重。原因包括两个方面:首先,顶端热量增加,而比较低的机柜的温度降低,

15、从而使大量的空调系统停止制冷,进一步加剧顶端温度的上升;第二,在被驱散气流的附近,流动的气流可能引发热空气在机架的顶端形成热气球,并反过来会进入机架内部温度比较低的服务器和存储设备附近。在一些情况下,它还会引起机架过热,造成系统宕机,或者通过关闭系统来进行维护。 以往的数据中心整个机房也不过 20KW 的热散耗,而现在一个机柜的热量就轻松突破20KW,因此我们对于数据中心散热问题的考虑必须从单纯考虑机房气候控制转变为考虑机柜级气候控制。根据对数据中心立面的热力学分析,我们得出下图所示效果,当机柜热散耗达到10KW 时,机柜内的设备已经不能得到所需的冷却。根据 ASHRAE( 美国采暖制冷与空调

16、工程师学会)提供的数据,精密空调+架空地板的模式能够提供的最大冷却能力为 1.1-1.5KW/平方米,即 3-5KW/机柜。这就意味着我们必须寻求新的方式来解决超过这个限制的热量问题。3.43.4 高密度散热的解决方案高密度散热的解决方案-ONdemand-ONdemand floorfloor dynamicdynamic coolingcooling systemsystem) )机房专用变风量辅助制冷单元,可支持单机柜 025kW 的散热需求。变风量辅助制冷单元由送风风机、导风叶片、控温探头、微电脑控制器和框架组成。机组为600mm*600mm,为一块标准地板尺寸安装在地板送风系统的架空框架上,控温探头安装在受控区域,感受控温设备的出风温度,调节送风机转速改变风量,保持受控设备的出风温度维持在设定温度。具有结构紧凑,操作简单,性能稳定,自动化程度高等特点。地板送风机俯视外形尺寸为 600*600mm,同架空地板的模数相同。其安装适应于 600*600mm的防静电活动

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 行业资料 > 其它行业文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号