新一代数据中心绿色空调的节能

上传人:子 文档编号:47319348 上传时间:2018-07-01 格式:PDF 页数:5 大小:1.18MB
返回 下载 相关 举报
新一代数据中心绿色空调的节能_第1页
第1页 / 共5页
新一代数据中心绿色空调的节能_第2页
第2页 / 共5页
新一代数据中心绿色空调的节能_第3页
第3页 / 共5页
新一代数据中心绿色空调的节能_第4页
第4页 / 共5页
新一代数据中心绿色空调的节能_第5页
第5页 / 共5页
亲,该文档总共5页,全部预览完了,如果喜欢就下载吧!
资源描述

《新一代数据中心绿色空调的节能》由会员分享,可在线阅读,更多相关《新一代数据中心绿色空调的节能(5页珍藏版)》请在金锄头文库上搜索。

1、Intelligent Building & City Information 2009 11 No.156 35实的物质基础。上面我们从数据中心的宏观尺度上考察了机房本身的演进,接着我们再考察一下在微观的尺度上,也就是在机柜里面的单个 IT设备(比如服务器)的层面上发生了哪些显著的变化。首先,单台 IT 设备的发热量越来越大。单台 IT 设备的发热量是和设备的功率密度直接比例相关的,因为服务器超过 99% 的耗电最后都以热量的形式散发出去。 2005年,ASHRAE (美国采暖、 制冷与空调工程师学会)做过统计和预测,如图 2 所示,由于刀片服务器的迅猛发展,目前单个机柜的热负荷在满配的情况

2、下可达30kW或以上。 如图3所示,一个 1000sq.ft. 的数据中心,如果热密度达到 14.4kW/rack(千瓦每服务器机柜) ,一旦制冷系统出现故障,只需要 5 分钟,温度就能从 20上升到 50,而 50意味着 IT 设备会由于过热而宕机。其次,单台 IT 设备取冷的方式发生了重大的改变。Intel 在各个关于服务器电源的相关标准图 1 土壤源热泵机房系统新一代数据中心绿色空调的节能文中国工程建设标准化协会信息通信专业委员会数据中心工作组 朱利伟艾默生网络能源有限公司 曹 播新一代数据中心更加关注能源的合理利用,因此精密机房空调的节能一直是业界关注的重点,合理的应用系统设计和产品设

3、计可以有效地改善数据中心的能效状况。本文主要从气流组织、改善多台设备间的协调工作、高热密度制冷、提高部分负载运行时的效率、改善显热 / 潜热消除能力、使用节能装置实现低成本制冷等六个方面对此展开论述。1 气流组织 IT 设备硬件平台的标准化(尺寸、电源设计、制冷设计)对基础设施平台具有重要的意义,这直接引起了数据中心内部形态的极大改观。图 1 左侧所示的传统的机房,各种 IT 设备(计算设备、存储设备、通信设备等)尺寸各异,因此制冷和供电系统的建设必然是分散、零星、非标准化的。而图 1右侧所示的新一代数据中心的物理结构就完全不同,由于所有的 IT 设备在标准化以后都可以放置进入标准的服务器机柜

4、(主流的尺寸为宽可容纳宽度 19 服务器,高度为42U。U 是一种表示服务器外部尺寸的单位,1U=1.75in=4.445cm) ,所以整个房间给人的直观的感觉就是“机柜的森林” 。而这种标准化的“机柜的森林”就为我们在数据中心整个空间尺度上构建合适的气流组织提供了坚【摘 要】数据中心机房空调的能耗一直是业界关注的重点,本文从系统及产品设计的角度出发介绍机房空调几种新的节能技术。【关键词】气流组织 协调 高热密度制冷 效率 低成本制冷楼控. i n d d 3 52 0 0 9 . 11. 2 0 3 : 0 2 : 0 9 P M36 智能建筑与城市信息 2009年 第11期 总第156期楼

5、宇自动化BUilding Automation方式。 还有,精密机房空调(HVAC)的摆放也十分重要。为确保热空气在回流精密机房空调的过程中路径最短,阻力最小,且不产生冷热气流交混,精密机房空调最好放置在热通道的末端,且垂直于机列廊道,从而形成回风顺廊道的状况。综合考虑新一代数据中中心宏观尺度和微观尺度的设备和机房的演进,很容易得出新一代数据中心的机柜面对面 / 背靠背,地板下送风,回风顺廊道的设备摆放方式,如图 5 所示。2 改善多台设备间的协调工作 由于新型高密度服务器与旧系统一同使用, 数据中心环境已经变得更为多样化。 因此,若未妥善协调室内制冷设备,空调设备可能按照不同的温度和湿度控制

6、模式运行。例如,室内北侧的某台设备可能检测到相对湿度较低而进行加湿,室内南侧的某台设备却检测图 2 数据通信设备电源潮流和制冷应用图 4 ERP1U 机械外形尺寸及气流方向图 5 机柜面对面 / 背靠背,地板下送风,回风顺廊道的设备摆放方式图 3 在不同热密度条件下温度和时间关系图中,均对风扇及风道设计作了详细规定,比如 在Power Supply Design Guideline for 2008 Dual-socket Server and Workstations1.0 版本中,就对 ERP1U 服务器电源提出了空气前进后出, 水平流动的要求, 如图 4 所示。因此,在新的广电数据中心机

7、房的制冷系统建设中,建议采用机柜面对面 / 背靠背的摆放方式,这样可以确保机列与机列之间冷气通道和热气通道分开,从而极大地提高制冷效率。此外,在条件允许的情况之下,同时也推荐采用地板下送风,热气上回的气流组织Heat Load Per Product Footprint(watts/equipment sq.ft.)10000 8000 6000 400020001000 800 60040020010060 1992 1994 1996 1998 2000 2002 2004 2006 2008 2010 2012 2014Communication-Extreme DensityCommu

8、nication-Extreme DensityCompute ServersCompute Servers-1U,Blade And CustomCommunication-High DenstiyCompute Servers-2U And GreaterStorage ServersStorage ServersWorkstations(Standalone)Workstations(Standalone)Tape StorageTape StorageYear Of Product AnnouncementASHRAE TC9.9cTime Without Cooling(Minute

9、s)10,000sf.Data Center)Average Cabinet Air Inlet Temperature504540353025201510 0 5 10 15 20 25122oF112oF104oF95oF86oF77oF68oF59oF50oF450W/sf 14.4kW/rack300W/sf 9.6kW/rack150W/sf 4.8kW/rackTime to 40Airflow direction54.50.5FanBevel areaBi-Color LED (PWR/Fail)320mm0.5AC40.250.5mm40mm FanBeveled to all

10、ow smooth insertion into the system390.5mm4.0建筑物楼板吊顶HVACHVACHVAC高压供气空间楼控. i n d d 3 62 0 0 9 . 11. 2 0 3 : 0 2 : 10 P MIntelligent Building & City Information 2009 11 No.156 37到相对湿度较高而进行空气除湿。空气的实际湿度并未改变,但测量的结果是相对的 :温度越高,相对湿度便越低。因此就有可能出现上文所述的情况。针对这种情况,可以在室内所有精密空调设备安装高级控制系统,使设备可以交换和协调各自的运行情况,从而避免出现“冲突

11、模式” ,如图 6 所示。传统意义上的数据中心精密机房空调系统建设几乎都是将单台的设备分开考虑,最多也就是考虑到了设备之间的备份,但在新一代数据中心的建设过程中,这种建设思路是不完善的。新的建设思想是既要将数据中心所有的精密机房空调作为个体来考虑,更要将所有的个体设备整合统一作为一个系统来进行考虑。在作了这样的处理之后,整个机房内所有的制冷设备不单可以做到备份与冗余,也可以完全避免竞争运行(例如除湿 /加湿同时运行) ,从而可以极大地改善数据中心空调能耗的现状。3 高热密度制冷 顶部辅助制冷是应用于高热密度制冷的开放式架构的方法之一,该方法使用 R134a制冷剂作为制冷媒介。顶部辅助制冷可提供

12、最大的灵活性、 最高的可靠性, 并能提高能效。顶部辅助制冷可以和传统地板下送风制冷系统配合使用,为现有及新建数据中心提供有效制冷,尤其是当传统地板下送风制冷系统不能满足机房制冷需求时。顶部辅助制冷主要有以下几个优点 :(1)可靠性为使顶部辅助制冷设备靠近高密度发热源,可将其放置在机架顶部或掉挂于天花板下,为机架顶部提供冷空气以解决机列上部1/3 部分的发热问题。此外,使用 R134a 替代水作为制冷剂也可提高可靠性并消除水带来的隐患。另外,由于制冷模块和电子设备不在同一密闭环境之中,在制冷系统发生电力故障时,机房中的冷空气可用作缓冲,可以在电力恢复前继续维持制冷。(2)能源效率如果对 1kW

13、显热负荷制冷,目前市场上使用的顶部辅助制冷系统能够比传统的地板下送风精密空调系统节省 32% 的能源。其中一个原因是顶部辅助制冷系统用来传输空气的风机功率降低了 64%,这是因为在静态零压下它只需要将空气移动不超过 1m。另一个原因是这些制冷模块的能耗被 100% 地用于显热负荷制冷,没有能源被浪费在控制湿度方面。另外,使用制冷剂可令每 1kW 显热负荷减少 0.2kW 的冷凝器容量需求。这不但能图 6 数据中心精密空调系统工作方式协调前后对比图Humidifier ONUnit1Humidifier ON Unit2Dehumidification ON Unit3UNBALANCED LO

14、ADNO LOADUnit6Unit6Unit5Unit5Unit4Unit4 Humidifier ONDehumidification ONCompressors ONUnit1Unit2Control Disables heaters in ”Cold Zone”SWITCH OR HUBPOWERUNBALANCED LOADNO LOADCompressors ON楼控. i n d d 3 72 0 0 9 . 11. 2 0 3 : 0 2 : 10 P M38 智能建筑与城市信息 2009年 第11期 总第156期楼宇自动化BUilding Automation减少能耗,还可以

15、在不增加冷凝器的情况下增加制冷容量。(3)最大灵活性顶部辅助制冷在应对数据中心增长带来的布局问题上为用户提供最大灵活性。由于系统不使用任何宝贵的架高地板空间,因而不受机架摆放方位、管道和设备位置的约束。另外,当今的辅助制冷系统可以与任何机架制造商的设备相匹配。它采用管道预先安装方法,可在天花板上安装必要的管道,这使得最终用户可通过“即插即用”的方式增加制冷模块,且不影响其它制冷模块的运行。4 提高部分负载运行时的效率 数据中心设计允许一定的制冷系统冗余。此外,当外部环境温度低于设计峰值时,直接蒸发式或风冷式精密空调 CRAC 的实际容量会增加。这意味着空调设备始终未满载运行,需要通过设计系统,

16、使其在正常运行期间更为有效地运行。由于其运行状况并不稳定,需要在设计中引入基于运行状况改变容量的方法。有多种方法可改变精密空调 CRAC 的容量。两种最为普遍的方法是采用四步压缩机卸载技术以及采用 Digital ScrollTM数字涡旋压缩机技术。四步压缩机卸载技术的工作原理是通过阻止制冷剂注入系统中的某些气缸,最大限度地减少因控制容量的需要而周期性地开启和关闭压缩机。由于卸载技术从本质上改变了压缩机的运行点,因此可使制冷系统在较小容量时运行更为有效。例如, 运行于 “卸载”状态下的双压缩机系统,能耗约为满载系统的 50%,但却会产生 76% 的制冷量,这是因为此状态下冷凝器和蒸发器均为满载运行。图 7 显示出了通过

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 生活休闲 > 科普知识

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号