平谷区绿色数据中心示范项目

上传人:I*** 文档编号:187093405 上传时间:2021-07-25 格式:DOCX 页数:7 大小:162.53KB
返回 下载 相关 举报
平谷区绿色数据中心示范项目_第1页
第1页 / 共7页
平谷区绿色数据中心示范项目_第2页
第2页 / 共7页
平谷区绿色数据中心示范项目_第3页
第3页 / 共7页
平谷区绿色数据中心示范项目_第4页
第4页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《平谷区绿色数据中心示范项目》由会员分享,可在线阅读,更多相关《平谷区绿色数据中心示范项目(7页珍藏版)》请在金锄头文库上搜索。

1、 平谷区绿色数据中心示范项目 平谷区信息化建设从1999年开始,由区信息中心统一建设、管理和维护。在区委、区政府的坚强领导下,始终遵循实际、实用、实效的“三实”原则,为平谷区“生态绿谷、京津商谷、绿能新谷、中国乐谷、幸福平谷”建设提供有效的支撑,为实现“五谷”发展目标奠定坚实的基础。截至2015年12月,平谷区政务网络已经覆盖110个政府单位,272个行政村,28个居委会,共有服务器56台,各类网络设备33台。运行区政务网站、政务公开、土地管理、人口管理、公积金管理、电大在线考试等业务系统163个。为了对业务系统提供更好的运行环境支持,根据平谷区信息化发展的长远战略要求,并充分考虑未来数年的I

2、T系统发展应用需要。2015年,区信息中心在社会服务中心新建数据中心机房,总面积约为350平方米。该机房具备功能完备、安全可靠、设施先进、绿色环保等特点。为工作人员提供方便、快捷、舒适的工作环境,并提供安全、高效的管理手段。数据中心链路保障上使用链路负载均衡设备,首信、网通双链路备份,并通过流量控制设备对带宽进行分配,对部分用户进行流量保障。采用交换机访问控制列表与防火墙访问控制来对高风险的端口、地址、服务进行控制。在互联网出口架设行为审计设备,对网内用户访问互联网、发帖等内容进行条件限制和查询。一 创建思路随着我区数据中心规模的不断扩大,2016年还将新增政法委应用系统、农村技防等,用电量在

3、未来还会大幅提升。为有效降低数据中心的运行成本,我们收集了未改造数据中心之前运行的详尽数据,并对运行情况进行能源分析,得出机房能耗构成情况如下:IT设备(包括交换机、服务器等)用电占总用电量的45%左右,空调用电占总用电量的48%左右,供配电和其他损耗占7%左右。根据以上能耗构成分析,我们设计节能方案的重点将放在改造空调制冷系统、完善数据中心气流组织和改造供配电系统等几个方面。因此,提升平谷数据中心能效的途径主要有以下几条。一是改造现有空调设备和机房环境,综合考虑设备安放位置,构建冷热通道,将恒温恒湿空调送出的冷风密闭在一个限制的区域内,彻底解决冷热气流混合问题。二是改进数据中心机房UPS的供

4、配电系统,采用集中供电方案,将数据中心分成数个区域进行供配电。三是提升现有IT设备的使用效率,采用虚拟化的方式,降低设备的数量,提高单个设备的应用效率。通过三个方面对数据中心进行改造之后,能耗至少降低30%。二 创建目标1.总体改造思路我们通过对数据中心能耗结构进行了多次分析对比,空调冷却系统在数据中心的运行过程中是不可缺少的,约占数据中心总能耗的一半,冷却系统能效因子(CLF)是PUE值中权重最大的因子,降低冷却系统的耗能就是降低PUE值。因此,升级现有的空调系统,将耗能较大的普通工业空调系统更换为耗能较低的恒温恒湿空调系统,同时科学、合理设计冷热风道。增加冷通道封闭组件,将恒温恒湿空调送出

5、的冷风密闭在一个限制的区域内,彻底解决冷热气流混合问题。数据中心机房的供配电及辅助照明系统能耗约占数据中心的7%。其能源损耗主要发生在电源转换、供电链路线损上。未改造前的UPS系统于2008年安装,到2016年已经使用6年多了,部分电池已经出现老化现象,耗能较高。为降低耗能,升级现有的UPS系统,更换为耗能较低的高性能UPS系统,在提供同等功率的情况下,耗能更低。IT设备(包括交换机、服务器等)能耗约占数据中心总能耗的45%,处理器每减少1W能耗,整个数据中心供电链路可以减少2.84W能耗。由于IT设备能耗在数据中心的能耗比例越来越高,DCE值将趋于最大值,因此降低IT设备的能耗才是数据中心节

6、能的关键。为降低IT设备耗能,减少IT设备使用数量,提高单台设备的使用效率,升级耗能较高的老旧交换机、服务器等设备,采用政务云、虚拟化技术将大大降低电能消耗。2.设计依据数据中心在节能低碳改造实施过程中遵循的依据首先是:a.国家标准电子计算机机房设计规范(GB50174-2008)b.国家标准计算站场地技术要求(GB/T2887-2000)c.国家标准电子信息系统机房施工及验收规范(GB50462-2008)d.国家标准采暖通风与空气调节设计规范(GB50019-2003)其次是标准化、集成化、虚拟化、智能化、安全性、可靠性。系统标准化:遵循国际标准协议的产品和技术可从根本上保证全网的兼容互通

7、,依据标准接口的网管软件可以跨多供应商设备统一管理,采用标准化技术、协议的产品成熟、应用广泛、稳定性高,可靠性好。所有设备统一使用IP协议,减少各设备间使用私有协议导致的不兼容,减少因使用不同非私有协议需要额外采购的大量协议转换设备。使用标准以太网接口,减少不同接口间的转换。组件标准化:提高设备的利用率,使组件易获得,降低采购成本,可以通过软件升级方式来提升设备性能、增加产品特性,满足不断更新的功能/性能需求。集成化:通过集成化设计,整个通信产品的设备数量能够尽量地降低,通过减少设备总量、降低设备使用所需资源(空间、机架、线缆、电力、人力等),来达到节能减排的目标。虚拟化:将共用的一套物理网络

8、、客户端、服务器资源虚拟出多套逻辑资源,供不同的群组/部门、业务使用,实现根据业务和应用划分访问权限和业务流向、安全隔离,同时,也能根据需要提供灵活的互访控制。通过虚拟化技术实现终端接入的安全和访问权限控制、业务数据传输的安全隔离、应用资源的按需分配,提高了网络整体资源的利用率,降低用户投资,简化网络管理。智能化:管理平台不仅提供常规网络管理和信息采集功能,还能自动进行性能分析、实时监控、集中权限管理和事件智能管理,提高网络管理水平和运维效率,间接降低能耗。安全性:通过网络分层设计尽量隔离故障,把影响降到最低,通过EAD方案实现接入安全,针对边界、远程接入、内网控制、终端提供不同的安全方案,全

9、面提升网络安全性。可靠性:从分层、模块化、各层功能定义、冗余设计、特性部署等几个方面提升网络可靠性,针对不同应用场景提供最佳性能参数,从而提升方案可靠性。三 创建工作实施内容通过对数据中心的能耗结构、能耗逻辑、PUE和DCE的分析,在确保使用产品成熟稳定的基础上,从源头推动制冷、电源、照明等相关子系统改造,改造内容如下。1.采用热管换热技术,充分利用自然制冷升级改造现有制冷系统,采用高能效的热管换热空调技术,利用自然冷媒摄取室外低温,从而降低空调能耗。在适合的室外环境温度下利用室外冷源而无须开启压缩机,从而在降低空调运行能耗的同时,对机房内的空气洁净度不会产生任何干扰。在能耗不变的情况下,提升

10、制冷量,充分利用室外自然冷源,达到最优的冷却效果。采用高能效智能双循环型数据中心恒温恒湿空调(SDC)系统,在室外温度高时,SDC智能空调会自动切换,使用机械制冷(普通模式),在室外温度比较低时,使用机械制冷和自然冷却相结合,(过渡模式),当室外温度很低时,完全使用自然冷却(节能模式)。中国电子政务年鉴(2015)北京的春、秋和冬季,室外温度较低,在这种情况下采用换热器把室外的冷量通过冷媒间接引入机房内,空调系统总耗电量最大的压缩机就可以少开或者不开,节电效果明显。2.采用双排密封冷通道的方式部署模块化机房考虑到机房现场环境,充分利用机房可用空间,本方案在主机房采用双排密封冷通道的方式部署华为

11、模块化机房,采用一体化设计,高度集成机柜系统、供配电系统、制冷系统、监控系统和综合布线系统,同时为配合机房地板统一高度,将机房主体安装在机房架高支架上。在配电室部署供配电系统。机房位于地下二层,可用面积(不含楼道)约400m2,分设8个区域:主机房172m2、配电间36.5m2、工具间17.8m2,通信机房32.3m2、非标机房29.6m2、机要机房21.5m2,监控室41.3m2、休息室20m2。设计1个解决高热的微模块机柜系统,模块含28个IT机柜(功率密度4kW)、2个弱电配线柜、2个精密配电柜和4个35kW行级空调。根据B级机房标准,设计2台200KVA模块化UPS组成双母线系统,配置

12、1台输入配电柜、1台输出配电柜和1台旁路配电柜,四个电池架摆放电池。IT负载功率284kW=112kW(5kW为弱电负荷),112kW/0.9/0.8=156kVA,建议选用UPS容量为:160kVA。考虑到系统可靠性,选择200kVA模块化UPS,冗余一个模块,两台UPS组成2(N+1)系统。空调设计,112kW/35kW=3.2,需要3台35kW行级风冷空调;考虑到系统可靠性,配置4台35kW行级风冷空调;双排机柜进行冷通道密封,冷热气流隔离,提升制冷效率。2路市电分别接到2台UPS电源,UPS输出分别接入模块内的2台精密配电柜,给IT设备供电;空调和照明直接从1路市电取电。3.规划和改进

13、UPS供配电系统采用集中供电方案、合理规划配电线路的路由走向,将数据中心分成数个区域进行供配电方案设计,缩短供配电的路径,降低损耗。将数据中心现有的老旧UPS系统改造为高可靠性、高效率、支持模块化热插拔的UPS系统,因为目前的UPS系统在30%负载时效率为72%75%,而新型高效UPS系统要求在30%负载时效率为89%91%。集中供电方案整体成本比分散供电总成本低,将UPS所有模块集成在一个柜体内实现,运行效率高,并且可靠性远远大于分散供电,便于集中安装、维护和管理。4.采用喷水雾化装置,改善室外机散热我们在数据中心空调系统的室外机底部(或背后)安装雾化喷淋装置,利用雾化器喷出极细水雾,水雾在

14、空气中蒸发,吸收大量热量,使冷凝器底部(或后侧)温度比正面温度低35度,从而降低冷凝器进风侧的温度,提高冷凝器的散热效率,改善压缩机工况,消除压缩机停机、跳机现象,提高空调系统的制冷效率,达到节约电能的效果,但又不会影响空调设备的可靠性及寿命。室外机雾化喷淋系统是由硬件设备和软件设备组成,其工作原理是由水喷雾产生、喷雾量控制、水喷雾启停、自检告警和网管监控、冷凝水回收组成。5.改善数据中心物理环境,降低墙体传热系数对数据中心建筑物的窗户进行改造,进行密封隔热以减少太阳辐射热进入机房,同时建筑内墙体、楼面采用保温隔热设计,减少机房冷量损失。在材料的选择上,外墙体避免使用吸光材料或含有毒的塑料装修

15、材料。尤其在机房内部,注重绿色和环保,吊顶和墙面装修材料和构架应使用阻燃型装修材料,表面要经过阻燃涂覆处理,数据中心内部采用隔音、防尘的双层合金玻璃窗。机房内采用节能照明灯具,合理考虑照明、空调和湿度设备的配置关系。6.降低IT设备使用数量,提升IT设备使用效率我们经过分析对比,在IT设备节能方面,采用低功耗处理器、刀片式服务器、虚拟计算技术能显著提升IT设备使用效率。低功耗处理器:利用超低功耗芯片替代高性能服务器芯片,每个低功耗芯片的功耗平均为高性能芯片功耗的5%,所以整体上在消耗相同能源条件下,基于低功耗的服务器更有效率可提供更多的运算量。虚拟计算技术:在一台物理服务器上设置多逻辑服务器,

16、在运算低谷期减少物理服务器运算数量,将计算业务集中到少数物理服务器进行集中运算的一种节能技术。7.采用政务云平台,降低用电成本智慧平谷总体架构,具体描述如下。(1)区级云平台采用统一建设统一运营模式;各委办局原则上不再建设本地独立IT系统,互联网出口统一至区信息中心。(2)云平台分为公众服务专区和资源共享专区,云资源共享专区与互联网通过安全措施有效隔离;各单位政务外网的业务系统应根据服务对象逐步迁移至公众服务专区或资源共享专区上。四 效果分析本项目自2015年11月份投入运行,至今运行3个月,IT用电量达到了实际运行量的65%,与一期的常规空调相比,冬季使用室外冷源时间延长了42天,同时整体的空调系统节能15

展开阅读全文
相关资源
相关搜索

当前位置:首页 > IT计算机/网络 > 云计算/并行计算

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号