欢迎来到天天文库
浏览记录
ID:29440969
大小:43.50 KB
页数:7页
时间:2018-12-19
《大数据中心节能方案设计分析报告》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库。
1、实用标准文案数据中心节能方案分析 数据中心的能耗问题已越来越成为人们所关注,绿色数据中心的呼声越来越高。由于数据中心涉及的专业很多,研究者往往只从本专业出发,而没有考虑与其他专业的配合问题。随着信息技术的发展,数据中心的节能手段也在不断的更新和提高,目前主要使用的节能手段有以下几个方面。1.1冷热通道隔离技术 经过多年的实践和理论证明,在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空
2、调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单的方式就是机柜面对面摆放形成冷风通道,背靠背摆放形成热风通道,这样会有效的降低冷热空气混流,减低空调使用效率。如下图所示:冷热通道完全隔离隔离冷通道或者隔离热通道哪种方式更好呢?这两种方式都将空
3、调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率,区别主要是可扩展性,散热管理和工作环境的适宜性。隔离冷通道的可扩展性主要是受地板下送风和如何将地板下冷风送入多个隔离冷通道的制约。很多人认为只要当空调机的出风量能满足设备的散热风量即可,但是他们忽略了高架地板下冷送风对于多个隔离通道的压力降和空间的限制。相反的隔离热通道则是使用整个数据中心作为冷风区域来解决这个问题,正因为这样扩大冷通道的空间。隔离热通道相比于隔离冷通道有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。而且
4、随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55℃精彩文档实用标准文案。隔离冷通道的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将增加了数据中心工作人员的舒适度和减少数据中心其他设备的使用寿命。综上所述,虽然这两种方法都可以提高空调使用效率,但是相比较起来,隔离热通道比隔离冷通道的效率更高、适用性更好。1.2冷源方案比较 根据统计数据表明,数据中心的制冷系统占机房总功耗的40%左右。机房中的制冷主要是由机房空调负责,所以降低机房空调的耗电量可以有效的降低机房的PU
5、E值。目前数据中心中较为常用节能制冷系统有以下四种:(1)水冷冷冻水机组+自由冷却系统本方案组成设备包含:水冷冷水机组、板式换热器、冷却水泵、冷却塔、冷冻水泵、定压补水装置、加压装置、蓄冷水罐、末端空调机组等组成。整个系统由冷冻水系统和冷却水系统组成,系统分三种工作模式:正常制冷、部分自由冷却、完全自由冷却。(2)风冷冷冻水机组+自由冷却系统本方案组成设备包含:风冷冷水机组、干盘管、冷冻水泵、定压补水装置、加压装置、蓄冷水罐、末端空调机组等组成。本系统做自由冷却用的干盘管可集成于风冷冷水机组内,系统分三种工作模式:正常制冷、部分自由冷却
6、、完全自由冷却。(3)自带冷源式风冷空调机组+自由冷却自带冷源式风冷空调机组系统属于分散式空调系统,空调机组由室内机、室外机、干盘管组成。室外机内置压缩机,干盘管集中布置于室外,母管连接由水泵分配至各室内空调机,系统分三种工作模式:正常制冷、部分自由冷却、完全自由冷却。(4)模块末端全空气空调机组水冷冷冻水本方案组成设备包含:水冷冷水机组、冷却水泵、冷却塔、冷冻水泵、定压补水装置、加药装置、蓄冷水罐、全空气循环风机组等组成。过渡季及冬季直接把室外冷空气经全空气循环风机组处理后送至机房内,以减少冷源部分的能耗,系统分三种工作模式:正常制冷
7、、部分自由冷却、完全自由冷却。数据中心到底使用哪种制冷系统,需要根据项目所在地的各项条件综合考虑。在我国长江以北地区,如果有条件建议采用水冷冷冻水机组+自由冷却系统的方式设计制冷系统,这样在冬季气温7-12℃时可以采用预冷的方式,使用部分冷冻机组。在室外温度小于7℃时,可以不启动冷冻水机组,完全用自由冷却系统对机房降温,大大减少的了能源的消耗。1.3采用变频电机 精彩文档实用标准文案空调系统的制冷能力和环境密切相关,夏天室外温度越高,制冷能力越低,因此大型数据中心空调系统的制冷量都是按最差(夏天最热)工况设计的(空调的制冷量一般要比其
8、在理想工况下的额定值低,这时建筑物本身不但不散热,反而吸热)。这样,全年绝大部分时间空调系统运行在负荷不饱满状态。另外,大型数据中心的IT负荷从零到满载也需要相当的时间,一般也在一到三年之间。还有,IT负载
此文档下载收益归作者所有