数据中心节能减排改造技术措施

作者:兰洋科技    浏览量:4040    时间:2023年03月08日    标签: 绿色数据中心 节能减排 碳中和 PUE

数据中心节能减排技术改造的目的是提高能源利用效率、降低PUE。由于数据中心能源消耗主要集中在信息系统、通风和制冷系统、电气系统三大领域。因此,这三大领域是能效提升的重点。本文将从数据中心能耗出发,重点介绍信息系统、通风和制冷系统、电气系统节能技术改造的思路和方法。

1.概述

为了保障IT设备和软件运行稳定,数据中心对电能质量和机房环境要求较高,需要配套供配电、通风、制冷等环境基础设施。通常,数据中心由信息系统和辅助设备构成,辅助设备又可分为通风和空调系统,以及电气系统。

从能耗结构看,一个典型的数据中心能耗可分为以下三个部分:

  • (1)信息系统:占数据中心能耗的42%,包括服务器、存储设备和网络通信设备等。其中,服务器的数量最多。

  • (2)通风和空调系统:占数据中心能耗的40%,其中空调制冷系统占总能耗的25%以上,其他为空调送、回风系统;

  • (3)电气系统:占数据中心能耗的18%以上,其中,UPS系统占总能耗的8%,其他为辅助照明等能耗。

数据中心的节能改造将综合运行技术管理手段。在保障IT设备和软件运行稳定的基础上,提高IT设备运行效率,对通风/空调系统和电气系统等环境基础设施,以及建筑外围结构等进行改造。在技术改造的同时,运用智能化手段等,加强数据中心的节能管理,以提高数据中心能源利用效率。

数据中心通用的节能技术改造措施如下:

表1数据中心通用的节能技术改造措施

表1 数据中心通用的节能技术改造措施.jpg

数据中心节能改造的流程可以归纳为:

  • 1)对数据中心进行调查,筛选。首先分析服务器的单机功耗,上架率,数量等,确定IT设备总功耗。然后分析针对IT总功耗需要匹配的空调类型,功率等制冷系统功耗范围。然后与企业实际制冷系统进行对比,核算二者的差别,并测量现场制冷的温度和效率,进而得出数据中心制冷效率的初步结论。

  • 2)对数据中心进行分类:第1类为能效很差的数据中心,必须进行改造;第2类为能效一般但是规模大的数据中心,值得改造;第3类是实施可行性强的数据中心,不涉及宕机的问题则易于改造。

  • 3)初筛确定改造的数据中心后,向数据中心方提交供选择的第三方诊断核查企业名单,由甲方确定第三方诊断企业,进行现场诊断。

  • 4)施工方进入,对数据中心进行节能改造。

  • 5)第三方诊断公司再次对数据中心进行评估,验收。

在数据中心节能技术方面,近年来工信部发布了《绿色数据中心先进适用技术产品目录(2019年版)》以及《国家绿色数据中心先进适用技术产品目录(2020)》。将数据中心节能相关技术分为:能源资源利用效率提升技术产品(包括高效系统集成技术产品、高效制冷/冷却技术产品、高效IT技术产品、高效供配电技术产品、高效辅助技术产品)、可再生能源利用和分布式供能以及微电网建设技术产品、废旧设备回收处理等技术产品、绿色运维管理技术产品等四大类型,可作为数据中心节能减排技术改造的重要参考。

2.建筑与建筑热工

进行建筑和建筑热工节能改造的目的是优化机房建筑结构,提高密封性。在夏热冬冷地区、夏热冬暖地区、温和地区的大部分时间里,外界环境处于高温状态,做好隔热、密封,可以减少外界环境对数据中心内部服务器的热量输送,减少制冷系统的负担。

可按照建筑节能改造标准GB50174进行外围护结构改造,主要方式为在外墙体加装隔热棉、空心砖,在密封性差的门窗加装胶条等,做好数据中心的隔热工作。

在节能改造后,外围护结构所采用的保温材料和建筑构建的防火性能应符合GB50016的规定。常年无人值守的数据中心设有外窗的,应同时满足保温要求。封闭后气密性不低于GB/T7106的8级要求。

3.信息系统

信息系统能耗最大,考虑到能耗的级联效应,信息系统的降耗也会引起前端配电和空调耗电量的减少,因此,信息系统节能对于数据中心降低PUE意义重大。

作为数据中心的第一能耗大户,信息系统节能的关键是选用低能耗的IT设备,提高IT设备能效比。IT设备能效比越高,意味着IT设备单位能耗所能存储、处理和交换的数据量越大。提高IT设备能效比,可以降低机房配套的电气系统和空调系统等的容量和能耗,从而带来巨大的节能和经济效益。

通用的技术手段包括:

1)在设备选型方面

根据数据中心的建设标准,结合实际扩容需求等,购置设备,尽量采用高密度、高能效比、耐高温、耐腐蚀、空气洁净度要求低的电子信息设备。根据初步测算,IT设备用电量每下降1度,数据中心整体用电量就会下降2度以上,评价IT设备能效的主要指标包括ECR,即能耗与系统吞吐量的比值,IT设备的ECR指标越低,设备能效越高23。

在技术层面,选择低功率CPU处理器、虚拟化运算技术、高效电源、动态制冷、刀片式架构、电源智能化管理以及“动态休眠”等技术的IT设备。设备应能根据系统运行要求和负载状态,动态调整系统各软件的工作和休眠状态。建议设备整体休眠的节能效果最低应达到20%,优选具有国际或国家行业节能等级认证的设备。

在条件允许的情况下,优先选用液冷机架。

2)在设备使用方面

对数据中心处理的业务进行合理分级和规划,避免对A级数据中心基础设施资源的过度占用,同时提高代码效率,提高业务处理能力和效率。在满足设备运行安全和稳定的前提下,尽量提高IT设备的利用率,节省运行设备的数量。

统筹考虑数据中心的各类计算、存储和网络资源,采用松耦合架构配置各类资源,实现资源的共享和灵活调度,根据资源消耗比例灵活增加和减少某类资源的配置,做到按需配置。

在技术成熟的情况下,适时运用虚拟化和集群技术等。

3)在设备布置和节能管理方面

机架的布置应满足机房整体布局要求和冷热分区的要求,机架用电量与相应区域的制冷量相适应,设备的进排风方向应与机房气流组织的要求一致。

合理规划设备布置,同区域内的机架用电量应尽量均匀,避免出现局部热岛现象;同机架内尽量部署物理尺寸、用量和排风能力相近的设备,单机架耗电量应尽量不超过机房设计时的机架平均用电量;当机架用电量差别较大时,机房内制冷设备和制冷量分布应考虑到不同功率机架的位置。

机架应按照规划设计能力饱满使用,当机架无法一次性安装完毕时,应从距离送风口较劲的空间开始安装设备。设备之间的空隙处应安装挡风板,防止冷热风短路。

4.通风及空调系统

通风和空调系统是为了保障IT设备运行所需温度、湿度环境而建立起的配套设备设施。通常通风和空调系统能耗占到数据中心总能耗的40%,是数据中心能耗最大的辅助设备。主要的耗能设备包括专用空调、列间空调、加湿器;冷源设备包括风冷空调室外机、冷水机组主机、冷却水塔等;新风系统包括送回风风机、加或除湿设施等。

目前,数据中心制冷系统面临的普遍问题:一是运行模式不合理,大部分数据中心全面需要制冷;二是冷湿环境不均匀,机房普遍存在局部过热现象;三是处理流程不合理,同一机房存在同时除湿和加湿现象;四是输配环节能耗高,特别是风机功耗多大。因此,制冷系统节能改造一直是数据中心节能改造的重点和难点。

对于通风和空调调节系统的节能技术改造,通用的措施包括:

  • 1)选择高效节能设备、加强节能管理、对温度湿度的控制等,提高能源综合利用效率。

  • 2)综合考虑建设规模、功率密度等条件,优先采用带有充分利用自然冷源或带有废热回收的系统方式。

  • 3)对通风、冷源、输配、末端,特别是气流组织等系统进行综合改造。

  • 4)有条件的数据中心,可采用液冷技术

4.1采用高效节能设备

作为数据中心能耗最大的辅助系统,冷却系统是提高数据中心能效的关键。

在高效节能设备和技术利用方面,建议采用磁悬浮离心冷水机组、变频离心高温冷水机组、变频螺杆高温冷水机组、冷水机组+自然冷却系统、高效热管自然冷却系统、蒸发冷却制取冷风技术、蒸发冷却制取冷水技术和蒸发冷凝技术等,提高冷却系统的能源利用效率。

4.2合理利用自然冷源

利用自然冷源已经成为数据中心提高能效的重要途经。自然冷源的利用主要包括风侧自然冷却、水侧自然冷却、氟侧自然冷却三种主要形式,三种冷却技术的主要特征和设备原理如下。

表2 不同环境的自然冷却制冷系统对比

表2 不同环境的自然冷却制冷系统对比.jpg

图1 数据中心的三种典型自然冷却模式示意图.jpg

图1数据中心的三种典型自然冷却模式示意图

1.风侧自然冷却

风侧自然冷却技术是数据中心最有效的自然冷却技术,该技术直接利用室外低温空气给数据中心机房降温,减少了换热流程。风侧自然冷却适用于气候环境好,空气质量好,气候凉爽的地区。在中国大部分严寒地区、寒冷地区适用,部分夏热冬冷地区、温和地区适用。

图2 中国风侧直接自然冷却时长分布图(小时 年).jpg

图2中国风侧直接自然冷却时长分布图(小时/年)

图3 中国不同气候带典型城市的完全自然冷却时间(以年当量计算).jpg

图3中国不同气候带典型城市的完全自然冷却时间(以年当量计算)

上图为中国主要城市的完全自然冷却时间。理论上年冷却时长位于5000小时以上的区域均具有安装新风系统的条件。

从自然条件上看:

  • 西宁、拉萨、呼伦贝尔、兰州、呼和浩特、银川与乌鲁木齐等年冷却时间大于8000小时的城市,通过节能改造最多可降低约26%~33%的能耗,降低PUE至1.1~1.2;其中,西宁、拉萨、呼伦贝尔的温度、湿度和空气洁净度更加符合直接自然冷却的条件,为潜力最大的节能地区。兰州、呼和浩特、银川与乌鲁木齐由于空气质量相比较而言略差,过滤系统的运行时长增加,节能潜力次之。

  • 东北、华北部分地区例如哈尔滨、长春、沈阳、太原、石家庄等城市,全年自然冷却时间位于6000~7000小时,通过节能改造最多可降低17.2%的能耗,降低PUE至1.35;

  • 华北大部分地区、中原地区、部分西部地区例如北京、天津、济南、西安、郑州等城市,全年自然冷却时间位于5000~6000小时,通过节能改造最多可降低18.8%的能耗,降低PUE至1.32;

  • 东部沿海、长江流域、四川盆地、部分西南地区以及珠三角等地区例如上海、杭州、长沙、成都、重庆、贵阳等地,全年自然冷却时间约小于5000小时。其中,上海、昆明、贵阳、杭州、武汉、南京、南昌、长沙、成都、重庆的全年冷却时间位于4000~5000小时,通过节能改造最多可降低16.4%的能耗,降低PUE至1.36,其余地区节能改造潜力较小。

2.水侧自然冷却技术

水侧自然冷却技术是在室外空气湿温度较低时,利用低温的冷却水与冷冻水换热,使冷冻水达到供水温度要求或降低冷冻水温度,从而减少冷机的开启时间和强度。与风侧自然冷却不同,水侧自然冷却通常对外界空气环境要求不高,但要求数据中心靠近江河湖海的数据中心。

根据学者研究,水侧自然冷却更适合寒冷和严寒地区。典型城市应用自然冷源的情况,节能率最低的是21%,最高达到38%,节能效果较为显著。而在东北部地区、西北部地区以及青藏高原地区,节能率大多位于50%以上。

图4 中国数据中心水侧间接自然冷却节能率分布图.jpg

图4中国数据中心水侧间接自然冷却节能率分布图

从应用实践看,目前国内外已有众多数据中心成功利用自然冷却,实现能效提升。

在国内,浙江千岛湖某数据中心利用湖水自然冷却,采用开式空调系统,并配置蓄水池等设备保证不间断运行,节能效果显著;天津的腾讯某数据中心采用冷热通道隔离、水侧自然冷却、自然风冷却、变频技术、分时式制冷等多项节能技术,节能能力居于中国领先水平;中国电信的永丰国际数据中心通过冰蓄冷、水冷自然冷源、高压直供、分散式供电、太阳能等新技术以及科学运维,获得了显著的节能效果。

在国外,Google位于比利时的数据中心,实现100%水侧自然冷却,是Google第一个完全达到自然冷却的数据中心;Google在欧洲还有2个实现完全自然冷却的数据中心,一个位于爱尔兰,采用直接蒸发制冷技术,一个位于芬兰,采用100%海水散热;此外,雅虎位于纽约洛克波特的“鸡笼”数据中心、Facebook位于俄勒冈州的数据中心、惠普位于英国温耶德的数据中心均采用自然冷却技术达到了良好的节能效果

4.3优化气流组织形式

气流组织形式是影响数据中心空调系统节能的重要因素。冷气流动过程中的阻力越小,冷风和热风气流隔离的越好,冷量损耗的就越小,空调主机运行效果就越高,能效比越好。

在数据中心设计规范和节能标准中,均将气流组织优化作为重点内容。气流组织优化的内容主要包括合理设计,通过多种措施提高机房空气冷却效率等。

1.合理设计机房气流组织

机房内部存在局部过热现象。造成这一现象的原有是机房内的气流组织不合理,多数机房采用的上送风方式不符合热空气自然上升的流动规律。这种先冷环境、后冷设备的送风方式,导致了局部过热现象。并且冷热空气相互混合,减少了送回风温差,增加了送风量,造成了不必要的浪费。

因此,如何合理设计机房内的气流组织,减少无效回风和冷热气流混合成为数据机房配套设计和改造所面临的一大难题。如果这一问题得到有效解决,就意味着机房空调制冷效率大大提高,从而达到节能和降低PUE的目的。

为了解决上述问题,机房内的上送风方式正逐步向着架空地板送风、机房上部回风方式改进,对机柜布置、冷热通道布局等提出新的要求。同时,新型近端制冷技术更加靠近负载,其制冷密度和节能效果远超传统的远端制冷,有效解决机房高密度和局部过热的问题。

具体的措施包括:

  • 1)在机房机架布置上,应采用“面对面、背靠背”方式布置,形成“冷”和“热”通道;

  • 2)机房空调应采用下送风、上回风方式,架空地板下不应布置各种线缆;根据符合功率密度,合理规划架空地板高度,确定地板下送风断面风速控制在1.55-2.5m/s,一半数据中心机房架空地板高度不应小于400mm;

  • 3)机架和空调设备的距离应大于1200mm,避免出现回风短路的情况,当空调设备送风距离大于15m时,需在机房两侧布置空调设备;

  • 4)如果必须采用上送风,下回风方式时,应采用风管送风方式,风管、送回风口的尺寸应根据机房热负荷计算确定。

早期国内数据中心的相关设计规范均要求机房内的环境温度为22℃~25℃。这样必然导致制冷系统需要将机房内的环境温度处理到相应温度。尽管IT设备机柜的出风侧通道和外围走廊等环境空间的温度符合要求,但IT设备的实际散热却不一定。这造成了大量的冷量浪费在环境空间里。

《数据中心设计规范》(GB50174-2017)已明确规定温度控制点为机柜的进风侧,即专用空调的冷空气仅需存在于IT设备散热所需的地方,这一气流组织形式的改变提高了制冷系统冷却IT设备的效率,提高了节能效果。

2.提高机房空气冷却效率

数据中心机房通常有四种气流组织形式,包括房间级、行级、机柜级和芯片或服务器级。对于机房空气冷却效率而言,通常关注房间级、行级和机柜级冷却方式。

首先,最普遍采用的是房间级制冷。采用房间级制冷时,制冷系统与机房直接关联,并行工作来处理机房的总体热负荷。在设计中,对气流的关注往往有很大的不同,对于较小的机房,机柜有时随意摆放,对于气流没有特别的规划、遏制,这部分数据中心是最为重点的节能改造对象。而对于较大的复杂数据中心,可能使用高架板送风到经过精心规划的热通道/冷通道,来引导气流并使其与机柜相适应的目的。房间级制冷机房本身独有约束的影响很大,比如室内净高、房间形状、地板上下的障碍物、机柜布局、制冷系统位置、IT负载功率分配等。

采用行级制冷配置时,制冷机组与机柜行相关联,在设计上,机组可能位于IT机柜之间,也可吊顶安装。与传统无气流遏制房间级制冷相比,气流路径较短,专用度更加明确。对于200kW以下的数据中心应采用行级制冷,无需高架地板即可部署,而对于已有数据中心,在部署较高密度负载时(每机柜5kW或更高),应进行行级制冷节能改造。

采用机柜级制冷时,制冷机组与机柜相关联,机组直接安装在IT机柜上或者内部。与房间级或行级制冷相比,机柜的气流路径更短,且专用度更准确,使得气流完全不受任何安装变动或机房约束的影响,可达到最高功率密度50kW。

图5 房间级、行级与机柜级制冷模式对比示意图.jpg

图5房间级、行级与机柜级制冷模式对比示意图

表3柜级、行级与房间级制冷特点与优劣势对比

表3 柜级、行级与房间级制冷特点与优劣势对比.jpg

从三种方式对比看:机柜级制冷最为灵活、部署最快,并能支持最高功率密度,但需要额外费用开支;行级制冷具备机柜级制冷的诸多优势,如灵活性、部署速度以及密度优势,且成本较低;房间级制冷能够通过重新配置穿孔地板来快速更改制冷分配模式,在低密度数据中心,所有机柜共享制冷冗余,此方式具有成本优势,且最为简单。

气流组织优化对于数据中心节能降耗效益显著。据测算,全国中小型数据中心从2006年的PUE=2.7降低到了2013年的PUE=1.8,其中一部分是通过优化气流组织实现的。目前,国内仍有一部分数据中心气流运行不合理,导致其PUE过高。据专家测算,通过对气流的改造,国内中小型数据中心PUE值有望从1.8下降到1.5。

4.4采用液冷技术

液冷是指使用液体作为热量传输媒介,与发热部件进行换热,进而带走热量的技术。虽然液冷技术研发的初衷是为解决传统制冷面临的高功率主机散热难题,但在发展的过程中,逐渐成为数据中心降低PUE值的突破性技术。

从技术效果看,液体传导热能效果好,比热容大,在吸收大量的热量后自身温度不会产生明显变化,能够稳定CPU温度,实现机房环境40度条件下无需空调制冷设备,PUE可大幅下降到1.0左右,因而被认为是降低数据中心能耗的最可靠和可行的技术方案之一。

与传统的制冷技术相比,液冷技术拥有以下优势:

  • 一是液体的比热容与导热能力远远高于气体,温度传递效果更快、更优,可以大大提高数据中心冷却效率,与风冷系统,能节约30%的能源;

  • 二是功率密度大,可以节约数据中心的空间,节省建设成本,同时液冷系统所使用的泵和冷却液系统与传统空调相比噪声更小;

  • 三是液体技术不受海拔与气压的影响,在高海拔地区依然保持较高的散热效率;

  • 四是能够实现余热利用,传统的风冷设备一般将热量直接排到大气中,但液冷数据中心以液体为载体,直接通过热交换接入楼宇采暖系统和供水系,满足居民供暖和温水供应的需求,有效实现余热资源综合利用。

图6 液冷技术与传统制冷技术的比较.jpg

图6液冷技术与传统制冷技术的比较

液冷的制冷模式主要包括主要分为冷板式、喷淋式以及浸没式。冷板式效率最低,但是最利于节能改造,可在原有的IT设备上进行改造,通过在CPU表面贴覆冷管,冷管内填充氟类制冷剂的方式进行降温。喷淋式与浸没式则是将整机浸没于制冷剂中,因而对制冷剂的绝缘性,抗腐蚀性要求较高。

采用导热型冷却模式时,循环冷却水(或其他液体)在管道内流动,管道连接的换热器(包括蒸发器、散热器等不同类型的冷板)贴敷在CPU等热量产生设备的表面,因此液体制冷剂不与集成电路直接接触,冷却介质在换热器吸收热量将CPU的热量传至冷凝器,冷却介质在外部冷凝器放热,完成制冷过程。

浸没式液冷技术将发热期间浸没在液体中,通过直接接触进行热交换。整个浸没式液冷系统可包括两个部分,室内侧循环和室外侧循环。室内侧循环构成中,冷却液在封闭式腔体内与发热器件进行热交换;在室外侧循环中,低温水在液冷换热模块中吸收气态冷却液携带的热量变成高温水,进入冷却塔后,高温水与大气进行热交换,变成低温水后再与气态冷却液进行热交换。

图7 浸没式相变液冷的示意图.jpg

图3-7浸没式相变液冷的示意图

近年来,随着液冷技术的发展,一些科研单位和公司将其有效的应用到服务器/芯片级散热领域。国际上,IBM、谷歌、英特尔等国际巨头早已积极布局;在国内,中科曙光、华为、浪潮、联想和阿里为代表的科技公司开展了积极探索,并积累了丰富的经验。例如:2013年,中科曙光完成了首台冷板式液冷服务器原理机的验证;2015年,中科曙光部署大规模商业应用项目落地;2017年,浪潮发布了以冷板液冷服务器为核心的解决方案。

由于在散热行能、集成度、可维护性、可靠性、性能、能效、废热回收、噪声控制等方面的优良表现,液冷技术已经成为数据中心突破节能瓶颈的解决方案之一。2019年2月,工信部、国家机关事务管理局和国家能源局联合发布了《关于加强绿色数据中心建设的指导意见》,鼓励数据中心采用液冷等高效系统设计方案。但受到资本投入、设备兼容、传统观念等限制,目前液冷技术的普及推广仍面临着制约,需要加快技术宣传、最佳实践普及和标准研制等步伐。

5.电气系统

电气系统用于提供IT设备使用所需的电压和电流、照明等。数据中心电气系统包括供配电系统、备用电源、不间断电源、高压和低压配电以及照明系统。系统能耗主要包括开关损耗、低压配电系统损耗、UPS损耗、供电电缆损耗等。

电气系统作为数据中心的第三大能耗大户,在规划设计时应根据系统负荷容量、用电设备特点,供电线路距离以及分布等因素,从设计、运行和管理等方面采用先进的节能技术。

通用的节能措施包括:

  • 1)对电子信息设备的实际用电量及其电源系统的配置容量、冗余度进行复核,在满足安全性的前提下对其进行改造,使电源设备处于转换率较高的负载率区间。

  • 2)合理调整供配电系统,变压器、配电线路和设备的容量应满足数据中心基础设施可用性等级及该等级在GB/T2887对应的相关规定。

  • 3)综合考虑采用可再生能源、峰谷蓄能、错峰蓄冷、液冷、余热回收利用等技术手段,提高数据中心用能清洁化水平和电能利用效率。

  • 4)对原回路容量进行校核,并应选择节能灯具。应充分利用自然光,并设置光感系统。

5.1采用高效节能设备

对供电设备进行选型时,应采用新型节能技术和设备,减少供电设备自身的消耗。

  • 1)针对变压器:建议采用SCB10型干式变压器,或者空载损耗更低的非晶合金干式变压器等。

  • 2)针对UPS设备:在相同的额定容量时,可选用高效率的高频UPS等;在满足IT设备安全可靠运行的条件下,可选用高压直流供电系统对IT设备进行供电,该方法节省了逆变环节,效率相对传统塔式UPS大幅提高。

  • 3)针对照明系统:可采用LED等高效节能光源,以电子镇流器取代电感镇流器,延时开关、光控开关、声控开关、感应式开关取代跷板式开关等。同时,可增加照明控制系统进行节能管理等。

  • 4)锂电池技术:随着锂离子电池的能量密度和安全性能的持续提高,成本的不断降低,锂电在数据中心的需求量越来远大,有望成为新一代主流能源。

在新型技术方面,可采用具备“动态休眠”的供电产品设备。该技术可在系统负载较低的情况下,与动力监控系统相结合自动根据当前总负载的大小计算出工作所需的整流模块或UPS模块数量,实现供电系统整体效率的提升,减少能源在低负载情况下的浪费。

5.2促进UPS自身节能

机房的能耗大户是服务器、数据存储器等数据处理设备,数据设备的用电量大,就需要更多的UPS电源来供电,UPS电源在电能转换中需耗费一定的能量,电能在传递分配中也有损失。在满足业务需求或同样处理存储能力的设备中,促进提高UPS自身节能是数据中心能效提升的关键。

主要的措施包括:

1)选用高效器件

数据中心可采用高压直流技术,系统包括交流、整流和直流配电部分。高压直流是在配电前端先将输出的电流整流并转换成直流电源供IT内服务器电源使用,服务器电源只需要实现DC-DC的转换,中间变化的过程减少了损耗,增加了电流的可靠性和稳定性。新型高效UPS的运行效率可达96%以上,节约型的不间断电源在低负载区间依然能保持较高的效率。

2)提高UPS运行效率

UPS的效率直接决定了整个UPS系统的能耗,这也使得数据中心客户对UPS效率的要求日益提高。以一个容量为300KVA的UPS为例,每度电按0.9元计算,UPS效率每提高1%,一年节省的电费为300×0.8×0.01×24×365×0.9=18921.6元。可见提高UPS的工作效率,可以为数据中心节省一大笔电费,因此提高UPS效率是降低整个机房能耗的最直接方法。

通过优化算法,实施监测负载、环境、电网情况等,不断调整UPS工作状态,保障UPS一致运行在高效率状态。同时,可通过智能休眠技术,在负载较低时,使一些模块休眠,减少UPS的空载能耗,从而提高系统运行效率,为了保障休眠状态下模块的同一寿命,模块可采用自动轮换休眠等模式。

3)降低输入电流谐波,提高输入功率因数

谐波的危害表现为引起电气设备(电机,变压器和电容器等)附加损耗和发热,降低继电保护,控制,以及检测装置的工作精度和可靠性等。谐波诸如电网后会使无功功率加大,功率因数降低,甚至有可能引发并联或串联谐振,损坏电气设备以及干扰通信线路的正常工作。

目前治理谐波的方式有6脉冲整流器+无源(或有源)滤波器,12脉冲整流器+无源滤波器,IGBT整流器等方式,这些能够实现低输入电流谐波(<3%)和高输入功率因数(>0.99),从而实现数据中心的节能要求。

4)采用ECO模式

目前大部分的UPS均具有ECO模式(即经济运行、交流直供),电能质量好且节能需求较为迫切的数据中心,可采用ECO模式。在ECO模式下,UPS自身能耗将大幅降低,效率可达到99%以上。

5.3促进可再生能源利用

目前中国数据中心的可再生能源利用仍处于起步阶段。随着中国“双碳”目标的提出,在各地越来越严格的能源双控目标下,数据中心的可再生能源利用必然要再上一个台阶。

目前,国家尚未出台对数据中心的可再生能源利用提出明确的要求。在2017年的《国家绿色数据中心试点评价指标体系(2017)》中规定:数据中心应用高比例可再生能源或清洁能源(包括自有设施生产和外购的可再生能源或清洁能源)作为加分项,用电比例达到当地供电系统配电网可再生能源渗透率的加1分,每增加10%加1分,最多5分。

目前,数据中心利用可再生能源的主要路径包括:

1)自建可再生能源项目

数据中心自建可再生能源项目可以是集中式电站或者分布式光伏电站。其中,分布式光伏发电指采用光伏组件,将太阳能直接转换成为电能的分布式发电系统。目前最为广泛的形式是屋顶光伏发电项目。

数据中心自建分布式光伏的典型案例:北京中经云亦庄数据中心于2016年投入使用,数据中心大楼顶层设计安装800kW(10000平米)的光伏电站,利用太阳能为建筑提供电力服务。

数据中心集中式电站的典型案例:2015年苹果公司分别于四川省新能源、中环能源、加州阳光电力合资城里企业,在四川建设集中式光伏电站。在风电领域,苹果在2016年入股金风科技旗下4家新能源公司,年生产风电285兆瓦。

由于前期投入较高,且数据中心自建的可再生能源项目发电量仅能满足少量的用电需求,因而企业积极性不高,仍需要在政策、投资、发电上网等方面加大支持和引导力度。

2)可再生能源市场化交易

在新一轮电力体制化改革下,数据中心可通过电力中长期市场,直接或通过售电企业采购可再生能源。如百度阳泉数据中心2017年签约风力发电2600万千瓦时,清洁能源使用占比达到16%。

2018年,该数据中心风电用电量达到了5500万千瓦时。同时,绿色证书等也为数据中心采购可再生能源提供新的途经。

自2018年以来,中国互联网云服务企业的可再生能源采购量实现了较大规模的增长,阿里、万国数据、百度等均实现了可再生能源利用量的提升,秦淮数据还提出了“100%可再生能源转型目标”,据此,有理由相信数据中心的可再生能源利用规模和水平将持续提高。

5.4应用需求响应技术

电力需求响应是电力用户对电价或激励信号做出的主动响应,这种响应主要表现为用户临时性改变用电行为,即根据电价高低或激励大小,临时性调节电力负荷。随着能耗管理技术的发展,先进的数据中心已经具备高度灵活的自适应能耗调整能力,可以作为需求侧可控负荷与电力系统协同运行,参与电力需求响应。

数据中心参与需求响应的主要方式包括:直接负荷控制、蓄冷空调等。严格来说,蓄冷技术在用户侧并不直接节能,但蓄冷技术可以解决区域电网供需矛盾,促进可再生能源消纳,有利于区域电力系统的安全稳定运行。对于用户来说,如果峰谷价差的足够大,蓄冷技术的应用能大幅减少用户电费,带来较好的经济效益。

1.直接负荷控制

直接负荷控制是数据中心采取先进的技术手段,包括无线电控制技术、专用通信线控制技术,对可调节的用电设备进行分台分类的集中控制。根据电价或激励信号,临时性启动或关闭用电设备,以达到促进电力平衡和节约电费等目标。

2.蓄冷空调

蓄冷空调是一种储能装置,利用峰谷电价差,利用夜间低谷点制冷,将冷量以冷、冷水或凝固状相变材料的形式储存起来,而在空调高峰负荷时段部分或全部地利用储存的冷量向空调系统供冷,以达到减少制冷设备安装容量、降低运行费用和电力负荷削峰填谷的目的。

根据蓄冷介质的不同,常用蓄冷系统又可分为三种基本类型:第一类是水蓄冷,即以水作为蓄冷介质的蓄冷系统;第二类是冰蓄冷,即以冰作为蓄冷介质的蓄冷系统;再一类是共晶盐蓄冷,即以共晶盐作为蓄冷介质的蓄冷系统。水蓄冷属于显热蓄冷,冰蓄冷和共晶盐蓄冷属于潜热蓄冷。水的热容量较大,冰的相变潜热很高,而且都是易于获得和廉价的物质,是采用最多的蓄冷介质,因此水蓄冷和冰蓄冷是应用最广的两种蓄冷系统。

蓄冷空调可作为数据中心中央空调系统的紧急备份,保障中央空调系统的安全性。在中央空调主机停机时持续一段时间的冷量,对于制冷系统要求较高的金融、电信等领域,蓄冷空调可发挥较大的作用。

6.能耗管理

能耗管理对于数据中心而言,犹如一条正态分布的长尾曲线,曲线的头部由IT设备、空调、电气、建筑等大指标构成,曲线的尾部则由机柜位置部署、气流组织形式、机柜距离以及系统运行维护等小指标构成。

对于数据中心而言,能耗管理要实现大指标和小指标的综合管理,为数据中心节能提供整体解决方案。为了提高数据中心能耗管理水平,数据中心应建立能耗监测系统,有能力的数据中心可构建智能化运维系统。

图8 数据中心能耗管理的长尾曲线.jpg

图8数据中心能耗管理的长尾曲线

1.构建能耗监测系统

数据中心能耗监测系统通常包括:各种智能化的电力设备、传感器、存储设备、应用系统、控制系统等。

数据中心的能耗监测对象包括:动力系统(包括高压变配电设备、中亚变配电设备、低压配电设备、整流配电设备、变流设备、发电和储能设备等)、空调设备(包括冷冻系统、空调系统、配电柜、分散式空调等)、机房环境(包括环境条件、图像监控、门禁等)。

数据中心能耗监测系统能够实现对所有耗电设备的监控和管理,实现数据采集和分析功能,能够对数据中心用电量分时段统计、分析、实现趋势分析和预警等功能。系统能够对用电设备的基础信息、配置信息等进行详细的管理,可根据机房环境温度和上级指令有选择地对智能/非智能耗能设备进行开启和关闭。

2.构建智能化运维系统

通过技术改造,将原有系统升级为智能化运维管理系统,使其能够根据设备状态、负载率等运行状态的实时变化,根据内外部不同温度、湿度、水温、储冷量、峰谷电价等综合因素,及时调整各系统的工作状态,使各设备系统能够在满足冗余需求的前提下,尽量工作在能源效率最优的状态。有条件的数据中心可采用大数据AI算法等手段实现空调系统智能、节能调节。

来源:网络

本文标题:数据中心节能减排改造技术措施

本文链接:https://www.blueocean-china.net/faq3/233.html
[版权声明]除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。

全国统一服务热线
15336679905
Copyright ©2019-2023 兰洋(宁波)科技有限公司 版权所有
ICP备案:浙ICP备2021021247号