加入收藏 | 设为首页 | 会员中心 | 我要投稿 应用网_丽江站长网 (http://www.0888zz.com/)- 科技、建站、数据工具、云上网络、机器学习!
当前位置: 首页 > 综合聚焦 > 移动互联 > 通讯 > 正文

中国联通康楠:数据中心能耗解决之道

发布时间:2016-10-30 14:54:40 所属栏目:通讯 来源:海客
导读:副标题#e# 【IT168专稿】2011年6月24日,由中国数据中心产业发展联盟主办,中国IDC产业联盟网和北京中大科慧科技发展有限公司联合承办 2011中国数据中心动力安全能效管理趋势研讨会在北京隆重召开。 本次研讨会的主题为IDP能效之道 IDC安全之本,汇聚了来自
副标题[/!--empirenews.page--]

  【IT168专稿】2011年6月24日,由中国数据中心产业发展联盟主办,中国IDC产业联盟网和北京中大科慧科技发展有限公司联合承办 “2011中国数据中心动力安全能效管理趋势研讨会”在北京隆重召开。

  本次研讨会的主题为“IDP能效之道 IDC安全之本”,汇聚了来自政府单位、科研机构、运营商、厂商、行业用户以及高校的众多专家学者,就数据中心的绿色节能、运维管理、能源质量与安全、性能效益等热点话题进行了热烈的交流与探索,并就目前的经验和未来的发展做了深入的沟通和展望。下面是我们IT168一线记者带回的最新大会报道——

  在数据中心动力安全能效管理趋势研讨会上,联通集成公司IDC运营中心副总经理康楠做了题为“中国联通IDC电源系统技术研讨”的演讲。在演讲中,康楠为大家分享了中国联通在IDC电源系统方面的经验。

中国联通康楠:数据中心能耗解决之道
▲联通集成公司IDC运营中心副总经理康楠

  一、数据中心能耗构成和关键要素:

  随着电价和高功率密度的IT设备的能耗持续上升,数据中心现在面临的能源问题和成本问题日益受到关注。从能源的结构分析来说,按照能耗排名,有以下四类,排在第一类的还是设备IT系统,能耗占比50%左右;第二类是空调系统,综合耗电在37%;第三类是UPS的供电系统,最后一类是照明系统。

  节能上来看,UPS供电系统和空调系统的容量大小、设备的选型、系统的配备以及设计方案等技术参数均取决于所选用的IT设备所需的总用电量和制冷量。

  IT设备的节能是数据中心节能最重要的基础,随着IT设备能耗的降低,整个IDC的基础能耗也将随之降低;数据中心空调部分的能耗提高是降低PUE值的关键;供配电系统的能效提高同样也是不可缺的要素。而其节能安全设计直接关系到数据中心整体安全运行。

  IT节能大家都在推进,但只能说它的功率会越来越大,从存储来看,比如一块盘可以占1个T的存储。刀片式的服务器正在加快普及。现在数据中心遇到很大的问题就是,刀片式服务器很难进机房,因为通过PTO分配的时候,一般16是比较普遍的,还有13,你根本就不支持刀片式服务器的供电需求,第二个是制冷不够,现在刀片一框要达到500瓦,满配以后一个机柜要上万,从我们现在的设计来看,这是不可想象的。UPS要保证N+1的,怎么备份,冗余方式,我的电池时效占多大的量,还有一个投资,包括油机,发电机需要多少组才实现。

  从采购来说,有一个重大的问题,供电系统这一块有很多高供电的UPS设备,很多成本没有降下来。主流的是400千伏安,再往上价格性价比一下提升很多,体格提升设计机房的时候就存在很多问题了。不是说引电,但是引电那部分还是能接受的,引过来之后的这些供电设备不支持,可能很难改变这个思路,包括有很多客户一直在问我,你们这个功率密度太低,应该支持高密度,现在行业上对高密度又没有一个统一的标准,我们应该怎么叫高密度?我提供16安3000瓦的单机柜,说不行,放不了。PC服务器在推主板的,以前是双主板,下一步要推八主板,走的思路跟刀片不太一样,基本上还是大致意思是一样的。2U的设备了8个相当于1U的设备,这个密度也是很高。初步设想了一下,在规划新建机房的时候也在考虑单机柜8000瓦作为高密度的初步标准,比电信可能要低一些,现在不敢提很高,提了国外说了20千瓦一个机柜,你那空调什么空调?甚至选址的时候,北京不能降,你也得跑到大兴安岭去降了,因为空调顶不上去了。

  设备选型,变压器选择干式的,相关额定容量考虑下,性用节能型的。UPS的工作负载率上,选择转换效率高的产品。应用一些高转换率,具备整流模块休眠技术的直流开关电源。应用高压直流供电,这一块是当前行业很热门的技术,包括几家运营商都在试点。

  二、供电系统安全节能技术:

  优化供电系统,应该做到接线简单,操作安全,调度灵活,检修方便。变压器、UPS及直流电源设备应该尽量深入到负载中心。现在规划的中心一般体量3万到6万不等,纯数据中心,但这么大的数据中心现在正在研究从分楼层的角度,要把高低压设备引进去。因为模块化机场,每一个模块就相当于以前传统的独立机房这么大了,这个供电是了不得的,包括容量设计上都很大。最后是分楼层引电,引来电以后,进行模块化机房的包装,每个机房都有自己独立的供配电、空调系统,分成二期、三期建设的时候,再上不同的楼层,再分楼,一栋、两栋、三栋,这样搞成规模化数据中心的集群。

  合理的计算和选择变压器容量。要考虑电压力在出现故障检修的时候怎么一个保护。接线,采用的是TN-S接线的方式,防止合环及倒送电方案。提高负荷率,合理配置UPS系统,毕竟这个东西还是要折旧的,要更换这个东西,所以也要考虑到转换效率和成本问题。

  补偿优化,要正确选择电动机、变压器的容量以及UPS、开关电源等设备,提高系统自然功率因数。达到电网合理运行要求的时候,采取一些并联电容器装置补偿无功。功率因数的选择一般不低于0.9。电容器的安装容量也要根据功率因数确定。补偿电容器所在线路谐波严重时,应串联适当参数的电容器。

  系统谐波治理,在设计阶段,按照提升电能质量方面的要求,包括对谐波率的控制,都有一定的规范。

  模块化供电节能,分成两块,一个是整流的模块休眠节能,第二就是模块化UPS供电节能,也就是说未来供电系统里面,关于模块化的应用也是越来越多的方案。

  三、关于供电安全与节能管理的建议:

  数据中心作为一项重要的基础设施,应该说它本身的节能作用是非常大的。在运营商里面对耗电的就是数据中心,从节能减排的角度,应该要去重视它。要关注安全问题,以前供电系统都是有低层的电源工程师或者维护班进行维护,缺乏整个监控系统。建议,在IT侧、系统侧进行监督,对整个系统的运营、能耗控制实现精细化和可测量的管理。

  采用虚拟化、自动化的节能技术,虚拟化提高了负载效率,但是增加了功率密度。现在要做IAIS基础架构的时候,一旦虚拟化上来,密度一提升,基础设施顶不住。供电、制冷、承重,对于低层数据中心,云计算时期一旦要来,对底下的设计就要改。现在发现设计不敢突破,谁轻易突破设计,出了问题都是大事。但是现在云时代以来,包括IT集成能力越来越高,我们不得不利用一些新技术。比如以前不碰水冷的,现在必须规定建立机房全部采用水冷。

  建立资源调度管理平台,主要从标准运维的角度,加强自动化服务的功能,优化客户端的管理环境。

(编辑:应用网_丽江站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读