性能稳定 实时开通 随时退款 售后无忧
当前位置: 帮助文档 > 技术支持 > 数据库常见问题 > 数据中心,下一个PUE新指标将是多少?

数据中心,下一个PUE新指标将是多少?

时间:2018-12-17 10:50来源:VPS作者:ColorVPS点击:
今年,节能减排成各行各业工作重点。数据中心PUE值又进一步被限制。
9月,在北京市人民政府公布的《北京市新增产业的禁止和限制目录》中,提到全市范围内禁止新建和扩建互联网数据服务中的数据中心(PUE值在1.4以下的云计算数据中心除外)….

  10月,在上海市人民政府公布的《上海市推进新一代信息基础设施建设助力提升城市能级和核心竞争力三年行动计划(2018-2020年)》中,提到严格控制新建数据中心,在必要建设时数据中心PUE值应在1.3以内….

  近日,广东省也出台了关于数据中心节能监察方案的措施….

  PUE值从最初的1.5到1.3再到如今的1.1左右,可见现在数据中心行业更加注重节能减耗,目前,我国政府提出了《国家绿色数据中心的试点方案》,国家政策的出台也给数据中心值提出了新的挑战。

  那么:

  数据中心PUE,你了解吗?

  降低PUE值的创新技术,你知道吗?

  PUE值降低的最佳实践方法和完善措施,你Get到了吗?

  如今,数据中心规模可谓是迅猛增长。从全球范围来看,国际数据中心大多聚集在发达地区,并且形成了加速扩张的模式,开展大量并购交易占领国际市场。不仅国外数据中心规模在不断扩大,近年来中国IDC市场规模也是逐年攀升,东部一线城市数据中心趋于饱和,开始向西部地区迁移,数据中心利用率逐渐上升,整体布局逐渐优化。

  随着互联网以及新兴技术的出现和变革,海量数据上云的迫切需求以及效率和体验的双重驱动作用下,数据中心基础设施规模随之扩大,风冷遇到瓶颈,以及电力与冷却成本迅速增长。据统计,一个大型数据中心的电费占据了约70%的运营成本,全球数据中心每年电力消耗相当于8个三峡水电站的发电量。例如PUE为2的数据中心,在总能耗中,IT设备能耗占了一半,制冷系统能耗占约30%,这就给数据中心带来了强大的挑战,在此情况下,节能减耗成为数据中心的主要抓手,数据中心PUE再度成为了社会各界关注的焦点。(PUE值(Power Usage Effectiveness)是用来计算数据中心节能省电的标准,计算的方式是以“数据中心的总用电量”除以“信息中心内IT设备的用电量”)

  各企业为了响应政府的号召和数据中心高成本高能耗的现状,可谓绞尽脑汁,不断进行数据中心技术改进与创新,通过最佳的实践方式和完善措施来减少费用支出,节能减耗,降低PUE值。

  华为iCooling技术:“制冷”向“智冷”转变

  众所周知,制冷系统在数据中心运营过程中起着至关重要的作用,制冷系统的运行是数据中心能耗的最大变数,也是降低数据中心PUE值的关键。在数据中心制冷方面华为表现突出,发明了基于AI技术的icooling数据中心能效优化解决方案,使PUE值降低了8%。

 针对数据中心制冷效率提升瓶颈,华为通过机器深度学习,对大量的历史数据进行业务分析,探索影响能耗的关键因素,获取PUE的预测模型。基于PUE的预测模型,获取与PUE敏感的特征值,利用特征值,进行业务训练,输出业务的预测模型。最后利用系统可调整的参数作为输入,将PUE预测模型、业务预测模型作为约束,利用寻优算法,获取调优参数组,下发到控制系统,实现制冷系统的控制。最终通过规范化的实践引导和目标导向评测,不断调整优化,获取均衡PUE。

  这一技术在华为廊坊数据中心进行了测试,实测环境为1500柜,单柜密度4kW/柜,43%IT负载率,2N供电系统,N+1冷冻水系统,采用iCooling智能温控技术后,冷冻站总能耗降低325.6kW,冷冻站COP提升8.2,全年PUE由1.42降为1.304,每年可节省电费372万元,实现了从“制冷”向“智冷”转变,为未来降低数据中心能耗奠定了新方向。

  曙光全浸没式冷却:高可靠、智能化、高性能

  除了华为的“智”冷技术,中科曙光在液冷方面也有独到的建树,针对当前数据中心能效问题,进行了技术的改进和创新。发明了浸没式冷却技术。液冷在工业界有较长的使用历史,应用广泛且技术娴熟。曙光液冷分为间接冷却和直接冷却。间接冷却通过冷板式进行,直接冷却则采用全浸没式冷却的方法,将服务器完全浸没在装有液体的箱体内进行冷却。在设计过程中采用碳氟液体作为浸没冷却的介质,一般的碳氟化合物都有很高的绝缘性,很低的黏度,同时有不燃的效果,而且在很大的范围内能够保证它的化学惰性和稳定的性质。采用浸没冷却技术具有节能、高可靠性、高性能、智能化、高密度、更低噪音、无泄漏风险的优势。

  曙光浸没式冷却技术也在其他行业得到了广泛性的应用,在地球系统数值模拟装置原型系统和国家电网仿真中心中,曙光都为其提供了微模块风冷模式+冷板式液冷服务器,使PUE值达到了理想的效果。

  联想温水冷:再创PUE新低

  随着数据中心建设规模的不断扩大,机架功率密度持续增加,给机柜散热带来了巨大的挑战,为了降低能耗,更好的解决数据中心散热问题,使PUE值达到理想效果,联想发明了温水水冷的解决方案。使PUE值达到了1.1。

  该技术运用在了北京大学高性能计算校级公共平台中,平台采用了联想深腾X8800超级计算机系统,深腾X8800基于联想全球首创的45℃温水水冷技术,通过无泄漏快速连接系统,将冷却水流经水冷头来冷却核心处理器及其内存。相比传统的风冷散热技术,采用联想45℃温水水冷技术的未名一号,LINPACK效率达到92.6%,PUE值控制达1.1。同时,未名一号节省了50%的制冷散热成本,每年将为北京大学节省60万电。

  台达集装箱数据中心:PUE值<1.43, Green Grid黄金级水平
 针对数据中心制冷效率提升瓶颈,华为通过机器深度学习,对大量的历史数据进行业务分析,探索影响能耗的关键因素,获取PUE的预测模型。基于PUE的预测模型,获取与PUE敏感的特征值,利用特征值,进行业务训练,输出业务的预测模型。最后利用系统可调整的参数作为输入,将PUE预测模型、业务预测模型作为约束,利用寻优算法,获取调优参数组,下发到控制系统,实现制冷系统的控制。最终通过规范化的实践引导和目标导向评测,不断调整优化,获取均衡PUE。

  这一技术在华为廊坊数据中心进行了测试,实测环境为1500柜,单柜密度4kW/柜,43%IT负载率,2N供电系统,N+1冷冻水系统,采用iCooling智能温控技术后,冷冻站总能耗降低325.6kW,冷冻站COP提升8.2,全年PUE由1.42降为1.304,每年可节省电费372万元,实现了从“制冷”向“智冷”转变,为未来降低数据中心能耗奠定了新方向。

  曙光全浸没式冷却:高可靠、智能化、高性能

  除了华为的“智”冷技术,中科曙光在液冷方面也有独到的建树,针对当前数据中心能效问题,进行了技术的改进和创新。发明了浸没式冷却技术。液冷在工业界有较长的使用历史,应用广泛且技术娴熟。曙光液冷分为间接冷却和直接冷却。间接冷却通过冷板式进行,直接冷却则采用全浸没式冷却的方法,将服务器完全浸没在装有液体的箱体内进行冷却。在设计过程中采用碳氟液体作为浸没冷却的介质,一般的碳氟化合物都有很高的绝缘性,很低的黏度,同时有不燃的效果,而且在很大的范围内能够保证它的化学惰性和稳定的性质。采用浸没冷却技术具有节能、高可靠性、高性能、智能化、高密度、更低噪音、无泄漏风险的优势。

  曙光浸没式冷却技术也在其他行业得到了广泛性的应用,在地球系统数值模拟装置原型系统和国家电网仿真中心中,曙光都为其提供了微模块风冷模式+冷板式液冷服务器,使PUE值达到了理想的效果。

  联想温水冷:再创PUE新低

  随着数据中心建设规模的不断扩大,机架功率密度持续增加,给机柜散热带来了巨大的挑战,为了降低能耗,更好的解决数据中心散热问题,使PUE值达到理想效果,联想发明了温水水冷的解决方案。使PUE值达到了1.1。

  该技术运用在了北京大学高性能计算校级公共平台中,平台采用了联想深腾X8800超级计算机系统,深腾X8800基于联想全球首创的45℃温水水冷技术,通过无泄漏快速连接系统,将冷却水流经水冷头来冷却核心处理器及其内存。相比传统的风冷散热技术,采用联想45℃温水水冷技术的未名一号,LINPACK效率达到92.6%,PUE值控制达1.1。同时,未名一号节省了50%的制冷散热成本,每年将为北京大学节省60万电。

  台达集装箱数据中心:PUE值<1.43, Green Grid黄金级水平
 降低数据中心PUE值是现在行业的一大课题,各大企业纷纷着手进行技术的改进和创新。台达作为绿色建筑的代表一直致力于绿色节能技术的开发。在数据中心能耗方面,提供InfraSuite数据中心解决方案和模块化数据中心解决方案,使数据中心年平均PUE值仅在1.40左右,远超中国平均PUE值为3和Green Grid黄金级规范PUE值为1.43的标准。优于Green Grid 黄金级绿色机房标准。

  近日,台达为新加坡的Campana集团提供了总容量达200kW的模块化集装箱数据中心解决方案,用于建设连接新加坡和缅甸的最大的高速数据中心走廊---- MYTHIC国际海底电缆工程,将缅甸连接到新加坡,并选择分支通往泰国,助力东南亚地区的终端消费者享受更丰富的数字生活。在Campana MYTHIC国际海底电缆工程中,从台达吴江生产基地制造出货到缅甸仰光部署完成,7组集装箱数据中心仅用50天就全部完成。通过全预制、预测试和完整方案的配置,能满足高机动性的边缘运算需求。台达集装箱数据中心解决方案亦具备良好的绿色能效表现,以年平均PUE值小于1.43为目标,达到Green Grid黄金级水平。

  数据中心绿色节能技术创新,一直在路上…….


 


 

 

顶一下
(0)
0%
踩一下
(0)
0%