加入收藏 | 设为首页 | 会员中心 | 我要投稿 云计算网_泰州站长网 (http://www.0523zz.com/)- 视觉智能、AI应用、CDN、行业物联网、智能数字人!
当前位置: 首页 > 运营中心 > 建站资源 > 优化 > 正文

正在被巨大数据中心吞噬的全球电力

发布时间:2018-10-25 00:01:57 所属栏目:优化 来源:数据中心运维管理
导读:副标题#e# 将你最新的假期照片上传到Facebook,它们最终会被存放在俄勒冈州一个名叫Prineville的小镇上,这里有Facebook已经建立的三个巨型数据中心,它们还计划再建两个。 这些巨大的数据中心有多大呢? 内部空间面积超过航空母舰,成千上万的电路板一排排

硬件较旧或技术栈较为陈旧的数据中心可能包含难以优化的设备组合,有些设备甚至完全没有用处。2017年,来自California的顾问和领先的国际IT专家Jonathan Koomey与一位同事一起调查了藏在公司壁橱和地下室中的16,000多台服务器,他们发现其中四分之一都是“僵尸服务器”。

这些服务器没有处理任何有用的工作却在白白消耗电力,这也许是因为有人忘了把它们关掉。Koomey说:“这些服务器除了使用电力之外什么用都没有,这太过分了!”

在2016年的一份报告中,Lawrence Berkeley国家实验室估计,如果美国小型数据中心中80%的服务器转移到超大规模的数据中心的话,这一举措可以降低25%的能耗,而这项行动已经在展开中。

今天,全世界有大约400个超大规模数据中心,其中许多数据中心为小型企业或大学提供服务,而这些企业在过去曾拥有自己的服务器。现在这些企业的用电消耗已经占据全球数据中心用电量的20%。IEA表示,到2020年,超大规模中心将占其中的近一半(参见下图“超大规模的转变”)。

79

发热和散热

一旦超大规模的数据中心尽可能多地承担了负载,进一步提高效率会变得更加艰难,但企业还在努力。一种新兴的管理技术可以确保服务器尽可能多地全速运行,而其它服务器则可以关闭而不是处于闲置状态。

Facebook发明了一个名为Autoscale的系统,这一系统可以减少在低流量时间内需要打开的服务器数量。Facebook在2014年的报告中指出,在试验中这套系统可以节约用电达到10-15%。

超大规模数据中心削减PUE的一个重要方法是解决冷却问题。在传统的数据中心,空调制冷所产生的花销占总共能源账单的40%。

使用蒸发水来冷却空气的冷却塔造成了另一个环境问题:2014年美国的数据中心总共使用了大约1000亿升水。摆脱压缩冷却空调和冷却塔有助于节省能源和水。

现在,比较普遍的一种非常简单的解决方案:将数据中心建造在凉爽的地点,利用空气吹入其中来降温。

这些中心不必坐落在冷到能结冰的区域:俄勒冈州的Prineville足够凉爽,可以利用所谓的“空气冷却”,许多其它数据中心的位置也是如此,在瑞士苏黎世的IBM研究中心物理学家Ingmar Meijer如此解释。

80

在这个位于俄勒冈州的谷歌数据中心,蓝色管道供应冷水,红色管道返回需要被冷却的温水。

相比空气来说,自来水是更好的热导体。通过允许使用温水冷却数据中心,冷却系统中生产和再循环的能量消耗会更少。

即使在温带气候下,温水冷却已经成为管理产生大量热量的高性能计算机的事实上的解决方案。美国能源部实验室和位于德国Garching的巴伐利亚科学院拥有的SuperMUC超级计算机都在采用这一方案。温暖气候的数据中心有时也投资于温水冷却系统,例如eBay位于亚利桑那州凤凰城的Project Mercury数据中心。

对于高密度,高功率的数据中心,最有效的方法是将服务器浸入不导电的植物油或矿物油中。Facebook在2012年尝试将其运用在服务器上,作为一种让服务器运行更快却不会过热的散热方式。Meijer说,目前浸入式冷却的维护还十分复杂,是一个非常棘手的专业领域。

2016年,谷歌调整旗下的DeepMind人工智能(AI)研究团队接手一项任务,调整其数据中心冷却系统使其能更好得适应天气和其他因素的影响。

谷歌表示,在测试中,该团队将其冷却能源费用降低了40%,并且“产生了该网站有史以来最低的PUE分数”。今年8月,谷歌宣布已将一些数据中心的冷却系统转由AI算法调整。

卡特表示,探索创新式的冷却方案并使已有冷却方案成本更低的办法将在未来几年变得尤为重要。他表示,“当我们与世界相联时,有一些地区(非洲和南亚)却无法享受免费的空气冷却”,并且其他开发项目将以新的方式对IT基础架构负担。

如果自动驾驶汽车涌入道路,例如,在移动电话塔底部的小型服务器,用于帮助汽车进行通信和处理数据,将需要更高功率的设备来实时处理AI工作负荷和达到一个更好的冷却效果。

今年,开放计算项目(the Open Compute Project)启动了一个先进冷却项目,旨在使得高效的冷却系统更易于获取。“超级公司(例如谷歌、亚马逊、微软等)已经解决了这些问题,它们已经非常高效”,卡特表示,“我们正尝试帮助其他机构,也能享受AI带来的红利。”

还有一种很好的冷却办法是服务器散热法,它能通过节省其他地方的电力需求达到冷却效果。“它就像一个免费资源,”一位苏黎世的IBM研究员Patrick Ruch说。

举几个例子:巴黎的Condorcet数据中心将其余热直接送到邻近的气候变化植物园,在那里科学家可以研究高温对植被的影响。一家瑞士的IBM数据中心利用余热为附近的游泳池供暖。

但是热量传播并不方便,因此废热利用往往局限于数据中心附近的消费群体,或者是城市里已经使用管道热水供暖的家庭。

零零散散有参与者致力于废热的推广使用,包括将其变为电力的初步努力。还有其他办法是利用废热来运行冷却设备——例如,IBM的THRIVE-(200万美元项目)正在开发新材料,可以更好地吸收水蒸气并在受热时释放水蒸气,从而制造出更高效的吸附式热泵以维持数据中心的恒温。

未来

从核心上讲,数据中心的水平也就是其构成的处理器的水平——且存在有改进的余地。自20世纪40年代以来,计算机每千瓦时(KWh)能量的运行次数在峰值性能方面大约每隔1.6年翻一番,在平均性能方面大约每2.6年翻一番。这是50年来产生的100亿倍的改进。根据Koomey的计算,从某种程度上说,自2000年以来,改进速度已经放缓,而当代计算机将在不久的几十年内遇到晶体管功能限制的物理障碍。

“我们正面临着收缩量的极限,”Koomey说。他说,在此之后实现可比较的效率提升将需要在硬件构建和计算能力方面进行革命:可能需要转向量子计算。“这基本上不可能预测,”他说。

(编辑:云计算网_泰州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读