解密被google遗弃的数据中心

上传人:wt****50 文档编号:36996808 上传时间:2018-04-05 格式:DOC 页数:6 大小:376.50KB
返回 下载 相关 举报
解密被google遗弃的数据中心_第1页
第1页 / 共6页
解密被google遗弃的数据中心_第2页
第2页 / 共6页
解密被google遗弃的数据中心_第3页
第3页 / 共6页
解密被google遗弃的数据中心_第4页
第4页 / 共6页
解密被google遗弃的数据中心_第5页
第5页 / 共6页
点击查看更多>>
资源描述

《解密被google遗弃的数据中心》由会员分享,可在线阅读,更多相关《解密被google遗弃的数据中心(6页珍藏版)》请在金锄头文库上搜索。

1、摘要:摘要:一年前,Google 对自己的数据中心还守口如瓶。一年后,情况发生了微妙变化。上周,Google 一反常态的公布了一些经过精挑细选的数据中心的内部照片。但 Google 并没有对公布的照片做详细说明,比遮遮掩掩的 Google 更加保守的是 AWS,不过来自 AWS的副总裁 James Hamilton 在其博客上对这些图片进行了分析。 【CSDN 编译】上周,Google 一反常态的公布了其数据中心的内部照片,这引起了所有科技爱好者的关注。这比互联网的新对手 Facebook 公布自己数据中心的设计晚了 10 个月。除了照片,Google 只附加了小学生看书说话式的文字。而 Fa

2、cebook 将数据中心的设计蓝图全部公开,任何人可以参考。图:James Hamilto过去,数据中心被 Google 视为核心技术,因此 Google 对自己数据中心的细节总是三缄其口。一般而言,每当 Google 公开一项技术,意味着 Google 已经掌握了更先进的技术。即便如此,已经被 Google“解密”的技术依然值得深入研究、学习。(CSDN 注:作者 James Hamilton 目前系 AWS 专注数据中心效率研究的副总裁,此前供职于微软未来数据中心团队。博客地址。)但这些公开的照片有些不平常,这些照片来自 Google 正在使用的数据中心,看来 Google已经掌握了更深层

3、次技术,这些照片并不会给竞争对手透露核心机密。Google 并没有披露这些照片的细节,Google 提供的文字描述语焉不详。我发现 Google 数据中心的机械设计值得注意,于是我花时间对其进行了研究。为了更好的了解 Google 数据中心的特别之处,让我们先了解传统的数据中心的硬件架构。图:传统数据中心硬件构架(点击放大)传统的数据中心设计方案有太多显而易见的问题,这些方案已经使用了 40 年,无法与时俱进。最明显的问题在于:1.没有冷/热风道,这让冷热空气泄露并与混合;2.空气处理室(CRAH)与服务器之间的距离太远,传输空气的成本非常昂贵;3.这是一个封闭的系统,热空气被冷却后循环使用,

4、而不是将热空气排出,让新鲜的冷空气来冷却服务器。Facebook Prineville Oregon 的数据中心就是一个完美的案例:图:Facebook Prineville 数据中心硬件架构(点击放大)我是一个 Facebook Prineville 数据中心的粉丝。Facebook 彻底抛弃了水冷设备,它们不仅昂贵而且费电。(CSDN 注:Facebook 在 Prineville 的数据中心地处在喀斯开山脉的雨影区,空气干燥而干净,昼夜温差大,夜间只有 4 摄氏度,适宜采用自然空气冷却。)全部使用彼此隔离的风道,室外的热空气通过蒸发皿降温,数据中心所在的建筑被看作一个巨大的整体,散热效率

5、非常高。(详见:Open Compute Project)让我们看看 Google 爱荷华州的 Concil Bluffs 数据中心:图:Concil Bluffs 数据中心内部你可以看到一张经过挑选的照片,一个巨大的房间,而不是被分成若干独立的区域。完全采用风道设备,彻底避免服务器或机架产生的空气泄露。冷空气直接流入服务器,热空气并不会流回,而是通过热交换器将热量传递出去。空气流动控制格外重要,空气流动经济性(air-side economization)是提升散热效率的关键。提高空气流动经济性的关键是让冷空气流入服务器,而不是让服务器排出热空气(Facebook 采用了全封闭的风道来提高空

6、气流动经济性)。通过这些照片,我们看到 Google 全面进行了颠覆性的尝试。Google 把整个建筑视为风道的一部分,并没有完全弃用水冷系统,而是将其升级进化,从而提高水冷系统的效率。通过 Google 在芬兰 Hamina 数据中心照片,我们看到在热风道上多组热交换器。图:Hamina 数据中心内部气流如何工作?气流如何工作?在 Mayes County 数据中心这样照片里,我们看到数以百计的风扇直接将热空气排入密闭的风道,从冷却塔来的冷水通过包裹金属外层的水管输送到风道顶端的热交换器,热空气迅速被冷却避免在风扇周围聚集。图:Mayes County 数据中心巨大的风道。大量的风扇将热空气

7、排入风道,不锈钢包裹的水管将冷水输送到顶部的热交换器。数据中心内部保持 80 华氏度(约等于 26.67 摄氏度),略高于其它数据中心。80 华氏度的空气进入服务器内部,然后被加热。服务器后部的风扇将被加热到 接近 120 华氏度的空气排入封闭的风道,热空气上升,并被顶部的热交换器冷却,被冷却的空气会从下方的活动地板排出。Google 数据中心高级总监 Joe Kava 表示:“一旦水冷管泄露,后果非常严重。我们的设计经过了多年考验,万无一失。”水冷的核心优势是输送水比输送空气成本更低,而且水的热容积更大。Google 的设计思想是尽可能让水通过各种方式到达机架,这并不是工业界第一次这么做,但

8、 Google 做的几近完美。IBM 的 iDataPlex 也将水直接通到机架后面,许多高密度的 HPC 系统也采用了这种方式。固然直通到机架的水冷系统拥有高效率,但我更青睐空气流动经济系统。任何一个系统都可以屏蔽户外的热空气,并让冷空气长途跋涉输送给服务器(请见本文第一张图片)。我依然倾向将外部空气输送到服务器的方法,然而,随着服务器密度不断增加,单位空间的功率也随之增长,水冷系统就十分必要了。正如 Google 将水冷系统覆盖到服务器,亦如IBM 在上世纪 80 年代采用的热导模块。热导模块在当时是非常先进的水冷系统,由Green Revolution Cooling 提供,该公司还使用了将服务器完全浸入油中的冷却方式。(编译/包研)

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 生活休闲 > 社会民生

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号