扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
ZDNet至顶网服务器频道 04月25日 编译:托管云服务厂商Rackspace公司表示,其最新数据中心内所采用的设计及技术方案能够将其能源消耗水平较常见基础设施降低高达80%。
十五个月前,这块面积为15英亩的土地还是一片荒芜,但如今其已经开始承载托管云服务厂商Rackspace公司的全新13万平方英尺数据中心,这套基础设施于本周正式得到公布。
这套设施采用了一系列数据中心设计于功耗节约机制,这使其电力利用效率(简称PUE)数字仅为1.15,远低于业界平均的1.7水平。Rackspace方面预计,这样出色的能源利用水平将在未来二十年内为其节约高达数百万美元的项目运营经费。
这套基础设施的建设工作由数据中心开发企业Digital Realty公司于伦敦南部的盖特威克机场附近建造。之所以选择这样的地理位置,是因为其毗邻Rackspace的现有城域光纤体系以及主欧洲长距离光纤网络。
这座位于苏塞克斯郡克劳利地区的数据中心将为全部现有业务覆盖区域提供资源支持,除了Rackspace公司针对英国及欧洲客户部分特殊需求所提供的方案。
上图为Rackspace公司苏塞克斯数据中心的主入口,这座设施内部容纳有四个数据机房,总运行功率达到1200万瓦。整体设施的最终规模将与两座常规数据中心相仿,届时其总体运行功率将进一步提升至3000万瓦。
Rackspace公司已经在英国南部建立过一座数据中心,其具体位置处于首都伦敦西部的斯劳镇。
这套基础设施在结构设计方面高度重视新近发布的环保认证扩展条款,在思路上尽可能降低垃圾填埋场对于环境的影响。此外,根据Rackspace公司的说法,其还在可能的情况下尽量从当地采购建筑材料。
开发商Digital Realty公司还在施工过程中引入了模块化实施方案,例如将不间断电源与发电机在车间内部组装完毕、并将成品直接安装到现场位置当中。
现场安全机制
除了最常见的围栏与路障之外,这座地处僻静区域的基础设施几乎不会引起任何人的注意,甚至连当地出租车司机都很难找到这里。新的数据中心采用身份标记以及生物因素扫描来控制人员的进入。
在上图的背景部分中,大家可以看到围栏(两端部分设有安全门)要通过这晨,游客与工作人员必须首先获得进入主设施的资格。不过在进入主设施后,还有更多限制机制作为控制手段。
这座建筑在设计当中包含一块中央空间,这里的设施包括用于容纳待测试及组装的新硬件的机房,以及两侧的四个数据大厅,每侧各两个。
技术运维室
这个技术运维室是整座设施的神经中枢。在这里,Rackspace公司的工作人员能够监控各类事件,从机架级别的功耗水平到发电机启动故障皆涵盖在内。
每台机架都拥有自己的A、B两套独立供电装置。无论目前对应机架正在使用哪套供电机制,技术人员都能够在技术运维室内确切掌握情况,从而保证其以综合性视角了解到整套设施当中的负载管理状态。
这座Rackspace设施园区由其自有132千伏变电站负责支持,其最大功率支持能力可达7200万瓦。这座变电站通过A、B两条供电线路接收来自附近Three Bridges国家电网的电力供应。
五万台物理服务器
这座Rackspace数据中心的初始配置规模能够支持五万台物理服务器,上图所示为数据大厅内的一角。
所有运抵该设施的设备都会首先存放在外部拆装区域当中,从而最大程度降低安装过程中可能带来的灰尘及碎片数量。包装拆除完成后,设备才会被搬运到机房内部。
除了大约三十位Rackspace工作人员之外,该公司还将在设施内部部署一部分来自第三方企业的员工,他们将负责现场的建筑管理与物理安保工作。
数据中心内的平均温度为24摄氏度——约折合75华氏度——数据大厅内的送风皆由上图所示的、来自Excool的间接风冷系统提供。
在服务器机架背后,上图左侧所示的闭合滑门能够开启以打开散热通道,这里的平均温度在32到34摄氏度之间,折合为90到93华氏度。
上图所示为某台服务器机架的内部视图,视角由底部直指数据中心天花板。全部线缆都根据用途分配有不同的颜色,从而降低维护难度。
到目前为止,该基础设施建设所使用的线缆总长度已经达到二十万米。
上图展示了克劳利设施的设计师们如何最大程度减少建筑中的结构柱,从而改善空气流动状况并利用固体混凝土替代典型的数据中心可拆除地板。
Rackspace公司指出,这一举措的目的在于尽可能对基础设施进行简化,其中包括电力分配单元。
Rackspace公司同时在设施内部大量采用透明面板LED照明机制。这是因为在一项针对其它内部数据中心的调查当中,他们发现以十二个月周期来计算、LED照明能够为其节约大量运营成本。
调查显示,如果数据大厅每周的流动员工人数为一千人左右,那么采用LED照明将更具成本优势。
屋顶风光
该数据中心顶部设有专门的雨水收集装置,能够尽可能将其作为间接风冷机组中的喷雾液体使用。
门架左侧为该设施的不间断电源室之一,其任务是作为后备角色为整座数据中心提供紧急状况下的电力供应。
对于每一座功率为300万瓦的数据大厅,设计师们为其准备了N+2共10套配置单元。具体而言,其设计思路是让8台供电装置正常运行、另外2台则作为备用。事实上,一般情况下10台装置往往会同时运行、但各自处于较低负载水平。一台某一单元出现故障,那么其余正常设备将以更高强度运行。
在上图当中,门架右侧各个间隔相等的小圆顶下方为日光管的光线摄入装置,其作用是在白天阶段为建筑物的主体部分提供自然照明。
让我们近距离观察每一个太阳管,它们的存在证明这座数据中心尽可能以各种方式提升自身的环保水平。
通过这些内表面极为光滑的太阳管,阳光将穿过透镜并照射到设施室内。
通过从下向上的仰视视角,在合适的条件下、各太阳管的照明亮度几乎可以与毗邻的LED照明单元相媲美。
这套设在屋顶的间接风冷系统,其中不包含任何机械制冷机制,正是Rackspace能源节约设计的核心所在。
这套PUE为1.15的卓越冷却技术方案帮助Rackspace公司实现了每月每千瓦40英镑(折合60美元)的成本削减(相较于平均1.7 PUE水平)。在这座Rackspace数据中心为期二十年的生命周期当中,假设设施始终以3000万瓦装机容量满载运行,那么单是能源节约一项就能帮助该公司省下数百万美元。
截至目前,克劳利数据中心内只有一部分空间被真正利用起来。Rackspace公司指出,整体园区还能够容纳更多设备、并将在未来逐步进行扩展,从而为接下来的技术改进保留空间。
Rackspace公司与Digital Realty双方已经将这套建筑设计方案贡献给了开放计算设计项目。
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。
现场直击|2021世界人工智能大会
直击5G创新地带,就在2021MWC上海
5G已至 转型当时——服务提供商如何把握转型的绝佳时机
寻找自己的Flag
华为开发者大会2020(Cloud)- 科技行者