科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网服务器频道高性能计算学习数据中心四大创新好榜样

学习数据中心四大创新好榜样

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

从冷却小贴士到应当将数据中心建于何处,技术巨头将与我们分享他们在近期建设中的经验和教训。无论你的公司规模有多大,数据中心决策从来就不是一件容易的事。思科位于Allen的新数据中心中的不间断电源供给中心实际上,思科所定义的“集群”为一个带有5个思科UCS(统一通信系统)机箱的机架。

来源:网界网 2011年6月1日

关键字: 数据中心 谷歌 思科 英特尔

  • 评论
  • 分享微博
  • 分享邮件

从冷却小贴士到应当将数据中心建于何处,技术巨头将与我们分享他们在近期建设中的经验和教训。

无论你的公司规模有多大,数据中心决策从来就不是一件容易的事。在充分利用你的设施方面,为什么不效仿行业巨头呢?美国“计算机世界”网站就此采访了行业中规模最大的几家公司的执行官,试图找出他们在新数据中心中是如何创新的,其中包括谷歌在比利时新建的数据中心和思科在德克萨斯州新建的最先进的数据中心。此外,英特尔和雅虎也分享了他们的最佳实践经验。

谷歌:一切为了效率

谷歌在全球运行着数个数据中心。谷歌的“绿色能源沙皇”Bill Weihl称,谷歌优先考虑的事情是让公司的数据中心效率超过行业的平均值。据美国环保局(EPA)评估,多数数据中心的运行效率约为2.0 PUE(电力使用效率),这意味着它们使用的电力是实际需要的两倍。PUE值由数据中心的总能耗除以IT设备的总能耗计算得出。

Weihl称,谷歌所有的数据中心的平均值为1.18 PUE。谷歌之所以能够获得如此高的效率,其中的一个原因是在数据中心中使用了被称之为“免费冷却”的方法。

Weihl称:“我们对进入数据中心的空气流进行管理,避免冷空气与热空气混合。通过这种方法,我们可以将一个典型的数据中心所花费的全部冷却成本降低85%。”他表示,成本的降低利益于新冷却技术与以下介绍的电力备份方式的结合。谷歌数据中心的“冷通道”平均温度为80度,而不是通常的70度或更低(“热通道”的温度根据使用设备的不同而发生变化。谷歌没有详细介绍“热通道”的温度参数,也没有提及具体的设备。)。

此外,据Weihl称,谷歌还在每个数据中心中使用了蒸发式冷却塔,包括在比利时新建的数据中心。冷却塔通过一种能加速蒸发的特殊材料将热水送入塔的顶端。在蒸发冷却期间,过去用于冷却数据中心的冷却装置将不再需要,或是使用的没有以前那么频繁。

谷歌在每个数据中心中使用的蒸发式冷却塔

(图注:1、来自数据中心的热水被输送到冷却塔的顶端,并被喷撒到冷却塔内部的特殊材料上以提高蒸发性能。2、随着水流向塔底,部分水被蒸发。蒸发带走了剩余水的热量,促使其冷却。3、空气被塔顶部的风扇吸入塔内。空气进入时相对干燥,在被抽到塔顶的过程中带走蒸发时产生的湿气。4、经冷却后的水在塔底被收集起来,然后返回数据中心。)

他称:“我们在全球都建有数据中心。俄勒冈州的气候凉爽干燥。美国西南部和中西部的气候完全不同--一些地方气候比较温暖潮湿,不过我们基本上全年都可以使用蒸发冷却方式。”

Weihl表示,谷歌在2010年早些时候启用的位于比利时的数据中心甚至都没有安装备份冷却装置,完全依靠蒸发冷却。他称,数据中心不再需要蒸发冷却将是一件“百年大事”,为此谷歌选择了不安装备份冷却装置以减少设施的电力负载。目前数据中心一直在以最大负载运行。一些炎热的天气中,管理员会将一些服务器设施为闲置状态或是关掉它们。

他建议公司应当重视在数据中心中使用诸如上述蒸发冷却塔的“免费冷却”技术。另一个选择是使用蒸发冷却塔改变外部空气进入服务器的方向,然后允许服务器的温度上升至可以接受的范围内,在机架中使用非直接冷却。

在电源管理方面,谷歌使用了变压技术,将AC电源转换成DC电源。谷歌还使用本地的备份电源--实际上就是每台服务器上安装的电池,来替代传统的UPS,这主要是因为AC至DC的转换程序。

在电力输入至服务器前,谷歌使用了一个变压器对市电进行了变压处理。传统上,单个的电力供给设备会将电压由AC转换至DC,但是这种方法被证明效率低下。对此,行业专家表示认同。

市场研究机构Gartner的数据中心分析师David Cappuccio称:“谷歌、脸谱和许多其他公司都开始减少市电输送到数据中心再被输送至服务器过程中的AC/DC变压器数量。”基于DC的电源分配系统可取消单个服务器的变压器。他解释称,这种方式通常可以降低电能的使用。

他称,谷歌还使用了服务器电力供给装置和效率为93%的稳压器。采用效率更高的稳压器可以抑制高成本。

Weihl引述美国环保局对普通数据中心电力损耗的评估结果称:“我们为一个12伏的导轨式电源使用了一个单输出电源,其在充电时实际上没有什么电力损耗。它的电力损耗低于1%,而传统的电力损耗在15%以上。”

谷歌的另一项引人注目的技术为管理数据集的定制软件工具。Weihl称,许多数据中心管理都是通过工具自动进行的,这些工具可以帮助查找某台服务器特别费电的原因,以及何处可能被错误配置。谷歌使用了一套称之为“Big Table”的系统存储列表数据集,允许IT经理查找关于服务器性能的详细信息。

谷歌宣称,其数据中心的总效率的间接费用为19%,而美国环保局评估认为大多数数据中心的该数值为96%,两者之间形成了鲜明的对比。(间接费用百分比表示有多少电能被用于了加热和冷却IT设备,而非运行服务器;该百分比越低越好。)

思科与“缩减规模式的升级”

与其他公司一样,思科也在通过虚拟化和整合贯彻“缩减规模式的升级”这一概念。这一过程涉及缩减数据中心的总体规模,将设备整合至更小的机架中以节约能源。尽管如此,数据中心的性能实际上却得到了提升。

以思科在德克萨斯州Allen新建的数据中心为例,公司为一个可快速扩展的一个大型计算机集群提供了充足的空间。其基本理念是:向小空间输入尽可能多的电力,同时依然让其保持高性能。

思科位于Allen的新数据中心中的不间断电源供给中心

实际上,思科所定义的“集群”为一个带有5个思科UCS(统一通信系统)机箱的机架。每个机箱都有8台刀片服务器。整个Allen数据中心中能够安装14400台刀片服务器。每台刀片服务器都有两个插槽,可支持8个处理器内核。每个内核都支持多个虚拟化OS实例。

到目前为止,思科已经安装了10个群集,大约400台刀片服务器。

思科改良数据中心的另一个方法是进行电缆管理。思科IT副总裁John Manville称,思科通过减少数据中心的电缆数量已经节约了约100万美元。

Manville称:“大多数人都没有意识到电缆成本占数据中心总成本的10%至15%。减少电缆数据还可以让空气流通的更为顺畅。通过结合新的冷却技术,我们希望每年的冷却成本可节省60万美元。”

除了整合,思科还考虑如何减少每个操作系统和服务器的硬件与管理成本。Manville称,目前每台物理服务器每季度的开销约为3700美元。他希望通过虚拟化技术,每台物理服务器每季度的开销能够降低至1600美元,未来再通过进一步压缩,最终达到每台物理服务器每季度的开销能够降低至1200美元。

思科的德克萨斯数据中心实际上由两个位于不同地方的设施组成,但这两个数据中心作为一个整体运营,这一概念被称为“城市虚拟数据中心(MVDC)”。目前,思科正在内部发展这一理念,并不公开对外销售。思科计划到2012年年底在荷兰再启用两个MVDC设施,让4个数据中心作为一个整体运营。

MVDC方案并不能节约成本和能源,因为两个数据中心运行在相同的时间运行相同的应用。思科使用该技术是为了同步:如果自然灾难摧毁了一个数据中心,那么运营将不会受到影响。

与谷歌一样,思科还也高度关注运营效率。Manville称,德克萨斯数据中心比大多数数据都要先进。比如,其电力配给电压为415V,与其它使用低电压系统的数据中心相比,电力可以节约10%。此外,他还指出,由于新数据中心使用的均为LED照明灯,与使用白炽灯相比可以节约40%的电能。

Pund-IT公司分析师Charles King称:“LED照明灯刚问世时价格昂贵,并且由多个小灯管组成。但是随着技术的发展,LED照明灯的价格已经下降了许多,成为了很普通的东西。思科应当为他们的极限挑战赢得掌声。”

位于偏远地区的雅虎数据中心

通常情况下,数据中心方案至少会将一个主要数据中心建在大城市里,至少也是在一个较大的人口中心里,以靠近IT管理员,这样他们可能很容易的访问服务器和存储。据雅虎数据中心运营总监 Scott Noteboom介绍,近年来,这一概念已经发生了戏剧性的变化。

雅虎运营的大型数据中心多位于偏远地区。公司在北美、欧洲和亚洲新建了5个数据中心。如果管理软件没有提升,雅虎的新位置策略将不可能付诸实施。提升后的管理软件能够让位于雅虎总部内的IT员工远程管理数据中心的细节,诸如存储和虚拟服务器。不过,Notebloom拒绝为我们详细介绍他们是如何实现这些的。

将数据中心建在偏远地区比起建在华盛顿或俄勒冈州来说,可让雅虎降低数据中心的使用成本。Noteboom称,将数据中心建在偏远地区的建设时间也大为缩短,只需要大约6个月时间就可以建成,相比之下建在城市里则普通要花上18至24个月。此外,与建在城市里相比,成本也会降低许多。

建设速度加快的最大好处是可以更为精准地计算出在数据中心完工时雅虎需要多少计算能力--与两年相比,六个月的建设时间可以更为容易的进行能力规划。他称:“建造的越快,你越不怎么需要对未来情况进行预测。”

此外,Noteboom还表示,雅虎已经开始使用新的方案。新方案中,服务能够随着计算需求的变化扩展或缩小。以前,整个数据中心根据正常运行时间和能力被评级。现在,评级标准被进一步细化。通过被雅虎称为“数据中心弹性层服务质量设计”的软件,IT员工能够指定使用什么电力,买哪些备份发电机或UPS,以及需要什么等级的冗余。

Noteboom举了一个例子:电子邮件或搜索需求高可用性,然而一款处于测试状态的用于检查股票报价的新服务可能并不需要如此高可用性。雅虎能够为这些应用设计不同的服务质量水平。过去,所有的应用都处于相同的服务质量水平。

当一个或两个节点短时间发生宕机,该软件还允许雅虎将应用和服务移动至高冗余度的服务器上,或是使用一个集群。

雅虎扩展规模的另一个方法是从当地的公用事业公司那里获得更多的交易权。新数据中心在启用初期可能仅使用1至2兆瓦电能,但是随着规模的扩大,用电量将会升到20兆瓦。在建设前开始前,雅虎就关于同一个数据中心与多家公用事业公司签订用电合同,或是与同一家公用事业公司签订一些灵活的合同,甚至对每种不同水平的服务协商不同的税收激励。

Noteboom 称:“从成本方面说,由于没有多余的投产,这让我们节省下来不少资金。”

迄今为止,新的灵活的服务质量方案运行的非常好。Noteboom称,他们位于纽约洛克港的数据中心的PUE值仅为1.08,这主要归功于其能够根据应用需要调整服务。并不是每台服务器都全天都在满负荷运行;实际上,IT员工会调整应用的服务质量需求。

Pund-IT公司分析师King称,雅虎目前很有想法。他称:“这是一个很有趣的方案,特别是根据应用的重要性精细的调整服务质量。这可能对于云服务提供商来说是一个重要的创新--其可以优化与终端用户达成的服务协议。”

不过,King对联机交换用电反馈还没有太多把握。他称,尽管这“非常新颖”,但是它们成效很大程度上取决于当地条件,因为公司能够选择电力公司的地方并不多。随着越来越多的替代能源的出现,这种情况可能会发生改观。

英特尔的烟囱式机柜

英特尔工程师开发了一种独特的烟囱式机柜系统。该系统工作就如同一个可以排除服务器机架生产的热空气的塑料帘子(英特尔目前已经对该技术进行了授权)。英特尔负责IT运营的副总裁Kim Stevenson称:“这是一种让冷空气保持在'冷通道'中的低成本高效率方法,可以节约大量电能。”

Stevenson称,位于每个机架上方的烟囱式机柜不可或缺,因为英特尔的许多数据中心位于生产设施内。一些建筑物并不是新建成的,因此其可以利用现有建筑物结构处理散热问题。另一个方案是重新为数据中心选址以解决“冷通道”热损耗问题,但是这种方案成本太高,

此外,英特尔还开始着手研发一种新的方案。据英特尔最近公布的年度IT报告显示,新方案将“整个数据中心--软件、服务器、存储、网络和设施等视为一个系统针对具体的业务需求进行优化。”比如,硅设计团队每周需要执行大量计算密集型工作。对此,英特尔的IT部门将一个高性能计算网格来满足这些需求。这个高性能计算网格针对设计工作进行了专门的优化。

英特尔数据中心的内部场景,注意服务器机架的后部和空气隔离系统

通常,英特尔根据四个关键指标来分析其数据中心的性能:效率、品质、能力和速率。英特尔的报告称,英特尔今年计划“启用业务智能工具,将供应链概念应用于公司的私有云中,帮助公司更好的理解需求信号,以完善能力规划。”

英特尔的另一个创新是关于如果管理对数据中心的远程访问。这涉及到英特尔的业务模式调整。传统上,英特尔只研发主板与处理器等高科技产品,其数据中心是封闭的。目前英特尔正在扩展其业务,开始提供更具开放性的产品和服务。

比如,英特尔开始销售针对上网本的应用,公司必须要对购买这些软件的用户进行验证。英特尔使用他们自己的ExpressWay服务导向架构产品来验证所有的用户帐户。Stevenson称,英特尔Expressway可帮助IT部门创建一个无缝的安全策略强化架构,其简化了通知设计,减少了不必要的认证。

    • 评论
    • 分享微博
    • 分享邮件
    邮件订阅

    如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

    重磅专题
    往期文章
    最新文章