科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网服务器频道X86服务器解析Dell新一代PowerEdge服务器

解析Dell新一代PowerEdge服务器

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

本站之前已经介绍了Dell在新一年中在服务器市场上的虚拟化开放解决方案与云计算基础架构策略,今天我们将着重介绍配合Dell这两大战略所推出服务器产品线。

作者:赵效民 来源:ZDNet【原创】 2010年4月13日

关键字: 戴尔 PowerEdge

  • 评论
  • 分享微博
  • 分享邮件

在本页阅读全文(共9页)

新一代M与R系列服务器上的设计亮点

虽然x86服务器的同质化很严重,毕竟CPU与平台的基本架构是统一的,但顶级的服务器厂商都会有自己创新设计来增加产品的亮点,在这方面Dell除了在市场细分方面下功夫而推出新的C系列服务器产品外,也有自己的少创新设计。

Dell新一代服务器设计亮点体现在4个方面,主要集中在新一代的基于至强7500/6500的M与R系列服务器上

借助于至强7500/6500较上一代至强7400的规格提升,性能与可扩展能力的提高自不多说,简化系统管理则是在以往的基础上进一步加强与改进,借助于独特的服务器生命周期控制器(Lifecycle Controller)让Dell独家的统一服务器配置器(USC,Unified Server Configurator)发挥更大的效力。

Dell的统一服务器配置器是基于替代传统BIOS的UEFI(Unified Extensible Firmware Interface,统一扩展固件接口)环境的一种扩展应用,方便用户更直观的管理服务器

生命周期控制器是一颗闪存芯片,集成在服务器上,能够在加载操作系统前的环境中利用统一服务器配置器的直观界面,来执行一整套配置任务,例如系统部署、系统更新、硬件配置和诊断等,从而简化了管理员的任务, 由此避免了使用和维护多个分散的CD/DVD介质。

双SD模块实现了对底层虚拟化管理器(Hypervisor)的冗余保护,提高了虚拟化平台的可靠性

双SD模块是Dell针对虚拟化越来越普及的趋势而设计。目前,虚拟化已经逐渐成为了服务器的一个主流应用,因此也有必要在底层加强虚拟化实施的可靠性,而双SD模块在实现嵌入虚拟化Hypervisor的同时,也实现了当SD卡出现问题时,则自动切换至另一个SD卡上的Hypervisor的功能。该功能主要用在以虚拟化为应用重点的服务器上,如最新的R810、M910、R910与R815上。

不过,在笔者看来新一代R/M系列服务器上最为引人瞩目的设计亮点当属FlexMem Bridge,不过它仅应用于R810与M910服务器上。这两款4插槽至强7500/6500服务器在设计上很特别,为了简单系统的设计复杂度,降低成本,并保证用户搭配的灵活性,每颗处理器只使用一个SMI(Scalable Memory Interconnect,可扩展内存互连)内存控制器,每个控制器控制两个内存通道。但至强7500/6500标配两个SMI控制器,这样一来,每个插槽实际配备的DIMM数量只有8个(标准的设计应该是16个),4个插槽共32个。FlexMem Bridge设计的用意就在于当用户只配两个至强7500/6500处理器时,仍然可以使用全部的32个DIMM,这其实是与标准的双插槽至强7500/6500的设计一样。

Dell的FlexMem Bridge设计,可以让空插槽的DIMM仍然能被利用

这就是FlexMem Bridge芯片,与至强7500/6500插槽兼容

FlexMem Bridge可看作是一个颗内存桥接芯片,在使用时,占用一个至强7500/6500的插槽,其内置两个SMI与一个QPI的传递链接通路,可以利用已经安装的至强7500/6500处理器的另一个空闲的SMI控制器访问FlexMem Bridge所连接的8个DIMM,当然这之间还要通过英特尔的7500可扩展内存缓冲器(SMB,Scalable Memory Buffer)连接。

我们现在还不清楚,FlexMem Bridge的数据是通过SMI链路直接传输,还是走QPI总线。如果从上面的示意图来看,笔者觉得应该是走SMI直连的思路,而且就带宽来计算,单向QPI(以6.4GT/s的速率计算)的带宽只有12.8GB/s,而双路DDR3-1066的带宽就达17GB/s,DDR3-978时则为15.6GB/s,只有DDR3-800时是12.8GB/s,所以从性能的角度上来并不划算。另外,如果是走QPI链路,那么桥接芯片本身也要有SMI内存控制器,这显然也对成本不利,而且,从标准设计的4插槽R910服务器(每插槽配满16个DIMM)并不需要FlexMem Bridge一点来看,它本身也不具备内存寻址的能力,否则也同样适用于双插槽时的R910。所以QPI链路应该只用于设备的识别与判断。

然而,可能很多人会问,Dell这样的设计何苦呢?为什么不老老实实的做成每CPU双控制器全开的设计呢?笔者认为Dell的用意在于给用户一个比较大的灵活搭配空间。因为R810是2U机架服务器,而M910是刀片,做成4插槽64DIMM基本没可能,而每个通道都要配DIMM的话,每个SMB只能配2个DIMM(标配应该是4个),性价比太差,但若利用FlexMem Bridge芯片,则可以较好的解决双插槽的DIMM满配问题,同时又给用户留有可扩展至4插槽的能力。但是,我们可以肯定的是由于CPU只有一个SMI控制器工作,所以在4插槽的配置下,R810和M910的性能肯定与R910有较大的差距,不过这也换来了较高的性价比与更灵活的配置,就看用户怎么选择了。我想这也是为什么Dell并没有专门为7500/6500而优化的双插槽服务器的原因,它们与R910一起已经能起到良好的互补作用了。

FlexMem Bridge并不是随意安装的,双插槽时只能使用CPU1与CPU2插槽安装处理器,CPU3与CPU4插槽安装FlexMem Bridge,不能颠倒

总之,FlexMem Bridge可算是双插槽R810/M910的必备选择,这也是Dell强烈推荐的,否则所安装的处理器只能使用到标准内存带宽的一半,对性能的影响可想而知。

下面我们就来具体的看看Dell新一代的M/R/C系列服务器。

    • 评论
    • 分享微博
    • 分享邮件
    邮件订阅

    如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

    重磅专题
    往期文章
    最新文章