扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
ZD至顶网服务器频道 09月06日 评论分析(文/赵效民):EVO SDDC是VMorld 2015大会上一个重要的亮点产品,它标志着VMware在超融合基础设施(HCI,Hypervisor-Converged Infrastructure)领域里所取得的新的突。由于EVO RAIL在本届VMorld的主题讲演中从无提及,所以也让业界认为EVO SDDC将是VMware更为看重的HCI业务方向。
VMware这次发布了全新的EVO SDDC,它的前身就是去年发布的代号为EVO RACK研发项目的技术预览。这次发布的新増重点是新的管理平台EVO SDDC Manager,其他方面与EVO RACK基本一致。EVO SDDC Manager是一个智能的自动化管理引擎,大幅简化部署与整体IT资源池的管理,除了虚拟资源也包括物理设备(物理服务器与网络交换机),而在它之下,所集成的均是最新的VMware产品。
EVO SDDC的软件堆栈就是一系列的VMware产品组合,在虚拟化层集中了VMware五大产品——服务器虚拟化平台vSphere、网络虚拟化平台NSX、存储虚拟化平台VSAN,以及虚拟化管理平台vCenter Server。而在运营管理层则集成了运维管理平台vRealize Operations和日志分析管理平台vRealize Log Insight。这只是针对虚拟化资源与运营的管理,在全局整系统的管理上则就引入了EVO SDDC Manager。它除了可以调用vRealize管理套件外,还连接硬件管理服务(HMS,Hardware Management Services),可以直接管理经认证的硬件物理资源(服务器、存储、网络)。
EVO SDDC Manager可被云基础设施的管理员直接访问,并可通过表述性状态传递(REST) API供第三方管理工具调用。不过到现在为止,EVO SDDC仍只是一个集成的虚拟化平台,若进一步部署vRealize Automation云自动化组件,或Horizon之后才会变成一个IaaS化的云平台或虚拟桌面(VDI)平台。在销售时,根据最终的部署形态,上文中相关软件的授权费用已经包含其中,不再单独计算。
既然是EVO RACK的延续,那么EVO SDDC的构建基础单位就是一个机柜,在这里我们可以看出在硬件平台上,服务器与存储是融合的(VSAN),在网络交换方面,典型的首机柜配置一共有5台以太网交换机,两台做TOR交换机冗余,两台做机柜间的主干交换机(Spine Switch)冗余,一台用于管理交换机(Management Switch),专门用于带外管理服务器与各交换机。
据VMware技术人员介绍,一个EVO SDDC机柜标配24台服务器,8个机柜最多192台服务器,起始配置不能少于8台服务器。需要注意的是,主干交换机,整个扩展集群(单一管理分区)只需要两台即可,首机柜部署了,后面的机柜就不需要了,但管理交换机与TOR交换机是每个机柜都必备的。
第一个EVO SDDC机柜是最重要的,如果是8台集群,总联网出口也是在第一个机柜的TOR交换机,但如果只是一个机柜,事实上并不需要主干交换机,每台TOR有两路40Gb链路连接数据中心网络。TOR至服务器,管理交换机至所有设备的连网接口都是10G
当配置了两个EVO SDDC机柜后,就需要主干交换机(一般部署于第一个机柜)做东-西向的柜间互联,每个机柜的TOR都与主干交换机进行冗余双40G连接,机柜间的互联带宽应该为80G,而第一机柜的TOR将用8条10G链路与数据中心连接,带宽也是80G
在EVO SDDC的方案集成分工上,软件堆栈全部由VMware负责,而合作伙伴则提供硬件基础设施,包括服务器,TOR交换机、主干交换机、管理交换机、配电模块以及相应的硬件管理服务平台,供EVO SDDC Manager调用。在销售方面,也是由合作伙伴完成,并交付最终的解决方案,VMware会在某些情况下予以技术上的支持,但不会参与EVO SDDC的销售。而硬件的连接与预配置在出厂前已经完成,在客户现场可以说是一个“交钥匙”(Turnkey)的部署模式,EVO SDDC Manager将根据用户需求,完成自动化现场配置。
在VMworld 2015上,VMware宣布单个EVO SDDC机柜(按24台服务器计算)最多可支持1000个IaaS虚拟机,配置为2 vCPUs、8 GB内存、160 GB存储,以及2000个VDI虚拟机,不过在一些文档中,这一数字高达3000个, 配置为1-2 vCPUs、4GB内存与80GB存储,在此谨供参考吧,而单机柜的IOPS超过了200万,但很可能不能算作是与VM数量的关联指标
如果部署了完整的软件堆栈,那么一个机柜的EVO SDDC就是一个软件定义数据中心(SDDC),单个EVO SDDC Manager可以最多管理8个EVO SDDC机柜,虚拟机数量可达8000个,而配置这样一个SDDC只需要2个小时。虽然VMware的技术人员介绍8个机柜时,总服务器数量为192台,但在目前所透露了来的技术文档中,并没有这样一个明确的说法。而在一些文档中则强调这个限制并不是软件能力造成的,而是主干交换机容量只能支持8个机柜的互联,似乎并没有提到具体的服务器数量限制。在未来,也许随着主干交换机容量提高,就会自动带动EVO SDDC横向扩展能力的提升。
如果需要更多的机柜,则要新开EVO SDDC Manager管理区,并且不能跨区管理。不过VMware表示,现在很少有客户会需要这么多的虚拟机。
对于整体的数据中心而言,EVO SDDC可以让用户在一个“虚拟机柜”(相当于一个单一的IT基础设施资源池)的界面上进行统一的管理,并且可为不同的工作负载划分相应的“域”,比如分出一个做IaaS云平台,一个用于大数据(基于虚拟化平台的),另一个则专门用VDI交付,不过现在还不清楚在一个EVO SDDC Manager的管理区下可以生成多少个工作域
由于集成了VMware NSX,所以用户可以在EVO SDDC上通过网络虚拟化,灵活地实现不同工作域的网络安全策略
EVO SDDC Manager的一个重要功能是,可以对全部硬件以及VMware软件堆栈进行全生命周期管理(比如软件补丁与物理设备固件更新等)。换作以前,让VMware的产品直接管理硬件,是不可想像的,虽然主要的功能实现依赖于合作伙伴的HMS,但由此也可以看出业界的竞争也在不断改变着厂商的既有习惯
在这里顺便说一说EVO SDDC中的VSAN,众所周知,目前VSAN 6.1最高支持64个节点(最大容量可达8PB),但在EVO SDDC中,显然不可能将192个节点划分为单一的VSAN存储池,至少要三个。事实上,VMware也不认为会有用户这么使用,而是会针对不同的工作区来分块使用VSAN,但这也预示了一个工作区应该无法超过64个物理节点。而64个节点的VSAN又会提供怎样的实力呢?
这是本届大会上展出的64节点全闪存VSAN阵列(与英特尔合作,全部采用英特尔的SSD),总可用容量500TB,可最高支持6500个虚拟机,如果按VMware所宣称的单机柜超过200万IOPS是24台标配所达到的标准(这个性能应该是在全闪存配置下实现的),那么64节点的VSAN性能应该至少可以超过400万IOPS,就看哪个客户这么土豪了。
接下来我们来我们来看看具体的EVO SDDC的产品实例,在本届大会上,首批宣布支持EVO SDDC的厂商有三家:DELL、广达(QCT)、VCE,它们将在2016年上半年正式推出获认证的硬件整合方案,而富士通将会在10月份正式宣传,成为第四家支持EVO SDDC的厂商。
VCE展台所展出的EVO SDDC的原型设计(型号1032),据VCE的展台人员介绍,单机柜可以支持最多32台服务器,但不知道这是不是EVO SDDC的标准规格之一,如果是8个机柜的话,显然要比传说中的192台更多,而且如何用户恰好需要49至64台节点,那么VCE这个32节点的设计就会比24节点设计节省一个机柜的空间
目前EVO SDDC的服务器节点只有一个规格,1U高度,10个盘位、3xLAN网口,双CPU配置(总核心数量不少于10个),当然处理器肯定只能是英特尔至强,不过VMware表示,日后逐步增加EVO SDDC认证的机架服务器类型。但是,在单一机柜里不能混合部署不同厂商的服务器节点,但不同厂商出品的EVO SDDC机柜可以纳入统一的管理
从机柜的后面看,配电模块很规整,上面的交换机只认出了一台思科的Nexus 9332PQ,不过VCE的人表示这只是一个架构展示并非是最终的设计,所以并不能确认VCE的EVO SDDC的TOR与主干交换机的配置,而服务器的后端可以很清楚的看到有3个以太网口,其中两个10Gb接口分别接入两台TOR交换机,形成冗余连接,另一个则连接管理交换机
这是由广达云科技(QCT,Quanta Cloud Technology)推出的低配版的EVO SDDC,也可以说是迷你版的EVO SDDC,在20U的机柜里,共有12台服务器,服务器之上依次是管理交换机、TOR交换机、主干交换机,而其在网络平台上使用了Cumulus Linux网络操作系统,全面支持VMware NSX与HMS
这里需要强调的是,据VMware介绍,QCT的这个设计是基于OCP的硬件方案,也就是说EVO SDDC是有意与开放硬件平台合作的,VMware的发言人对此也并不回避,包括中国的天蝎整机柜也在合作计划之内,但VMware再三强调关键点在于,要做完整的硬件验证才能纳入到EVO SDDC的认证列表。
富士通将在今年10月的欧洲VMworld大会上,正式宣布推出EVO SDDC的PRIMEFLEX集成系统,(首个机柜的)标准配置就是24台PRIMERGY RX2530 M1服务器、两台博科VDX6940做主干交换机、两台VDX 6740做TOR交换机,一台VDX 6740T-1G交换机用于带外管理
至此,有EVO SDDC的介绍就先告一段落。显然,它并不是一个传统意义上的Scale-Out集群系统,而是一个面向大规模虚拟化与云平台部署的机柜级HCI整合方案,只是在一定规模内提供了便利的Scale-Out的能力,但绝非针对公有云市场而设计,我们不能用“互联网”的眼光来看待它。
说到此,可能有人会问EVO SDDC到底是给谁用的?答案很简单——有SDDC或私有云需求的企业级客户,并且客户规模小不了(至少是中型企业的规模),而相较以往采用VMware的VCE vBLOCK、Cisco/NetApp FlexPod、HP Converged System等集成系统,我认为它最大的不同在于基于VSAN的超融合,以及更为紧密的VMware软件集成(比如NSX、EVO SDDC Manager),从而可以更快部署上线SDDC、私有云或VDI服务,并借此进一步稳固其基于vSphere的统一混合云(UHC)的战略。
根据VMware透露的进度,最快它也要到2016年上半年才会正式商用,而之所以从去年发布相应的代号项目,到现在仍然是技术预览,原因就在于VMware在和合作伙伴一起啃全局的虚拟化+物理环境管理的硬骨头,这其中有大量的硬件可管理性需要验证,以确保自动与智能管理的有效性。另一方面,自动化部署,一键式交付也是EVO SDDC努力的方向,EVO SDDC Manager就是最好的例证。但做过部署的人都知道,全局HCI的配置并不容易,如果再加上云服务与VDI将会更加麻烦,想确保自动化的效果,又需要大量的试验验证。
那么EVO SDDC到底有多大的市场呢?我还不好说。不过,VMworld 2015上vSphere集成容器的发布(VIS,vSphere Integrated Containers)应该说让人眼前一亮,它可能会让EVO SDDC拥有一个被企业级用户接纳的机会。毕竟很多用过vSphere的企业级用户应该会认同它的健壮性,能与容器很好的融合,并能快速部署,也正好符合企业级IT市场的变迁趋势,届时既有的VMware用户升级至EVO SDDC完全有可能,而且大多数EVO SDDC的目标客户已经是VMware的用户,所以打动了他们,EVO SDDC的前景也就非常可期。而在扩大私有云营收的同时,也必然会带动VMware统一混合云的业务……但对于非VMware的用户,EVO SDDC显然还需要更多的努力来证明自己相对高昂的价值,所带来的价值无可替代!
最后,让我们共同猜测一下,在中国厂商里,率先支持EVO SDDC(包括用中国的天蝎机柜)的厂商会是哪家呢?
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。
现场直击|2021世界人工智能大会
直击5G创新地带,就在2021MWC上海
5G已至 转型当时——服务提供商如何把握转型的绝佳时机
寻找自己的Flag
华为开发者大会2020(Cloud)- 科技行者