扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
在本页阅读全文(共5页)
万兆不仅在效能,FCoE待考察
我们以之前做VMware View 5.0测试时生成的Connection Server虚拟机为蓝本,将内存分配到64GB,克隆到8个,都放在一台前述的ESX主机(Intel Server System R2000服务器)上,全部开机。由于ESX主机内存的限制,每个虚拟机实际占用的内存约为12GB,总量接近100GB。然后,以1、4、8为单位向另一台同样配置的ESX主机上迁移,来回各一次,计算时间。
万兆和双千兆网络迁移虚拟机时间对比
对比的结果初看似乎有些意外,稍稍一想,又在情理之中。在同时迁移的虚拟机数量较少的时候(1个和4个),双千兆网络所用的时间并不到万兆网络的5倍,是因为vMotion一开始现在本地做一些运算和处理,这段时间vMotion网络上流量甚少,万兆网络和千兆网络没有什么区别,消耗的时间是差不多的,然后才开始启动迁移。由于之前用掉了一些时间,万兆网络5倍的带宽优势就被抵消了一些。
如果同时迁移的虚拟机较多(8个),情况就反过来了,双千兆网络所用的时间超过了万兆网络的5倍,甚至接近6倍,又是为什么呢?经过观察,笔者发现,在双千兆网络上,可能是考虑到带宽有限的缘故,vMotion没有同时启动8个虚拟机的迁移,而是分成两批,每批4个。在第一批迁移接近完成,第二批迁移将要启动的时候,“交接”的时间相对较长,导致总用时比照旧“一次过”的万兆网络要更长一些。这可能也说明,在带宽低到一定程度的时候,vMotion行为会变得相对低效,甚至影响可用性?
红色方框内显示了万兆网络(vmnic4,1.2GB/s)与千兆网络(vmnic2,接近120MB/s)峰值速率的对比,正好是10倍的差距。两个红色椭圆框的对比则更直观,左侧是千兆网络迁移的状况,可以看到分两批迁移(每批4个VM),中间的停顿比较长;右侧的万兆网络迁移时间(横轴)短很多,纵轴上的高度(传输率)则显得非常威武
当然,如果把4个千兆以太网口都用来做vMotion,8个虚机就不会分成两批迁移了,可16个虚机的时候呢?更重要的是,万兆以太网不仅带宽高,而且可以支持流量控制,在整体效能不变甚至上升的前提下,用一根网线取代多根网线,减少线缆数量,节省交换机端口,节能且便于管理……前提是万兆以太网的购置成本进一步下调到更多用户可以接受的程度——10GBase-T,要给力呀!
万兆以太网的另一个附加值是支持FCoE(光纤通道以太网),82599和X540都提供了这项特性。因此,在vSphere Client中对ESX主机进行配置时,硬件可添加的“存储适配器”,除了常见的软件iSCSI适配器,原来总是灰色的“添加软件FCoE适配器”也可以选择并添加成功了——前提是有可用的万兆以太网连接存在。而要真正用起来,还需要支持FCoE的存储或桥接设备。
因为软件iSCSI适配器已添加,所以该选项呈灰色
选择可用的万兆端口,否则会报错
软件FCoE适配器添加成功
察看FCoE适配器信息
不难看出,由于时间等条件限制,我们对虚拟化环境下的万兆以太网应用探索还很浅。希望万兆以太网的生态环境尽快完善起来,让CBSi企业解决方案中心能早日为您送上更为详尽的报告。
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。
现场直击|2021世界人工智能大会
直击5G创新地带,就在2021MWC上海
5G已至 转型当时——服务提供商如何把握转型的绝佳时机
寻找自己的Flag
华为开发者大会2020(Cloud)- 科技行者