扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
对于数据中心简化的问题,也许人们都会认同这一观点。而提到这方面相关的技术,思科和博科主导的数据中心以太网(简称DCE)和Voltaire与Mellanox推动的infiniband技术无疑成为候选者。无论是DCE还是infiniband技术都可以在其他网络协议的基础上在其内部粗管(fat pipe)中进行输入输出(I/O)虚拟化。但是,还有第三种无需昂贵的粗管(fat pipe)来连接服务器的技术,那就是PCIe。
众所周知,数据中心包含服务器、存储及网络资源三个组成元素。而无论是刀片服务器,还是机架式服务器,现在大部分都采用了虚拟化技术。每台机架服务器要进行虚拟化至少要配备两台I/O适配器,并且都要通过以太网网卡和光纤通道HBA。而存储区域网络(SAN)结构非常昂贵且复杂,并带有交换机和导向器,它们通过存储阵列访问服务器。通过光纤通道协议及分层以太网(FCoE)的单独光纤通道可以摆脱以往使用以太网作为通道的方法。
但是,由于以太网数据包具有不稳定的潜伏期,可能会打破光纤通道的连接。数据中心的世界正在等待DCE解决这两个问题。这将需要服务器具有FCoE支持网卡,融合网络适配器(联网学院)为他们联接DCE的基础设施。
全面看来,Infiniband(IB)已经拥有很高性能的统一架构了,同时应用IB来作为数据中心的统一构造标准。在Voltaire和Mellanox研发的IB中,其交换机启动时速就可以过渡到40GB/s。Infiniband的骨干主要是依赖运行光纤通道和以太网。
与其寻找简化数据中心骨干网络的办法,不如在数据中心网络的边缘寻找解决办法。VirtenSys以PCIe模式帮助服务器虚拟化的网络数据中心简化方案,可以帮助数据中心减少网络适配器的数量。VirtenSys认为服务器是通过像以太网、光纤通道及Infiniband这样的网络后,再通过适配器来传输数据到本地的支持SAS或者SATA协议的存储设备的。
在一个X86服务器中,所有东西都需要最终连接到PCIe总线,并由其来管理服务器内存及CPU应用的进程。这根总线可以延伸到外面其他的服务器中,那为何不把这根PCIe总线通过适配器延伸到所有的服务器中,而是每个服务器都用着一根PCIe总线呢?这样不是浪费吗?而这个交换机其实是虚拟出来的,让所有的服务器都认为它是在本地的适配器中运行。这也就是说10个服务器可以共享一个网卡和主机总线适配器(HBA),另外的9个网卡和HBA就可以扔掉了,如此一来就节省了很多能源及消耗。把存储磁盘插入这样的交换机,就能让服务器从中读取数据并共享给其他服务器。像这样的I/O虚拟化可以大大减少硬件设施的数量,并获得更高的能效。
事实上,这种I/O虚拟化还可以做成"云"。如果那样的话就只需要做成一个共享的网卡、HBA和Infiniband插入到适配器中就可以了,这样一来,资源又大大节省了。下面让我们来看一个实例:以一个拥有5台服务器机架,并且每台机架上有20个网卡和HBA。假设要做迁移,我们需要谨慎的来部署,2个共享网卡和两个HBA就可以做到原来90个网卡和HBA所做到的事情了。每个服务器机架或者刀片还可以共同分享一个直连存储(DAS),因此存储硬盘的数量也相应减少了。
想想这样的情景,服务器正被虚拟化的低成本和低能耗所引导,网络也正向虚拟化的低成本和低能耗进军,存储也是如此,下面的由你自行想象。而扩展到PCIe上的虚拟化却显得有些弥足珍贵,还有它所涵盖的云理念更是意义非凡。
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。
现场直击|2021世界人工智能大会
直击5G创新地带,就在2021MWC上海
5G已至 转型当时——服务提供商如何把握转型的绝佳时机
寻找自己的Flag
华为开发者大会2020(Cloud)- 科技行者