科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网服务器频道服务器组件英特尔VMDq:提高网络I/O性能的利器

英特尔VMDq:提高网络I/O性能的利器

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

随着IT部门(从小型企业到大型企业)中服务器虚拟化的持续增长,虚拟化技术不断发展,虚拟机的系统吞吐量以及虚拟环境中的性能都有所提高。虚拟设备队列(VMDq)是来自英特尔的另一项突破性技术,它帮助将网络I/O数据处理任务从虚拟机监控软件卸载到网卡中。

来源:ZDNet编译 2010年7月15日

关键字: 英特尔 VMDq Hypervisor VMware

  • 评论
  • 分享微博
  • 分享邮件

在本页阅读全文(共2页)

VMDq性能使用实例

Intel和VMware合作开发和加强虚拟化环境中的队列技术。Intel提供了用于在网卡中分类数据包的VMDq技术,减轻hypervisor的负担。VMware则在hypervisor交换机层进行了一些完善,不仅将数据导向到分别的目的虚拟机中,还将中断信号指向各自的CPU内核和目的虚拟机。通过在虚拟化环境中实施这种结合的队列技术,不仅吞吐量会翻一番,而且CPU利用率也有显著提升。

列举这样一个特定的使用实例:一台基于Intel四核至强处理器的服务器,运行Windows 2008和4个虚拟机,Intel 82598 10Gb以太网控制卡运行在一个ESX开发架构上。没有采用VMDq的情况下,吞吐量是4.0Gb;采用了VMDq之后,吞吐量翻了一番多,达到9.2Gb。以上这些数据都是帧大小为标准的1500字节下读取的。在巨帧的情况下,吞吐量为9.5Gb。VMware计划在未来版本ESX中支持VMDq on Intel 82598 10 Gigabit Ethernet Controller。

英特尔VMDq:提高网络I/O性能的利器

VMDq显著提高网络I/O吞吐量

总结

更高的处理能力为在IT数据中心内进行更好的整合提供了机会;然而,对I/O的影响也是不容忽略的。虚拟设备队列将数据包分类负载从hypervisor交换机卸载到网卡硬件中。在网络芯片中分类的数据,加上每个虚拟机的独立队列,这些为应用处理器(而不是网络I/O处理)释放了更多CPU周期。在基准测试研究中,Intel网卡中增加VMDq可以将虚拟化平台吞吐量提升一倍之多。

    • 评论
    • 分享微博
    • 分享邮件
    邮件订阅

    如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

    重磅专题
    往期文章
    最新文章