至顶网服务器频道 06月19日 新闻消息(文/李祥敬):在近日举行的Citrix Synergy 2017上,NVIDIA携GRID解决方案全新亮相。XenServer团队展示了业界首款支持GPU的XenMotion技术演示,以及Citrix Director与NVIDIA GRID GPU监控器的集成。
NVIDIA GRID是一个图形虚拟化平台,它推动NVIDIA GPU技术深入虚拟桌面和应用领域发挥效力,为设计师、移动业务专员、办公室工作者等一众人员带来身临其境的优异用户体验。
NVIDIA GRID技术能让IT接入到功能强大的图形加速云解决方案,通过提供更高安全性、工作效率和成本效益的虚拟工作空间,将应用程序和数据集中到一起。
NVIDIA GRID与虚拟化技术的融合
目前NVIDIA GRID与NVIDIA Tesla GPU日益被部署在主流虚拟应用程序,虚拟桌面和虚拟工作站中。越来越多的企业使用传统服务器、超融合设备或者公有云形式的GPU加速技术驱动Windows 10和现代应用程序。
Citrix宣布已经集成NVIDIA GRID,以提供业界首个且唯一融汇了GPU的洞察力和虚拟机器迁移能力、支持对GPU进行全面管理的应用程序。该产品为在数据中心和云端部署NVIDIA GRID加速虚拟应用程序、台式机和工作站的企业提供高级操作功能。 Citrix与NVIDIA在图形虚拟化方面有长期的合作伙伴关系,早在2013年,Citrix在XenServer引入了vGPU技术,首次为虚拟机带来了真正的硬件共享图形计算能力。
现在,Citrix与NVIDIA通力合作,使用XenServer和NVIDIA vGPU释放企业的XenDesktop图形工作负载,并进行虚拟机的XenMotion实时迁移。也就是企业可以将在运行中的启用vGPU的虚拟机实时迁移到另一台主机上面,而不影响用户使用体验,使企业能够更有效地管理主机。
另外,Citrix Director与NVIDIA GRID GPU监控器的集成能够更好地帮助企业监控和分析GPU使用情况,方便企业实现对虚拟化设备的管理。Citrix Director是一个监视控制台,能够提供有关应用程序和桌面的详细趋势和诊断信息。
在虚拟应用程序或虚拟桌面方面,NVIDIA GRID不光与Citrix展开了深入合作,还与VMware有着紧密的合作。
NVIDIA与VMware在图形虚拟化领域的不断深入合作,为用户提供最佳的虚拟化图形加速应用体验。
NVIDIA GRID技术搭配VMware Horizon和vSphere环境,可运行任何应用程序,带来极佳的用户体验。NVIDIA GRID技术可让企业IT部门高效分配图形资源,从而实现更好的可扩展性、可管理性和安全性。终端用户可以跨设备和地点获得所需的图形性能,从而提高生产力。
NVIDIA GRID云端拓展更多应用场景
除了Citrix和VMware,NVIDIA与AWS、微软Azure展开合作,在云端扩展NVIDIA GRID。
AWS通过其Amazon EC2云来提供NVIDIA GRID GPU实例,那些在云端运行图形密集型应用和游戏的用户因而能够获得GPU加速。
NVIDIA GRID GPU专为云计算而设计,使新一代GPU加速的SaaS应用成为了可能,这些应用包括虚拟工作站、加速的虚拟桌面以及游戏即服务。
而在微软Azure云平台上面,由NVIDIA GRID虚拟化平台和NVIDIA Tesla M60 GPU提供支持的Azure虚拟机实例,帮助Azure在云端实现了大规模GPU图形加速的虚拟化,以满足企业的需求。使用NVIDIA GRID,就能在Microsoft Azure中无缝地部署GPU加速的虚拟应用程序、台式机和工作站。
高端工作站用户可以直接在这些实例上运行NVIDIA Quadro GPU优化的应用程序,例如Siemens PLM套件。
 此外,不需要Quadro优化应用程序的办公室工作人员和专业人员也可以享受到针对助力提高生产力的应用程序进行优化的高品质用户体验,例如 RDS、Citrix XenApp Essentials、VMware Horizon或Workspot等解决方案交付的虚拟应用程序或虚拟桌面。
写在最后
作为NVIDIA提供的基于GPU的云计算解决方案,围绕GRID,NVIDIA与合作伙伴一同,为企业提供更丰富、便捷和多样化的虚拟化图形体验和服务。
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。