至顶网服务器频道 06月19日 新闻消息(文/李祥敬):在近日举行的Citrix Synergy 2017上,NVIDIA携GRID解决方案全新亮相。XenServer团队展示了业界首款支持GPU的XenMotion技术演示,以及Citrix Director与NVIDIA GRID GPU监控器的集成。
NVIDIA GRID是一个图形虚拟化平台,它推动NVIDIA GPU技术深入虚拟桌面和应用领域发挥效力,为设计师、移动业务专员、办公室工作者等一众人员带来身临其境的优异用户体验。
NVIDIA GRID技术能让IT接入到功能强大的图形加速云解决方案,通过提供更高安全性、工作效率和成本效益的虚拟工作空间,将应用程序和数据集中到一起。
NVIDIA GRID与虚拟化技术的融合
目前NVIDIA GRID与NVIDIA Tesla GPU日益被部署在主流虚拟应用程序,虚拟桌面和虚拟工作站中。越来越多的企业使用传统服务器、超融合设备或者公有云形式的GPU加速技术驱动Windows 10和现代应用程序。
Citrix宣布已经集成NVIDIA GRID,以提供业界首个且唯一融汇了GPU的洞察力和虚拟机器迁移能力、支持对GPU进行全面管理的应用程序。该产品为在数据中心和云端部署NVIDIA GRID加速虚拟应用程序、台式机和工作站的企业提供高级操作功能。 Citrix与NVIDIA在图形虚拟化方面有长期的合作伙伴关系,早在2013年,Citrix在XenServer引入了vGPU技术,首次为虚拟机带来了真正的硬件共享图形计算能力。
现在,Citrix与NVIDIA通力合作,使用XenServer和NVIDIA vGPU释放企业的XenDesktop图形工作负载,并进行虚拟机的XenMotion实时迁移。也就是企业可以将在运行中的启用vGPU的虚拟机实时迁移到另一台主机上面,而不影响用户使用体验,使企业能够更有效地管理主机。
另外,Citrix Director与NVIDIA GRID GPU监控器的集成能够更好地帮助企业监控和分析GPU使用情况,方便企业实现对虚拟化设备的管理。Citrix Director是一个监视控制台,能够提供有关应用程序和桌面的详细趋势和诊断信息。
在虚拟应用程序或虚拟桌面方面,NVIDIA GRID不光与Citrix展开了深入合作,还与VMware有着紧密的合作。
NVIDIA与VMware在图形虚拟化领域的不断深入合作,为用户提供最佳的虚拟化图形加速应用体验。
NVIDIA GRID技术搭配VMware Horizon和vSphere环境,可运行任何应用程序,带来极佳的用户体验。NVIDIA GRID技术可让企业IT部门高效分配图形资源,从而实现更好的可扩展性、可管理性和安全性。终端用户可以跨设备和地点获得所需的图形性能,从而提高生产力。
NVIDIA GRID云端拓展更多应用场景
除了Citrix和VMware,NVIDIA与AWS、微软Azure展开合作,在云端扩展NVIDIA GRID。
AWS通过其Amazon EC2云来提供NVIDIA GRID GPU实例,那些在云端运行图形密集型应用和游戏的用户因而能够获得GPU加速。
NVIDIA GRID GPU专为云计算而设计,使新一代GPU加速的SaaS应用成为了可能,这些应用包括虚拟工作站、加速的虚拟桌面以及游戏即服务。
而在微软Azure云平台上面,由NVIDIA GRID虚拟化平台和NVIDIA Tesla M60 GPU提供支持的Azure虚拟机实例,帮助Azure在云端实现了大规模GPU图形加速的虚拟化,以满足企业的需求。使用NVIDIA GRID,就能在Microsoft Azure中无缝地部署GPU加速的虚拟应用程序、台式机和工作站。
高端工作站用户可以直接在这些实例上运行NVIDIA Quadro GPU优化的应用程序,例如Siemens PLM套件。
此外,不需要Quadro优化应用程序的办公室工作人员和专业人员也可以享受到针对助力提高生产力的应用程序进行优化的高品质用户体验,例如 RDS、Citrix XenApp Essentials、VMware Horizon或Workspot等解决方案交付的虚拟应用程序或虚拟桌面。
写在最后
作为NVIDIA提供的基于GPU的云计算解决方案,围绕GRID,NVIDIA与合作伙伴一同,为企业提供更丰富、便捷和多样化的虚拟化图形体验和服务。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。