至顶网服务器频道 10月30日 新闻消息(文/刘新萍): 依稀记得上个月,在GTC CHINA 2017上英伟达掌舵人黄仁勋掀起的"AI风云",各种金句使得黄仁勋成为科技领域媒体笔下的头条人物。事隔一个多月,英伟达亮相Esri中国用户大会,再次与媒体分享了NVIDIA Quadro虚拟数据中心工作站软件(Quadro vDWS)及宣布开放Holodeck 抢先体验版。
我们知道,一直以来,图形加速都是英伟达最擅长的地方。据介绍,此次的Quadro vDWS可以将NVIDIA Tesla GPU加速服务器变身为强大的工作站,为IT部门提供所需的资源,以满足企业级虚拟办公环境的需求。
会上,NVIDIA云计算总监马庆胜首先介绍了Quadro vDWS,他认为,在如今的云计算变革时代,我们的工作与生活都已经融入了云计算技术,且得到了企业级关键业务领域的高度认可,而在虚拟化与云计算的大环境下,对图形的要求也逐渐提高。
NVIDIA Quadro给Tesla GPU不一样的体验
英伟达GPU虚拟化技术经过多年的发展,从技术、产品本身伴随着GPU硬件提升,实现GPU在全系统产品上的支持。更关键的是,解决技术的同时,也融入了管理,使得IT在背后的部署使用更加便捷。这也与英伟达的市场定位息息相关。
据马庆胜介绍,NVIDIA的GPU虚拟化平台包括硬件、软件和服务,更关键的则是软件,通过软件使得GPU或CPU加速更好发挥其作用,实现无与伦比的体验。值得一提的是,Quadro vDWS可用于来自33个系统供应商的120多个系统,为基于同一GPU的多位企业级用户提供高端的性能,从而降低拥有成本。
除此之外,Quadro vDWS可为遍布全球的团队赋予更高的移动性和协作能力。它还能处理越来越多与3D、照片级逼真的渲染、虚拟现实和深度学习等新技术相关的计算密集型工作流程,这些工作流程涉及的数据大小和复杂性均呈指数级增长,在工程和科学领域特别常见。
那么,为什么会命名为vPC及vDWS?马庆胜表示:"其实这样更容易让用户解释,我们通过软件定义来定义GPU虚拟化是针对于哪种场景,如果提PC主要针对PC场景,如果提工作站,更多体现的由是工作站环境下所需方案。英伟达的软件是通过vPC、vDWS体现出对软件整体的区分。"
NVIDIA Holodeck为用户实现无与伦与的VR环境
在此次发布会上,除Quadro vDWS之外,英伟达也宣布开放Holodeck 抢先体验版。现场,NVIDIA中国区虚拟现实业务开发及销售经理张武向媒体介绍了Holodeck的构建背景。他总结了三个行业对VR环境的需求较为迫切:
一、电影拍摄环境。传统3D设计在纯CG电影拍摄环境中,导演无法运用镜头进行第一人称拍摄,假如带着VR头盔去CG环境进行设计,随着各个角度,光影的变化,导演看到的第一视角既是镜头的视角。
二、传统汽车制造行业。在VR的配合下,汽车可以第一时间感受材质、光照、内饰以及驾驶位置摆设。
三、建筑设计行业。在VR环境中,设计师可以1:1构建虚拟建设环境,并且可以随时进行编辑和修改。
可以看出,VR对于部分行业的改变是显而易见。同时,由于设计师对设计平台要求的不断提升,VR的设计门槛也在逐步提高。而针对目前行业面临的挑战,Holodeck环境可以帮助创意工作者通过将高保真、全分辨率的模型导入虚拟现实系统,实现与同事或朋友展开协作和共享,让设计决策流程变得更加轻松且快捷。
张武介绍到,全新Holodeck主要应用了英伟达的VRWorks、DesignWorks和GameWorks这三项来支撑照片级的效果。其中,VRWorks主要用来优化图形、图像渲染,而DesignWorks和GameWorks主要是优化光照和光影表达。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。