混合渲染通过融合实时光线追踪、AI、模拟和光栅化,为计算机图形带来根本性变革
加拿大不列颠哥伦比亚省温哥华——SIGGRAPH——太平洋时间2018年8月13日——NVIDIA今日推出NVIDIA Turing GPU架构,为计算机图形领域带来革新。
Turing架构是自2006年发明CUDA GPU以来的重大飞跃,其采用了可加速光线追踪的全新RT Core,以及面向AI推理的Tensor Core,首次使实时光线追踪成为可能。
这两者结合更强大的模拟计算和光栅化功能,迎来了新一代混合渲染,能够满足价值2500亿美元的视效行业需求。混合渲染可实现影院级的交互式体验、基于神经网络的全新惊艳效果、以及在高度复杂模型上的流畅交互。
NVIDIA还推出了率先采用Turing架构的产品——NVIDIA Quadro RTX 8000、Quadro RTX 6000及Quadro RTX 5000 GPU,其将为各行各业中约5000万设计师和艺术家的工作带来变革。
NVIDIA创始人兼首席执行官黄仁勋在年度SIGGRAPH大会期间的演讲中提到:“Turing架构是NVIDIA十多年来在计算机图形领域最为重要的创新。混合渲染将为行业带来变革,开启令人惊叹的可能性,通过更美观的设计、更丰富的娱乐、以及更多的互动体验来改善我们的生活。实时光线追踪的到来也是我们全行业的梦想成真。”
Turing架构是NVIDIA的第八代GPU架构,使全球首款光线追踪GPU成为可能,也是超过一万个工程年的努力成果。借助Turing的混合渲染功能,应用能够以相当于早前Pascal一代6倍的速度对物理世界进行模拟。
为助力开发者充分利用这些功能,NVIDIA通过全新AI、光线追踪和模拟SDK,强化了其RTX开发平台,并宣布成百上千万名设计师、艺术家和科学家所采用的主要图形应用均计划通过RTX开发平台充分发挥Turing架构的特性。
分析公司JPR首席执行官Jon Peddie表示:“这是计算机图形学史上的一大重要时刻。NVIDIA实现了实时光线追踪,而此前我们都认为这可能要到五年之后才能实现。”
Turing架构采用了名为RT Core的专用光线追踪处理器,能够以高达每秒10GigaRays的速度对光线和声音在3D环境中的传播进行加速计算。Turing架构将实时光线追踪运算加速至早前Pascal架构的25倍,且GPU节点可用于电影效果的最终帧渲染,其速度是CPU节点的30倍之多。
Cinesite首席技术官Michele Sciolette表示:“Cinesite很荣幸能够与Autodesk和NVIDIA合作,使Arnold能够用于GPU渲染,但如此令人叹为观止的效果仍超出了我们的预期。这意味着我们能够在更高画质的场景中更快速、更频繁地进行迭代。这将彻底改变我们艺术家的工作方式。”
Turing架构还采用了Tensor Core——可加速深度学习训练与推理的处理器,能够提供每秒高达500万亿次Tensor运算。
如此高水平的性能可支持AI增强型功能,助力创建具有强大新功能的应用。这些新功能包括DLAA(深度学习抗锯齿),这是高画质动态图像生成领域内的一项突破,以及去噪、分辨率缩放和视频调速。
这些特性是NVIDIA NGX软件开发套件的一部分,这种全新深度学习技术堆栈可助力开发者通过预先训练的网络,轻松地在应用中集成加速且增强的图形、照片成像和视频处理。
基于Turing架构的GPU采用了流式多处理器(SM)架构,该架构新增了与浮点数据路径并行执行的整数执行单元,以及带宽为早前架构两倍的全新统一缓存架构。
结合可变速率着色等全新图形技术,Turing SM实现了前所未有的单核性能水平。凭借多达4608个CUDA内核,Turing架构可支持高达16万亿次浮点运算,同时支持每秒16万亿次整数运算。
开发者可利用NVIDIA的CUDA 10、FleX和PhysX SDK来创建复杂的模拟,例如用于科学可视化的粒子或流体动力学、虚拟环境和特殊效果。
最先采用Turing架构的Quadro GPU将于第四季度开始供货。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。