作者:MIKE WHEATLEY
英伟达公司(Nvidia Corp.)今天推出了新的Nvidia RTX 2000 Ada Generation GPU,将更强大的生成式人工智能处理器打包到“紧凑型工作站”中,让用户能够在设备上运行高级AI应用程序。
RTX 2000是该公司有史以来生产的最强大的工作站图形处理单元,其性能是上一代RTX A2000 12GB的1.5倍。它旨在处理复杂的应用,如制作3D环境和完善工业设计,并将为英伟达所说的“人工智能加速的未来” 铺平道路。
该公司解释说,现代多应用程序工作流,如生成式人工智能、多显示器设置和高分辨率内容,对GPU内存提出了很高的要求。为了更好地处理这个问题,RTX 2000 Ada提供了 16 GB的板载内存,确保它可以支持更逼真的图形,逼真的光线追踪图像渲染速度比上一代芯片快三倍。
该芯片由英伟达第四代Tensor内核提供支持,其AI吞吐量是该公司旧款 RTX A2000 12GB的1.8倍,同时能效提高了两倍。宣传中还有虚拟现实工作流程的性能提高三倍等内容。
英伟达表示,RTX 2000 Ada Generation GPU可以加速可视化和结构分析工作负载,提高许多行业的设计精度。例如,使用工业PC的产品设计师和工程师将能够通过极快、逼真的渲染和AI驱动的生成式设计更快地迭代新概念。同时,内容创作者将能够以更快的速度和精度编辑高分辨率的视频和图像,利用人工智能创造更逼真的视觉效果。
此外,英伟达还希望RTX 2000 Ada Generation GPU为边缘实时数据处理提供支持,例如医疗设备和制造设备,以及零售环境中AI驱动的智能。
英伟达列出了其最新GPU平台的许多早期采用者,包括3D产品设计软件制造商达索(Dassault Systèmes SE)。达索公司的图形应用研发总监Olivier Zegdoun表示,这款新芯片对其SOLIDWORKS设计软件的用户特别有益。他表示:“它为设计师和工程师提供了卓越的性能,以加速开发具有完整模型保真度的创新产品体验,即使数据集更大。”
Rob Wolkers Design and Engineering的所有者兼高级工业设计工程师Rob Wolkers强调了该芯片可以在工业设计场景中提供更强大的计算能力。他表示:“RTX 2000 Ada Generation GPU配备了下一代架构和大型帧缓冲区,提高了日常工业设计和工程工作流程的工作效率,使我能够以全保真度处理大型数据集,并以3倍的速度生成具有更多照明和反射场景的渲染。”
英伟达表示,RTX 2000 Ada Generation GPU将与最新的RTX Enterprise Driver一起推出,后者包含了一系列旨在增强图形工作流程的功能。例如,Video TrueHDR是针对标准动态范围和高动态范围视频的一种新的色调映射功能,可为Chrome和Edge等Web浏览器中查看的内容提供更宽广的色彩范围和更高的亮度。该驱动还增加了对Video Super Resolution和TrueHDR的支持,使低质量视频能够增强并升级到HDR。
该驱动还包含了TensorRT-LLM,这是一个开源库,可优化和加速大型语言模型的推理性能,并具备通过执行间接扩展应用程序编程接口将某些任务从中央处理单元卸载到GPU的能力。
英伟达表示,RTX 200 Ada现已通过其全球分销合作伙伴供应,并将于4月集成到戴尔、惠普和联想的工作站中。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。