作者:MIKE WHEATLEY
英伟达公司(Nvidia Corp.)今天推出了新的Nvidia RTX 2000 Ada Generation GPU,将更强大的生成式人工智能处理器打包到“紧凑型工作站”中,让用户能够在设备上运行高级AI应用程序。
RTX 2000是该公司有史以来生产的最强大的工作站图形处理单元,其性能是上一代RTX A2000 12GB的1.5倍。它旨在处理复杂的应用,如制作3D环境和完善工业设计,并将为英伟达所说的“人工智能加速的未来” 铺平道路。
该公司解释说,现代多应用程序工作流,如生成式人工智能、多显示器设置和高分辨率内容,对GPU内存提出了很高的要求。为了更好地处理这个问题,RTX 2000 Ada提供了 16 GB的板载内存,确保它可以支持更逼真的图形,逼真的光线追踪图像渲染速度比上一代芯片快三倍。
该芯片由英伟达第四代Tensor内核提供支持,其AI吞吐量是该公司旧款 RTX A2000 12GB的1.8倍,同时能效提高了两倍。宣传中还有虚拟现实工作流程的性能提高三倍等内容。
英伟达表示,RTX 2000 Ada Generation GPU可以加速可视化和结构分析工作负载,提高许多行业的设计精度。例如,使用工业PC的产品设计师和工程师将能够通过极快、逼真的渲染和AI驱动的生成式设计更快地迭代新概念。同时,内容创作者将能够以更快的速度和精度编辑高分辨率的视频和图像,利用人工智能创造更逼真的视觉效果。
此外,英伟达还希望RTX 2000 Ada Generation GPU为边缘实时数据处理提供支持,例如医疗设备和制造设备,以及零售环境中AI驱动的智能。
英伟达列出了其最新GPU平台的许多早期采用者,包括3D产品设计软件制造商达索(Dassault Systèmes SE)。达索公司的图形应用研发总监Olivier Zegdoun表示,这款新芯片对其SOLIDWORKS设计软件的用户特别有益。他表示:“它为设计师和工程师提供了卓越的性能,以加速开发具有完整模型保真度的创新产品体验,即使数据集更大。”
Rob Wolkers Design and Engineering的所有者兼高级工业设计工程师Rob Wolkers强调了该芯片可以在工业设计场景中提供更强大的计算能力。他表示:“RTX 2000 Ada Generation GPU配备了下一代架构和大型帧缓冲区,提高了日常工业设计和工程工作流程的工作效率,使我能够以全保真度处理大型数据集,并以3倍的速度生成具有更多照明和反射场景的渲染。”
英伟达表示,RTX 2000 Ada Generation GPU将与最新的RTX Enterprise Driver一起推出,后者包含了一系列旨在增强图形工作流程的功能。例如,Video TrueHDR是针对标准动态范围和高动态范围视频的一种新的色调映射功能,可为Chrome和Edge等Web浏览器中查看的内容提供更宽广的色彩范围和更高的亮度。该驱动还增加了对Video Super Resolution和TrueHDR的支持,使低质量视频能够增强并升级到HDR。
该驱动还包含了TensorRT-LLM,这是一个开源库,可优化和加速大型语言模型的推理性能,并具备通过执行间接扩展应用程序编程接口将某些任务从中央处理单元卸载到GPU的能力。
英伟达表示,RTX 200 Ada现已通过其全球分销合作伙伴供应,并将于4月集成到戴尔、惠普和联想的工作站中。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。