光线追踪技术已经不算新技术了,在PC上应用多年,但要把光线追踪技术应用到移动设备,比如手机和游戏机存在挑战,特别还要具有桌面级的体验就更好。日前, Imagination Technologies 宣布推出旗舰款图形处理器(GPU)知识产权(IP)产品IMG CXT,同时其PowerVR Photon光线追踪架构也随该IP首次亮相。光线追踪技术也是其最大的一个亮点。
通过增加Photon硬件光线追踪功能,IMG CXT实现了GPU IP的又一次重大飞跃,能够为游戏和其他图形处理应用场景提供令人难以置信的性能。Photon 是业界最先进的光线追踪架构,可以为移动和嵌入式应用带来桌面级质量的视觉效果,并已在多个市场中进行了授权。
光线追踪是一项改变游戏规则的技术,可以使图形真实感达到跃升式变化。通过模拟真实世界中光线的表现,它可以创造出与现实生活几乎无异的三维(3D)场景。由于其计算的复杂性,光线追踪不久前也只是应用在台式机和游戏机上,但凭借IMG CXT革命性的Photon架构,移动开发者和游戏玩家现在也能够利用这种令人难以置信的渲染技术和全面的硬件加速功能。Photon为那些最令人兴奋的应用提供了光线追踪功能,包括移动、游戏、增强现实(AR)、桌面、数据中心、云和下一代汽车等应用。
Photon架构代表了十年来推动光线追踪在低功耗设备上应用的发展成果,并且在视觉效果可能性方面,为智能手机、平板电脑、笔记本电脑和汽车解决方案带来了重要的飞跃式进展。Photon架构的主要特点是RAC,这是一种新的低功耗专用硬件GPU组件,相比效率较低的 RTLS 2级架构,它可以加速和卸载更多来自着色器内核的光线追踪计算。
光线追踪可以在不同的性能和效率等级下执行,为了明确这一点,Imagination 建立了光线追踪等级系统(RTLS),确定了从0级(Level 0)到5级(Level 5)共6个等级的光线追踪功能的要求。IMG CXT采用的Photon架构处于RTLS的4级(Level 4),这使其成为当前可用的最先进的光线追踪技术,提升了光线追踪的性能和效率,从而可为移动游戏玩家和开发者提供桌面级质量的体验。
IMG CXT-48-1536 RT3 内核具有三个光线加速集群(RAC),可提供总体高达1.3 GRay/s的性能。这可以在移动设备的功耗预算下,以高帧率提供逼真的光线追踪阴影、反射、全局照明和环境光遮蔽效果。
IMG CXT在光栅化图形处理性能方面也向前迈出了重要一步,与Imagination的上一代GPU IP相比,其计算、纹理和几何性能都提高了50%。它的低功耗超标量(superscalar)架构可在低时钟频率下提供高性能,从而实现卓越的帧率功耗比(FPS/W)效率,同时 Imagination图像压缩(IMGIC)技术可以大幅降低带宽需求。
值得一提的是,Imagination也将Photon架构应用于个人计算机(PC)和数据中心。实际上,得益于Imagination的多核技术,Photon架构可以扩展应用于云、数据中心和PC市场。这可以实现高达 9 TFLOPS(每秒万亿次浮点运算)的FP32光栅化性能和超过7.8 GRay/s的光线追踪性能,同时能够提供比当今的 RTLS 2 级或3级光线追踪解决方案高2.5倍的功耗效率。IMG CXT也非常适合于超高品质的汽车人机界面(HMI)平台。它可以实现环绕视图中逼真的车辆图像,卫星导航中密集城市区域的展示,以及具备混合现实功能的抬头显示器(HUD)、数字车速表和其他信息显示器。它还可以在车上人员等待车辆充电时提供优质的车内游戏和娱乐体验。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。