ZDNet至顶网服务器频道 03月20日 新闻消息:近日,微软在深圳举办的Windows 硬件工程产业创新峰会(WinHEC)上宣布,全新的Windows 10将于今夏全球正式发布。Windows 10的发布将带来一系列软硬件行业的变化,在技术层面不可忽视的一点则是将随Windows 10一同发布的DirectX 12,它将全面解放处理器和显卡的潜能,无论对于游戏开发者还是玩家来说,都将带来革命性的变化,而在这一变化浪潮中,AMD凭借Radeon显卡的技术领先优势,已经取得了先机。
在WinHEC技术分会场,AMD技术专家详细介绍了AMD Radeon显卡在DirectX12时代的领先优势。首先现在的游戏发展遇到了一些瓶颈,比如CPU的性能提升赶不上显卡,老的API阻碍了游戏特效等,迫切需要新的API进一步拓宽发展前景。
随着现在多核处理器早已普及,但CPU与GPU之间的运算效率提升之缓慢让人沮丧,在DirectX 11时代,多核的CPU的低效严重制约着硬件性能发挥,而在DirectX 12中,这一现象得到改变,DirectX 12大提高了多线程效率,微软称DirectX 12对多核心CPU的利用几乎是完美线性增长的。
DirectX 11和DirectX 12中处理器多线程效率提升对比
AMD在DirectX 12中的出色表现得益于DirectX 12对多核CPU多线程处理能力的提升,同时CPU与GPU的交互效率也更高,GPU自身的执行效率也有极大提升。GPU当中负责物理模拟、光照计算以及显存操作的单元,在DirectX 12中可以同时进行,相比DirectX 11中的顺序执行,效率提升明显。
除了多线程效率的大幅度提升,DirectX12还有很多的潜在优势,比如更高的帧速率、更平滑的游戏体验、对GPU硬件的利用更有效率以及减少系统能耗等等:
从下面的测试对比可以看到DirectX12比DirectX11能效比有了飞跃式的提升:
DirectX 12相比DirectX 11多核心能效提升(A10-7850K提升多达469%)
DirectX12在实际游戏中表现如何呢?AMD在WinHEC现场的演示展现了DirectX12游戏性能上的优势。在全新RTS大作《奇点灰烬(Ashes of the Singularity)》的现场演示中,在配备AMD全新FX-8350处理器和AMD Radeon R9 290X显卡的同一系统配置下,基于DirectX 11 运行奇点灰烬游戏和基于DirectX 12 运行,性能差距明显,尤其是当游戏画面和人物复杂性和细节增加的时候,DirectX 11明显出现了卡顿,掉帧40%左右,而运行DirectX12则非常流畅应对自如。
DirectX12 不光对游戏业界、开发者是极大利好,对于游戏玩家来说也将带来很多的好处,比如更高的FPS让游戏更流畅,更好的能效可以让PC系统更省电更安静等等:
从技术角度来看,DirectX 12凭借更低层的API,更高效的CPU多线程效率和GPU管线执行效率,将更好的融合CPU和GPU游戏性能,我们可以明显看到AMD在DirectX 12中的领先优势。现在要做的就是:坐等Windows 10发布吧!当然,想尝鲜的也可以先下载Windows 10 tech preview 9926版本,已经支持DirectX 12了。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。