2025 年 2月 28 日 —— AMD(NASDAQ: AMD)今日正式发布备受期待的 AMD RDNA™ 4 图形架构,并推出Radeon™ RX 9000 系列的全新力作AMD Radeon™ RX 9070 XT 和 RX 9070显卡。全新显卡配备 16GB 显存,为高质量游戏图形设计了广泛改进,包括重新设计的光线追踪加速器和强大的AI加速器,可实现超快、尖端的性能和突破性的游戏体验。
在中国珠海的发布会上,AMD高级副总裁,计算及图形业务集团总经理Jack Huynh主持了该场新产品发布会,并由 AMDGPU技术与工程研发高级副总裁David Wang及锐龙CPU及Radeon显卡高级总监王岚志共同参与。此外,AMD 还与客户及合作伙伴共同庆祝了新品发布,AMD 执行副总裁及首席销售官 Darren Grasby、AMD高级副总裁、大中华区总裁潘晓明 以及包括华擎、华硕、技嘉、蓝宝石、撼讯、瀚铠、盈通和讯景在内的众多合作伙伴共同出席了此次盛会。
“今天我们很高兴推出AMD Radeon™RX 9000系列,这是我们新一代AMD RDNA™4架构在图形性能方面的重大飞跃。这些GPU旨在满足当今游戏的需求,为世界各地的玩家提供发烧级的游戏体验,同时准备好支持未来的创新。通过先进的AI和光线追踪加速器的强大功能,我们不仅提高了帧率,而且从根本上增强了游戏体验。Radeon RX 9000系列以具有竞争力的价格提供了令人难以置信的性能、AI功能和下一代显示器支持,为希望升级系统的游戏玩家带来了非凡的价值。” David McAfee说。
RX 9000系列采用新的AMD RDNA™4架构,为游戏玩家和创作者提供了性能、视觉效果和价值的强大融合。这些先进的显卡通过第三代光线追踪技术重新定义了令人难以置信的快速、高分辨率游戏,实现了逼真的照明、阴影和反射,提供了身临其境的游戏体验,同时集成了一套AMD功能,最大限度地提高了硬件利用率。除了游戏之外,RX 9000系列GPU还利用了新的第二代AI加速器,每个AI加速器的INT8吞吐量高达8倍(用于稀疏矩阵),以增强创造性应用程序并有效运行生成式AI应用程序(与RDNA 3相比)。RX 9000系列GPU还采用了新设计的AMD Radiance Display™引擎和增强媒体引擎,以提供广泛的显示支持,并提高录制和流媒体的质量。
面向当今和未来的游戏
Radeon RX 9000系列解锁了新的性能水平,同时提供了一套新的和增强的功能,改善了游戏体验。Radeon RX 9070系列提供16GB GDDR6内存,允许玩家在最高设置下呈现当今和未来最激动人心的游戏。与上一代RX 7900 GRE相比,在1440p分辨率下玩游戏时,最新的AMD Radeon RX 9070平均性能提高了20%以上,而AMD Radeon RX 9070 XT的平均性能则提高了40%以上。
这两款显卡都为希望系统经得起未来考验的游戏玩家提供了智能升级,并提供了一系列新一代功能,使他们的游戏体验在未来几年内保持新鲜感。主要特点包括:
机器学习驱动的AMD FidelityFX™超级分辨率锐画技术4 (AMD FSR 4)升级
AMD Radeon RX 9000系列产品规格
型号 |
计算单元 |
GDDR6 |
游戏频率(GHz) |
加速频率(GHz) |
显存位宽 |
高速缓存 |
TBP |
建议零售价 人民币-含税价格 |
AMD Radeon RX 9070 XT
|
64 |
16 GB |
2.4 |
最高3.0 |
256-bit |
64 MB |
304W |
¥4999 |
AMD Radeon RX 9070 |
56 |
16 GB |
2.1 |
最高2.5 |
256-bit |
64 MB |
220W |
¥4499 |
定价和上市时间
AMD Radeon RX 9000系列显卡预计将于2025年3月6日起由华擎、华硕、技嘉、撼讯、蓝宝石、瀚铠、讯景和盈通等领先的主板合作伙伴提供。AMD Radeon RX 9070 XT的建议零售价为人民币4999元,AMD Radeon RX 9070的建议零售价为人民币4499元。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。