该公司的首席财务官在纳斯达克投资者大会上畅谈GPU 发展、战略和市场动态
作者:Dan Robinson
更新时间:世界协调时2024年6月17日 星期一15:30
是当下的热门话题,但是AMD的首席财务官认为,数据中心仍然是这家芯片制造商的主要利润引擎,CPU内核仍然是许多工作负载的关键。
在上周于伦敦举行的纳斯达克投资者大会上,AMD的胡锦(Jean Hu)回答了分析师关于该公司GPU 路线图、AI PC等方面的问题。
当被问及 AMD 的毛利率以及AI PC或其他哪些业务领域是否会产生最大影响时,胡锦表示,她认为影响最大的仍将是数据中心业务。
在谈到一季度时,她表示:“数据中心的增长速度比我们其他业务快得多。尽管嵌入式业务方面遇到了逆风,但我们的毛利率还是提高了”。
她补充表示,这一态势将在2024年下半年延续,“毛利率提高的主要驱动力仍然是数据中心,我认为明年的情况也差不多会是这样”。
不过,由于AI PC是一个热门话题,胡锦热情提醒大家注意AMD本月在Computex上发布的Ryzen AI 300系列笔记本电脑平台,该平台配备了备受赞誉的50 TOPS神经处理器,以及用于台式机的Ryzen 9000系列芯片。
围绕着AI的话题,胡锦还谈到了AMD 即将推出的GPU加速器 MI325,该产品也在Computex上发布,将配备288 GB HBM3E内存,“内存容量和带宽显著优于我们的竞争对手”,这里的竞争对手指的是英伟达目前的产品线。
胡锦表示:“明年,我们将推出MI350,它基于CDNA 4,是一种新的架构,也将配备288 GB HBM3E内存”,她表示其性能将提高35倍,并且与英伟达的Blackwell B200竞争。她还表示,将于2026年面世的MI400将与英伟达计划在同年推出的“Rubin”平台竞争。
在回答有关传统(即非人工智能)服务器的问题时,这位首席财务官说,市场状况“仍然相当模糊”,并指出“去年,我们都知道传统服务器市场实际上出现了下滑”。
胡锦表示,AMD已经凭借第四代Epyc服务器CPU平台开启了发展势头,在第一季度,该公司从竞争对手英特尔手里抢到了33%的市场份额。她表示,“我们实际上已经开始看到更新周期的早期迹象。”
胡锦称,首席信息官们正面临着许多挑战,而AMD最新的服务器平台可以用60%的服务器提供相同数量的计算,这意味着企业可以削减资本支出,而这些服务器的运营成本也将降低40%。
虽然为人工智能配置的服务器占用了大量服务器开支,但胡锦表示,重要的是要记住,其他工作负载仍然至关重要。
她表示:“想想传统的基础应用,ERP系统、数据库和购物网站、Meta、Facebook、Instagram 等所有这些东西,你不需要GPU——CPU在这些基础传统应用中具有最好的总体拥有成本(TCO)。而且这样的应用还在不断增加。”
胡锦在谈到即将推出的配备 Zen 5 内核的 Epyc芯片时表示,“等你拥有我们下一代配备了192个内核的Turin,你就能解决很多通用计算的问题,无论是我们还是我们的竞争对手,内核的数量都在以两位数增长。”
谈及在商用 PC领域与英特尔的业务竞争,胡锦表示,这必须被视为一个与消费系统完全不同的市场,需要采取不同的方法。
她表示:“如果你看看企业端,企业确实需要不同的市场推广。”她解释说,每个组织和首席信息官采购PC的方式都不一样,因此,AMD在过去两年中一直在市场推广方面努力。
胡锦表示:“我们从IBM聘请了新的首席销售官。他们的目标之一就是专注企业市场推广方法,不仅要更多地走出去,还要了解如何解除企业客户。”目前,AMD已经在服务器方面取得了成功,向首席信息官们展示了在总体拥有成本方面的优势,让他们转向选择AMD服务器。
胡锦表示:“PC方面也是一样的,你必须说服企业首席信息官做出改变,才能扩大你的市场份额”,这需要更长的时间。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。