AI芯片制造商Nvidia公布了第三季度,结果超出了华尔街的预期水平,但是股价在今天小幅下跌了1%,因为高管们警告称,新的出口限制将在下一季度产生负面影响,可能会影响面向中国客户的销售。
Nvidia公司首席财务官Colette Kress在致股东的信中表示:“2024财年第四季度,这些目标地区的销售额将大幅下降,但我们相信其他地区的强劲增长将足以抵消这一下降幅度。”
Kress在与分析师的电话会议上进一步阐述了Nvidia对新限制措施的回应。她表示,Nvidia正在与中国和中东的一些重要客户合作,以获得出口许可,从而能够运输一些高性能产品。她表示,Nvidia还致力于开发符合美国政府最新政策的新数据中心硬件,并且无需许可证即可运送到这些地区。
在此之前,Nvidia发布了一份关于市场对AI硬件巨大需求的井喷报告。Nvidia公布,在不计股票报酬等特定成本的收益为每股4.02美金,远高于华尔街预期的每股3.37美金。收入增长了206%,达到182亿美金,远超分析师预测的161.8亿美金。
Nvidia还报告称,净利润为92.4亿美金,而去年同期仅为6.8亿美金。
数据中心业务是Nvidia增长的一个最重要的动力,该季度数据中心业务收入145.1亿美金,增长279%,超出市场普遍预期的129.7亿美金,其中一半以上收入来自AWS和Google Cloud等云基础设施提供商,其余大部分来自大型企业。
Kress向分析师表示,Nvidia看到了云提供商的大量采用,这些提供商使客户能够租用GPU的访问权限,主要用于支持AI和其他高性能计算工作负载。
Nvidia公司游戏部门曾经是Nvidia最大的业务部门,该部门的收入增长了28.6亿美金,同比增长81%,高于市场普遍预期的26.8亿美金。就在两年前,游戏业务还是Nvidia两大主要业务中较大的一个,该部门主要是面向视频游戏玩家销售GPU。
然而,随着ChatGPT等生成式AI模型的兴起,以及来自希望利用这些模型的企业前所未有的需求,使得Nvidia根本无法满足客户对更多GPU的要求。数据中心领域的惊人增长反映了这一现实。
数据中心领域可能还会有更多的增长,因为Kress向分析师表示,Nvidia的GPU很快也将用于Oracle的云基础设施上。Kress表示,Nvidia还在努力提高供应能力,以便能够向客户出货更多芯片。
Nvidia确实面临一些挑战,出口限制可能会限制GPU在中国的销售,以及来自AMD等公司的竞争压力,今年早些时候AMD发布了一款与Nvidia竞争的AI加速器芯片。尽管如此,华尔街投资者还是被乐观情绪所笼罩,Nvidia的股价在今天财报电话会议前创下了历史新高。
Pund-IT分析师Charles King表示,很难不对Nvidia的表现进行夸奖或挑剔。他指出,自2022年6月以来,Nvidia的股价已经上涨了400%,令人印象深刻。不过他表示,投资者可能会提出关于Nvidia公司的两个问题。
King表示:“首先第一个问题是,如果AI以某种方式失去光彩,Nvidia及其管理层是否能够成功地再次推动公司转型。第二个问题是,如果Nvidia GPU的任何替代品取得了成功,Nvidia将如何发展。尽管如此,这两种情况的前景都不太可能淹没今晚Nvidia打开香槟的声音。”
事实上,如果说有什么不同的话,那就是Nvidia很可能会继续向前挺进。在目前这个季度,Nvidia宣布了一系列积极的更新,推出了新的HGX H200计算平台,该平台提供了先进的内存来处理AI工作负载,这是一个明确的迹象,表明Nvidia正在尽一切努力保持相对竞争对手的领先地位。此外,Nvidia还公布了下一代以太网技术Spectrum-X,以及基于微软Azure云平台的新型生成式AI。
关于指引,Nvidia预计收入将达到约200亿美金,增长231%,远高于华尔街对第四季度收入163.8亿美金的预测。
排除今天的小幅下跌,Nvidia股价今年迄今为止已经上涨了241%,远远领先于更广泛的标准普尔500指数今年18%的涨幅。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。