今天Nvidia公布了第四季度财务业绩,结果再次超出华尔街预期,使其股价在盘后交易中走高。
此外,Nvidia预测当前季度的收入远高于华尔街的预测,突显了科技行业对人工智能看似永无止境的渴望。
该季度Nvidia在不计股票补偿等特定成本情况下的收益为每股5.16美元,轻松超过分析师普遍预期的每股4.64美元,收入惊人地增长了265%,达到221亿美元,超过了206.2亿美元的预期目标,一部分原因是Nvidia公司的“Hopper”图形处理单元(例如H100 GPU)的强劲销售。
总体来看,该季度的净利润为122.9亿美元,较去年同期的14.1亿美元增长769%。
展望当前这个季度,Nvidia预计将实现240亿美元的销售额,而华尔街预测的收入为221.7亿美元。
华尔街再次兴奋不已,一直快速增长的Nvidia股票进一步上涨,盘后交易时段上涨超过7%。
Nvidia已经成为支持AI项目巨大计算能力需求的主要受益者,由于ChatGPT等生成式AI模型掀起的热潮,这些项目如今已经成为几乎每个企业的必备项目。在一次电话会议上,Nvidia公司首席执行官黄仁勋(如图)试图缓解一些投资者和分析师的担忧,即Nvidia公司可能无法满足市场对其GPU的巨大需求,而GPU对于在生产环境中训练AI和驱动工作负载来说至关重要。
黄仁勋坚持认为,2025财年及以后“持续增长的条件非常好”。他解释说,Nvidia相信,由于市场对生成式AI的兴趣高涨,以及全行业从CPU向企业加速器芯片的转变,对Nvidia GPU的需求将继续增长。
Nvidia公司在一份新闻稿中表示,市场对Nvidia技术的需求是由汽车、医疗和金融服务等多个行业的企业软件和消费者互联网应用推动的。
与Nvidia工作负载相关的销售额主要来自Nvidia的数据中心部门,目前该部门占Nvidia收入的大部分。该季度,Nvidia数据中心部门的收入为184亿美元,比去年同期增长409%。在这个细分市场中,一半以上的销售额来自AWS等大型云基础设施提供商。
自从OpenAI在2022年11月推出ChatGPT以来,Nvidia就看到了Alphabet和微软等科技巨头以及Anthropic和Cohere等生成式AI初创公司对Nvidia GPU的巨大需求,这些公司彼此之间相互竞争,纷纷推出越来越强大的、可以执行更多任务的大型语言模型,而生成式AI模型需要大量的计算能力。
例如在上个月,Meta Platforms首席执行官Mark Zuckerberg就透露,该公司打算在今年年底前购买超过35万个Nvidia H100 GPU,这说明Meta将在Nvidia的产品上花费数十亿美元。
在过去的三个季度中,Nvidia的数据中心业务取得了巨大的增长,成为AI计算行业显而易见的市场领导者。
市场对Nvidia数据中心业务的需求使其GPU仍然供不应求,Nvidia首席财务官Colette Kress称情况已经有所改善,不过她坦言,Nvidia仍在努力履行所有客户的订单。
Kress表示:“我们很高兴Hopper架构产品的供应正在改善,市场对Hopper的需求仍然非常强劲。由于需求远远超过供应,我们预计下一代产品的供应将受到限制。”
Third Bridge分析师Lucas Keh表示,美国对中国的限制和市场对供应情况的担忧,仍然是Nvidia增长前景的最大威胁。例如,他表示,台积电目前最先进GPU使用的硅晶圆已接近产能极限。“投资者应该关注Nvidia关于实现供应基础多元化的计划,以及实现该计划的速度有多快。”
与此同时,Nvidia的游戏业务(主要销售笔记本电脑、个人电脑和游戏机的GPU)该季度的收入为28.7亿美元,同比增长56%。在AI热潮兴起之前,该部门曾经是Nvidia最大的收入来源。
此外,Nvidia汽车部门的收入较去年同期下降4%至2.81亿美元,而“OEM和其他”部门的收入(包括用于挖掘加密货币的芯片)增长了7%,达到9000万美元。最后,专业应用部门销售额增长了105%,达到4.63亿美元。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。