今天Nvidia公布了第四季度财务业绩,结果再次超出华尔街预期,使其股价在盘后交易中走高。
此外,Nvidia预测当前季度的收入远高于华尔街的预测,突显了科技行业对人工智能看似永无止境的渴望。
该季度Nvidia在不计股票补偿等特定成本情况下的收益为每股5.16美元,轻松超过分析师普遍预期的每股4.64美元,收入惊人地增长了265%,达到221亿美元,超过了206.2亿美元的预期目标,一部分原因是Nvidia公司的“Hopper”图形处理单元(例如H100 GPU)的强劲销售。
总体来看,该季度的净利润为122.9亿美元,较去年同期的14.1亿美元增长769%。
展望当前这个季度,Nvidia预计将实现240亿美元的销售额,而华尔街预测的收入为221.7亿美元。
华尔街再次兴奋不已,一直快速增长的Nvidia股票进一步上涨,盘后交易时段上涨超过7%。
Nvidia已经成为支持AI项目巨大计算能力需求的主要受益者,由于ChatGPT等生成式AI模型掀起的热潮,这些项目如今已经成为几乎每个企业的必备项目。在一次电话会议上,Nvidia公司首席执行官黄仁勋(如图)试图缓解一些投资者和分析师的担忧,即Nvidia公司可能无法满足市场对其GPU的巨大需求,而GPU对于在生产环境中训练AI和驱动工作负载来说至关重要。
黄仁勋坚持认为,2025财年及以后“持续增长的条件非常好”。他解释说,Nvidia相信,由于市场对生成式AI的兴趣高涨,以及全行业从CPU向企业加速器芯片的转变,对Nvidia GPU的需求将继续增长。
Nvidia公司在一份新闻稿中表示,市场对Nvidia技术的需求是由汽车、医疗和金融服务等多个行业的企业软件和消费者互联网应用推动的。
与Nvidia工作负载相关的销售额主要来自Nvidia的数据中心部门,目前该部门占Nvidia收入的大部分。该季度,Nvidia数据中心部门的收入为184亿美元,比去年同期增长409%。在这个细分市场中,一半以上的销售额来自AWS等大型云基础设施提供商。
自从OpenAI在2022年11月推出ChatGPT以来,Nvidia就看到了Alphabet和微软等科技巨头以及Anthropic和Cohere等生成式AI初创公司对Nvidia GPU的巨大需求,这些公司彼此之间相互竞争,纷纷推出越来越强大的、可以执行更多任务的大型语言模型,而生成式AI模型需要大量的计算能力。
例如在上个月,Meta Platforms首席执行官Mark Zuckerberg就透露,该公司打算在今年年底前购买超过35万个Nvidia H100 GPU,这说明Meta将在Nvidia的产品上花费数十亿美元。
在过去的三个季度中,Nvidia的数据中心业务取得了巨大的增长,成为AI计算行业显而易见的市场领导者。
市场对Nvidia数据中心业务的需求使其GPU仍然供不应求,Nvidia首席财务官Colette Kress称情况已经有所改善,不过她坦言,Nvidia仍在努力履行所有客户的订单。
Kress表示:“我们很高兴Hopper架构产品的供应正在改善,市场对Hopper的需求仍然非常强劲。由于需求远远超过供应,我们预计下一代产品的供应将受到限制。”
Third Bridge分析师Lucas Keh表示,美国对中国的限制和市场对供应情况的担忧,仍然是Nvidia增长前景的最大威胁。例如,他表示,台积电目前最先进GPU使用的硅晶圆已接近产能极限。“投资者应该关注Nvidia关于实现供应基础多元化的计划,以及实现该计划的速度有多快。”
与此同时,Nvidia的游戏业务(主要销售笔记本电脑、个人电脑和游戏机的GPU)该季度的收入为28.7亿美元,同比增长56%。在AI热潮兴起之前,该部门曾经是Nvidia最大的收入来源。
此外,Nvidia汽车部门的收入较去年同期下降4%至2.81亿美元,而“OEM和其他”部门的收入(包括用于挖掘加密货币的芯片)增长了7%,达到9000万美元。最后,专业应用部门销售额增长了105%,达到4.63亿美元。
好文章,需要你的鼓励
从浙江安吉的桌椅,到广东佛山的沙发床垫、河南洛阳的钢制家具,再到福建福州的竹藤制品,中国各大高度专业化的家具产业带,都在不约而同地探索各自的数字化出海路径。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。