Nvidia今天发布第三季度财报,不仅收益和收入双双超出预期,而且给出了强劲的下一季度指引。
但是Nvidia股价在盘后交易中仍下跌超过2%,原因是投资者们注意到Nvidia的数据中心业务收入预计会在目前这个季度出现同比下滑。
该季度Nvidia在不计如股票薪酬等特定成本的每股利润为2.91美元,收入创下新高达到47.3亿美元,同比增长57%,此前分析师预期的每股利润为2.58美元,收入为44.2亿美元。
华尔街一直期望该季度Nvidia大展拳脚,结果的确如此,除收入之外Nvidia还创下了该季度利润的新高。
Nvidia将这主要归因于计算和网络业务的强劲表现,收入跃升至19.4亿美元,同比增长146%。此外GPU业务也有出色表现,收入增长25%,达到27.9亿美元。
除了这两个细分业务的收入之外,Nvidia公布了细分市场中具体产品的情况。
Nvidia首席执行官黄仁勋在公布上个季度财报时表示,Nvidia 预计下半年将会有强劲表现,因为新系列Ampere GPU将会引发市场的“浓厚兴趣”,该系列其中一款产品GeForce RTX 3080在9月上市时立刻就售罄了。
这些出色的销售成绩推动Nvidia游戏业务收入达到22.7亿美元,同比增长37%,Nvidia表示,这主要是Nvidia GPU产品面向计算机和游戏平台市场的销售创下新高。
此外,Nvidia的游戏业务和数据中心业务都从疫情中受益,因为有越来越多的用户隔离在家选择在线办公和玩视频游戏。
黄仁勋在今天的一份声明中表示:“Nvidia正在全力以赴,在游戏、数据中心和整个领域实现创纪录的收入。Nvidia新款GeForce RTX GPU让我们实现了有史以来最大的飞跃,市场需求是压倒性的。”
Moor Insights&Strategy分析师Patrick Moorhead对此表示认同,他说,Nvidia的新款GPU是一个非常有竞争力的产品,同时他补充说,“我将密切关注下个季度市场竞争给Nvidia带来的影响和改善,因为众多主流游戏即将发布,例如新款《使命召唤:黑色行动冷战》。”
上个季度Nvidia财报的最大惊喜是数据中心收入首次超过游戏收入,虽然这并未在该季度发生,数据中心业务销售额为19亿美元,但仍然同比增长了162%。Nvidia表示,今年初完成对Mellanox的收购,贡献了其中的13%。
不过Nvidia在分析师电话会上给投资者们带来了一些意外的消息,Nvidia高管们表示,下一季度数据中心收入将有所下降,部分原因是一家不愿透露姓名的中国客户将不再购买Mellanox的网络产品。
但是Nvidia数据中心业务的长期前景仍然是强劲的。该季度中,Nvidia宣布将与VMware 合作推出一款新的用于处理人工智能工作负载的平台。
Moorhead指出,对于Nvidia来说人工智能已经是一个增长非常强劲的领域,因此很多人认为Nvidia与VMware的合作进一步推动该领域的光明前景。他说:“收购Mellanox给Nvidia的数据中心业务带来显著增长,但更多的增长是来自于机器学习产品的有机增长。”
Nvidia还表示,计划以400亿美元的价格从软银集团(SoftBank Group)手中收购半导体厂商Arm,很多人认为这一收购将会带来重大的产业影响。这非常重要,因为Arm专门提供用于移动设备的低功耗芯片,而这正是Nvidia的薄弱领域,而Arm同时也在为Nvidia的很多竞争对手提供技术。Nvidia今天表示,预计将在明年第一季度完成收购。
Nvidia预计第四季度的收入约为48亿美元,远超华尔街预期的44.2亿美元。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。