计算机图形芯片制造商Nvidia近日发布第四季度财报,收入、收益和净收入均高于预期水平,使得Nvidia股价在盘后交易中上涨超过8%。
该季度Nvidia的表现超出了华尔街的目标,不过这三大类都出现了同比大幅下滑。该季度Nvidia在不计入股票补偿等特定成本之后的收益为每股88美分,高于分析师普遍预期的81美分。
第四季度Nvidia的收入较上年同期下降21%,至60.5亿美元,但略高于60亿美元的预期水平,净收入下滑53%,至14亿美元。
尽管近几个月半导体行业遭受重创,英特尔和超微半导体等芯片制造商都在苦苦挣扎,但投资者对Nvidia渡过难关的能力更有信心。经济放缓导致Nvidia的个人电脑和其他设备销售陷入停滞,但数据中心业情况不同,其中包括了用于人工智能工作负载的图形处理芯片。
事实上,随着最近ChatGPT等软件引发人们围绕人工智能的热议,Nvidia似乎也从中受益了。Nvidia的GPU是训练和运行机器学习软件的理想选择,这一点也反映在Nvidia的数据中心收入上,这部分收入较上年同期增长11%至36.2亿美元。Nvidia表示,增长主要是因为美国云服务提供商购买了更多产品所推动的。
Moor Insights & Strategy分析师Patrick Moorhead认为,Nvidia的强劲表现主要是因为在人工智能训练方面Nvidia的GPU确实是唯一的选择。他说:“如果你在Nvidia的硬件上进行训练的话,很可能也会在上面运行推理,即使在这个领域有其他更多的选择。”
Nvidia公司首席执行官黄仁勋在与分析师的电话会议中表示,人工智能是推动云客户在Nvidia芯片上投入更多支出的动力之一。他说:“人工智能正处于一个转折点,为在所有行业广泛普及做好了准备。从初创公司到大型企业,我们看到人们对生成式AI的多样化和功能性越来越感兴趣,这引发了全球企业制定和部署AI战略的紧迫感。”
分析师Rob Enderle表示,黄仁勋对于AI和自动驾驶汽车的早期愿景显然让Nvidia从中受益,这一愿景此后也扩展到其他多个不同领域。他解释说,在生成式AI等技术正在掀起颠覆性浪潮之际,Nvidia正在驾驭这股浪潮,而不是被其淹没。
Enderle表示:“显然这要归功于黄仁勋提前几十年预测到了这些需求,然后成功对公司进行定位,让公司以从中受益。我们仍处于这些浪潮的早期阶段,这表明,随着这些技术更积极地进入市场,Nvidia将获得更大的收益。”
数据中心和AI收入的增长帮助Nvidia抵消了游戏业务的急剧下滑,这块业务专注于个人电脑和游戏机的显卡。游戏业务在新冠疫情期间受益于销售额的增长,但随着经济不景气而出现放缓。根据财报显示,该季度游戏收入较去年同期下滑46%,至18.3亿美元,这主要归咎于面向合作伙伴的芯片销售量减少了,因为这些合作伙伴手头上有过多的库存。此外,该季度面向游戏机平台的GPU出货量也有所减少。
Moorhead表示:“游戏业务需要更多的时间来完成从旧卡到新卡的库存再平衡,还需要更多的AAA级游戏来推动第三季度和第四季度销售期的需求。”
其他规模较小的业务则表现喜忧参半。一方面,汽车收入同比飙升135%,收入2.94亿美元。专业可视化业务则收入下滑了65%,仅为2.26亿美元。
展望第一季度,Nvidia预计收入约为65亿美元,高于华尔街预期的63.3亿美元。
Nvidia的股价在今年已经上涨了45%。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。