Nvidia今天发布第二季度财报,结果表现强劲,而这主要得益于Nvidia数据中心业务该季度收入创下新高,以及游戏业务继续保持突出的表现。
该季度Nvidia在不计入股票补偿等特定成本的利润为每股2.18美元,收入为38.7亿美元,高于此前华尔街预期的1.97美元每股利润以及36.5亿美元收入。
该季度Nvidia数据中心收入首次超越游戏收入,达到17.5亿美元,增长了167%,这部分业务主要涉及向AWS、微软、谷歌等云计算提供商提供芯片,得到了Mellanox的巨大贡献。此前Nvidia以69亿美元的价格收购了Mellanox,后者主要生产以太网交换机和其他网络设备,这一收购在该季度正式完成,占到Nvidia总收入的14%。
Constellation Research分析师Holger Mueller表示:“对于Nvidia来说这是一个历史性的季度,数据中心收入首次超过了游戏收入。当然,这很大程度上得益于收购了Mellanox,但是Nvidia自身的业务也得到了有机的发展,因为收入增幅是要高于去年还没有收购Mellanox时的水平。”
Pund-IT分析师Charles King认为,Nvidia的确在过去5年里一直稳步扩大着自己的覆盖面和作为一家数据中心厂商的声誉,这表明了Nvidia正在积极地从传统游戏和可视化市场扩展到更大的范围。
King说:“Nvidia收购Mellanox显然是为了加快这些举措,而且从今天公布的财报中可以看到,Nvidia显然已经做到了。”
该季度Nvidia的游戏业务收入为16.5亿美元,同比增长26%,因为疫情期间人们有更多的时间花在玩游戏上。
Nvidia表示,该季度已经开始全面生产最新的A100,这是迄今为止功能最强大的芯片,目前该芯片已经开始向云提供商出售,很快也会提供给游戏机制造商。Nvidia将于9月1日举行一次关于GeForce游戏品牌的线上活动,届时Nvidia将发布基于该芯片的一款游戏卡新品。
微软和索尼都计划在未来几个月内推出采用Nvidia硬件的游戏机新版本。
Nvidia首席执行官黄仁勋在财报电话会议上表示:“我们预计游戏业务下半年表现会非常强劲,我认为这很可能是有史以来游戏业务表现最好的季度之一。”
Moor Insights&Strategy分析师Patrick Moorhead认为,由于该市场存在的季节性因素,预计下个季度Nvidia的游戏收入将高于数据中心收入。
“Nvidia的执行力良好,而且在成长型市场中有非常强的竞争力,确实是全力以赴。”
在疫情的影响下,Nvidia规模最小的两个业务都在该季度出现了下滑,其中,专业可视化业务收入为2.03亿美元,较去年同期减少30%,汽车业务收入为1.11亿美元,减少47%。Nvidia表示,这是由于企业客户推迟了工作站的购买,而汽车生产也低于通常水平。
Nvidia表示,预计第三季度收入为44亿美元,远超华尔街预期的39.7亿美元。
King表示:“该季度进展情况良好,再加上疫情将持续到2021年的可能性,Nvidia预期看涨似乎是合理的。”
黄仁勋还提到了Nvidia与芯片架构设计公司ARM的关系,称Nvidia有意收购ARM。
“我们一直是ARM的长期合作伙伴,我们的很多应用都采用了ARM,无论是自动驾驶还是机器人应用,以及我们的Nintendo Switch控制台业务。最近,我们向ARM中引入了Cuda和加速计算,因此我们正在与Arm团队展开紧密合作。ARM很出色,ARM架构的特别之处在于,你非常了解它具有很高的能源效率,并且可以随着时间的推移扩展至给长高的性能水平。”
Nvidia股价在盘后交易中下滑了2%。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。