美国加利福尼亚州圣克拉拉——太平洋时间2019年8月15日——NVIDIA公司宣布,截至2019年7月28日的第二季度收入为25.8亿美元,去年同期为31.2亿美元,上一季度为22.2亿美元。
季度GAAP摊薄每股收益为0.90美元,去年同期为1.76美元,上一季度为0.64美元。季度非GAAP摊薄每股收益为1.24美元,去年同期为1.94美元,上一季度为0.88美元。
NVIDIA创始人兼首席执行官黄仁勋表示:“我们的各个平台实现了连续增长。实时光线追踪是十年来在图形计算领域最重要的技术革新。在NVIDIA RTX的引领下,该技术的采用已经到达爆发点。”
他指出,“随着行业竞赛,NVIDIA加速计算的势头继续增强,以实现人工智能、会话AI以及自动驾驶车辆、派送机器人等自主系统的下一个前沿发展。”
NVIDIA将于2019年9月20日向2019年8月29日在册的所有股东支付每股0.16美元的下一季度现金红利。公司首先将现金余额用于对Mellanox的收购。公司将在Mellanox收购完成后重新回购其股票。该收购正按预期开展,现已进入监管审批流程。NVIDIA将继续努力在本日历年结束前完成该交易。
NVIDIA对2020财年第三季度的展望:
收入预计将达到29.0亿美元,上下浮动2%。
GAAP和非GAAP毛利率预计分别为62.0%和62.5%,分别上下浮动50个基准点。
GAAP和非GAAP运营费用预计分别约为9.80亿美元和7.65亿美元。
GAAP和非GAAP其他收入和费用预计为约2500万美元。
GAAP和非GAAP税率预计均为10%,上下浮动1%,不包括任何离散项。GAAP离散项目包括与股票薪酬相关的超额税收优惠或不足,预计会导致季度性波动。
亮点
自2020财年第一季度以来,NVIDIA在以下领域取得了进步:
数据中心
宣布在语言理解方面取得突破,使企业能够实现实时会话AI,并在BERT AI语言模型的运行训练和推理上取得创纪录的性能表现。
宣布NVIDIA DGX SuperPOD在全球超级计算机速度排名中跻身第22位,它为公司的自动驾驶开发项目提供AI基础架构,其参考架构已通过合作伙伴上市。
在最新的MLPerf基准测试中打破八项AI训练性能纪录。
宣布支持Arm CPU,为构建高能效的AI赋力的百亿亿次级超级计算机提供新途径。
游戏业
推出GeForce RTX 2060 SUPER、GeForce RTX 2070 SUPER和GeForce RTX 2080 SUPER,扩大其GPU阵容,提供一流的游戏性能和实时光线追踪。
宣布《使命召唤:现代战争》、《赛博朋克2077》、《看门狗:军团》、《德军总部:新血脉》等全新重磅游戏都将采用光线追踪技术,推动RTX技术的发展势头。
推出面向全球数千万线上和工作室创意工作的NVIDIA Studio平台,并推出由GeForce RTX和Quadro RTX GPU赋力的27款全新RTX Studio笔记本电脑。
宣布主要制造商发布超过25款搭载NVIDIA Turing GPU的游戏笔记本电脑,使Turing笔记本电脑型号超过100款。
专业视觉
宣布在推出NVIDIA RTX光线追踪的一年后,该技术已成为产品设计、架构、视效和科学可视化等领域的全新行业标准,支持40多款主要应用程序,其中8款在SIGGRAPH上推出。
和全球系统供应商一同推出部署全系列基于Turing架构的Quadro GPU的移动工作站。
汽车
沃尔沃集团宣布正使用NVIDIA DRIVE端到端自动驾驶平台来训练数据中心的网络,对它们进行模拟测试并部署到自动驾驶车辆中,瞄准货物运输、垃圾收集与回收、公共运输、建筑、开采、林业等领域。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。