戴尔今天给股东们带来了一则可喜的好消息,根据财报显示,2024财年第四季度戴尔的收益意外增长,超出了分析师的收入预期。
戴尔重申了之前的预测,预计收入将在8月份开始的2025财年下半年恢复增长,这使得戴尔公司股价在盘后上涨超过16%。
在截至2月2日的这个季度,戴尔调整后的收益较去年同期增长22%,至每股2.20美元,超出分析师预期的下跌至1.72美元。该季度收入下降11%至223.2亿美元,但仍超出221.7亿美元的预期。戴尔的收入在过去六个季度一直是连续下滑。
全年来看,戴尔的营业收入为52亿美元,运营现金流为87亿美元。毛利率从去年同期的23%增长至23.8%,而运营费用下降了近10亿美元。
乐观的前景
戴尔公司高管们在电话会议上对分析师表示,繁荣即将来临。他们特别看好戴尔支持AI的PC和服务器产品线,称戴尔致力于拥有业内最广泛的AI PC产品组合。
戴尔公司首席运营官Jeff Clarke(如图)表示,AI优化型服务器的订单环比增长了40%,年底积压订单达到29亿美元。他说:“我们正在推动很大一部分的AI服务器增长,而且我们对2025年持乐观态度,预计增长将恢复到高于我们长期框架的水平。”
他断言,AI服务器的增长也将提振戴尔的存储业务。他说:“大量训练是要使用丰富的数据集进行的,随着我们深入企业,这为我们提供了越来越多的存储机会。我们提高了延迟敏感型工作负载的性能,这和客户从训练转向推理时的企业需求是一致的。”
NAND Research首席分析师、创始合伙人Steve McDowell也从存储业绩中看到了好消息。他说:“在经历了几个低迷的季度之后,戴尔的存储业务显示出稳健的增长,一部分原因是一些期待已久的产品更新,但新AI应用的吸引力肯定也有所助力。”
企业销售反弹
戴尔主要为企业客户提供服务的基础设施解决方案集团在第四季度的收入为93亿美元,同比减少6%,但环比增长10%。戴尔表示,服务器和网络的增长主要是由AI优化型服务器推动的。存储收入环比增长16%。该集团全年收入较去年同期减少12%至339亿美元。
戴尔销售PC和最终用户设备的客户端解决方案集团该季度收入为117亿美元,比上一季度减少5%,比去年同期减少12%。
戴尔预计第一季度营收在210亿美元至220亿美元之间,增长3%。Clarke表示:“该季度五个季度的管道有所增长;我们预计第一季度的出货量将超过第四季度的出货量。过去三个季度服务器数量环比增长,管道也在持续改善。”
在与分析师的电话会议上,戴尔公司的高管们强调了环比而不是同比,以突出他们所说的稳定恢复增长。McDowell认为,这是合适的。
“戴尔基础设施解决方案集团的整体收入数据出现同比下降,但考虑到我们所处的宏观环境,这确实是不太恰当的比较。我们需要从环比的角度来看,环比增长了10%,你还必须哪些方面实现了增长,也就是高价的AI服务器。”
基本面传递的声音
theCUBE Research首席分析师Dave Vellante认为:“戴尔没有增长。这是个坏消息,但也是意料之中的,”从好的方面来看,“戴尔今年现金流强劲,良好的流动性、运营效率、现金流和资本配置,是戴尔股票表现如此出色的原因。”
Vellante表示,支出趋势表明,今年下半年可能会恢复增长,戴尔可能会从与Nvidia公司合作打造的一系列服务器中获得提振。他说:“Nvidia通过这些系统获得了大部分利润,但同时,向AI服务器进行更有意义的混合转型将对戴尔未来的利润产生真正的积极影响。”
McDowell表示,戴尔和联想的财报推翻了关于AI模型训练将全部在云端进行的传统观点。他说:“戴尔强调,AI优化服务器订单环比增长了40%,这是一个很大的数字。戴尔的大幅增长表明,GPU供应限制可能正在缓解,这对整个行业来说是件好事。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。