IBM今天公布财报结果显示,第一季度净收入超出此前预期,但季度收入下滑幅度大于预期令投资者感到失望,导致股价在盘后交易中下跌超过3%。
IBM将这归咎于亚太地区的决策延迟,从而不再重点谈及增长,而是转向关注盈利指标。此外,IBM在全年指引方面保持着每股13.90美元的水平。
IBM首席财务官James Kavanaugh表示,IBM这个季度表现“强劲”,但他也承认存在一些失误。
“该季度我们有很好的通路,而且根据客户的采购决策我们没有执行。不过我们有一个不错的开端,让我们有信心保持预期指引的水平。”IBM对Red Hat的收购有望在第二季度完成,但这部分并不包括在全年指引中。
该季度,IBM调整后季度收益为每股2.25美元,略高于此前预期的2.22美元。收入同比减少5%至181.8亿美元,低于市场预期的184.7亿美元。
IBM几乎每个主要的业务板块都在下滑或者几乎没有增长,包括认知解决方案(按固定汇率计算增长2%)、全球商业服务(增长4%)、全球技术服务(下滑3%)和系统业务(下滑9%),唯一的例外是云平台业务,虽然IBM拒绝提供这部分业务的季度数据,但透露称,云业务现在年收入规模约为195亿美元,在过去12个月中增长了10%。
尽管这一增幅仍然落后于一些最大型的公有云厂商,但195亿美元的数字“与Ginni Rometty担任IBM首席执行官时云业务在IBM所有收入中所占的4%的份额相比,还是有很大变化的,” Pund-IT总裁兼首席执行官Charles King这样表示。
IBM很久以前就不再试图在公有云市场中取胜,而是把精力集中在混合云、多云以及大约80%尚未转向云的企业工作负载。King表示:“IBM拥有比许多竞争对手更丰富的经验和更深度的多云产品。”
Z系列大型机产品线收入下滑38%显然给IBM的系统收入带来了一定的影响,而且该系列产品已经接近两年的产品周期。这部分下滑一定程度上被IBM Power系统产品线连续第六个季度的增长抵消了,但IBM没有提供这方面的更多细节。
IBM在经历了两年多连续几个季度下滑之后连续三个季度收入增长,而这次收入再次下滑,不过IBM并没有一味追求延续高增长的神话。Kavanaugh表示:“我们围绕毛利、利润和现金对业务进行管理。”
在这方面,IBM基本上是符合预期的。毛利率增长了1%,其中GBS作为IBM利润率最低的业务,其利润率增长了2.8%,税前营业利润率增长了3.2%。
Kavanaugh说:“这是多年来我们实现的最强劲的毛利率。我们的基础业务模式在关键高价值领域增长方面发挥着作用,无论是云、安全、数字还是数据/人工智能,而且我们还有强大的运营杠杆。”
IBM此前一直低估了低利润和原始设备制造商业务,而更青睐于那些更有利可图的业务。 Kavanaugh表示,IBM将加大对服务业务的投入,特别是GTS,这部分涉及90%的企业合同。
尽管季度数据不尽如人意,但IBM表示其服务通路是不错的。“IBM尚未完成交付的服务达到1120亿美元,其中超过30%是云计算相关的,对未来来说这是一个好兆头。”
与此前公布的收益报告相比,IBM显然没有将所谓“战略紧迫性”业务或者预计将重塑IBM的高增长业务纳入财报中。Kavanaugh说,分拆出这些数据没有什么必要,因为这已经占到了IBM 2018年收入的一半以上。“我们从投资者那里得到的反馈是,战略紧迫性业务的衡量标准得到了认可。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。