IBM今天发布的第四季度财报和2019年指引均超出了分析师预期,尽管连续两个季度收入下滑,但IBM股价在投资者推动下仍然有所上涨。
根据IBM财报显示,在如股票报酬等某些成本之前的收益为每股4.87美元,收入为218亿美元,这与去年同期相比下降了3%,但IBM首席财务官James Kavanaugh将其归因于货币转移,以及与去年IBM大型机表现特别突出的那个季度进行对比等原因。
尽管如此,这一结果仍然超过了华尔街此前预期的每股盈利4.84美元,收入217.5亿美元。
IBM的全年表现也超出了预期,2018年每股总收益达到13.81美元,收入为796亿美元。这比上一年增加了1%。分析师早些时候预期IBM今年每股收益为13.78美元。
股东们也给出了热情洋溢的回应,IBM股价在盘后交易中上涨了7%多。
市场研究公司Wikibon联合创始人兼首席分析师Dave Vellante表示:“IBM试图超出预期表现,这在很大程度上要归功于传统的可靠服务业务和管理华尔街的期望。此外IBM还以股息和股票回购的形式将85%的自由现金流返还给投资者,这些都起到了帮助作用。”
IBM首席执行官Ginni Rometty在声明中表示,恢复全年收入增长反映了“市场对我们在混合云、人工智能、分析和安全领域的服务和领先解决方案的需求还在不断增长”。
IBM高管们进一步强调了今年IBM业绩的积极方面,指出收入中有398亿美元(几乎是其总收入的一半)来自所谓的“战略项目”包括分析、云、移动和社交。
这个数字令人印象深刻,但一些分析师提出了对IBM云业务增长的担忧。今年IBM的云计算收入为192亿美元,比2017年增长12%。然而,这仅仅是上一年增长率的一半,远远低于市场领导者AWS、微软和谷歌。
尽管Kavanaugh在财报电话会上正面地谈及云计算业绩,但他们可能对云计算增长停滞多少感到有些失望。IBM一直在努力推动这项业务,因为IBM希望从人工智能和安全软件等新服务中获取大部分收入,而不是传统的咨询和硬件销售。
Vellante表示:“IBM正在追求高价值的机会,这意味着他们不会在云计算领域与AWS展开正面交锋,而是试图将复杂的高价值工作负载转向云模式,也就是很多混合/内部部署、大量应用现代化、大量服务和一些随售的硬件。”
这个策略在很大程度上解释了为什么IBM去年10月决定以330亿美元重磅收购开源软件公司Red Hat。宣布这一消息的时候Rometty表示,今年晚些时候该交易完成的时候,Red Hat将成为IBM的一个“游戏规则改变者”。
Pund-IT公司首席分析师Charles King表示:“收购Red Hat将会给IBM云业务画上浓墨重彩的一笔。”Red Hate Enterprise Linux在很多大公司的混合云和多云环境中扮演着核心角色,Red Hat的服务产品和结构应该与IBM的产品保持一致。有人可能会说,IBM收购Red Hat的价格太高,但在我看来,这项投资应该能够获得丰厚的回报。”
IBM肯定希望自己的投资能够获得回报,否则就有可能陷入连续季度收入下滑的陷阱。此前IBM的收入连续六年下滑,直到最终在2018年1月扭转了局势。但在连续两个季度实现增长之后,收入又下滑了两个季度。
尽管如此,IBM目前仍然乐观地认为,下滑只是暂时的。目前IBM尚未公布第一季度的指引,但表示,目标是2019年全年每股收益13.90美元,其中不包括预计年中完成的红帽收购所带来的影响。该预期略高于当前分析师预期的每股收益13.79美元。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。