HPE近日公布了亏损的第四财季财报,但将其归咎于一次性税收,并表示实际利润较一年前增长了50%以上。
HPE公布的收入和调整后每股收益超出了分析师的预期,并维持了2019年第一季度和全年的指引。
HPE表示,第四季度亏损为7.57亿美元,收入为79.5亿美元,比一年前的77.6亿美元增长4%。与去年税制改革相关的调整拖累了14亿美元的收益,调整后的利润实际上是每股45美分,高于一年前的29美分。分析师此前预计利润为每股42美分,销售额为78.3亿美元。
在盘后交易中,HPE股价在华尔街整体糟糕的一天(下跌近3%)、之后没有变化。同一天,道琼斯工业平均指数下跌近800点。
这一财报结果标志着HPE在退出服务业务和大部分软件市场导致连续五年因为业务剥离而出现缩水之后,这是连续第四个季度实现收入增长。同时,HPE将2019年每股收益预期维持在1.51美元至1.61美元之间,同比增长8%。
HPE首席执行官Antonio Neri表示,HPE的收入、每股收益和现金流目标都超出了一年前的预期,因此这些结果显示出了“有意义的收入增长”。 HPE在2018财年以股票回购和股息的形式向股东返还了41亿美元,比去年同比增长了39%。营业利润率从一年前的7.6%上升至9%,运营现金流从13亿美元增加一倍多,达到30亿美元。
HPE一直在努力在进行Neri所谓的“从批量到价值”转型,尽管他指出该季度的出货量增长了7%。这一价值主张反映在较高的平均销售价格和较强的利润率上。
Neri说:“我们对投资实现的领域更有选择性了,而且数据显示,这些投资正在取得成效。”
HPE没有提供具体细节,但表示战略投资领域增长强劲。HPE首席财务官Tarek Robbiati(上个月刚从Sprint公司加入HPE)表示,Synergy可组合基础设施产品线的销售额增长了一倍以上,年运行率达到10亿美元。这里说的可组合基础设施包括存储、计算和网络设备与管理软件。Neri表示,HPE Greenlake付费即用的消费模式也得到了很好的发展,目前有超过400家客户采用这种基于消费的定价,总合同价值超过20亿美元。
Moor Insights&Strategy总裁兼首席分析师Patrick Moorhead表示:“我对Aruba的优势、HPC、Synergy、超融合基础设施和Greenlake所取得的成绩印象深刻,这些都是数十亿美元规模的业务,增长率达到两位数。此外,计算业务似乎已经很稳定,存储再次实现增长,这些都是非常积极的信号。”
此外HPE还受益于HPE Next计划,该计划旨在简化运营、降低管理开销并减少各种产品配置的多样化,这一计划带来的影响在季度收益表中显而易见,与去年相比,费用开支下降超过8%。
所有这些领域的盈利能力都很强,除了Intelligent Edge,Neri被认为这是一个主要的投资领域。混合IT业务的收入为6.44亿美元,利润为7.64亿美元,营业利润率接近12%。
地区表现也很稳定,HPE有42%的收入来自美洲,36%来自欧洲、中东和非洲(EMEA),22%来自亚太。其中,EMEA地区的销售额特别强劲,同比增长11%。
“HPE持续着从传统IT产品和服务的角色转型为一家在混合计算、大数据以及任何企业希望利用机器学习的领域中找到收入和增长点的厂商,”Constellation Research首席分析师兼副总裁Holger Mueller这样表示。
HPE首席财务官Tarek Robbiati表示,IT支出继续保持强劲,客户需求保持稳定。“我们有信心可以通过更强的[平均单价]来填补出货量的下滑。”
Neri对长期也很看好,这与许多其他技术高管最近关于IT支出处于长期增长趋势的看法相一致。数据增长超过计算机增长,这意味着计算增长迟早要追赶上来,” 他说,目前只有6%的企业组织数据被使用。
“对HPE有利的一件事是能够触及IT决策者,但这些关系将通过HPT产品的吸引力与IT领域其他竞争对手相对比而得到检验,”Mueller这里说的竞争对手指的是AWS,后者在上周刚刚宣布计划提供内部IT基础设施。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。