由于对企业技术硬件支出的担忧日益增加,HPE公布第二季度财报显示,收益和收入均呈现持平状态。
该季度HPE的净利润为2.5亿美元,略低于去年同期的2.59亿美元,不计入股票补偿等特定成本之后的收益为每股44美分,收入为67.1亿美元,与去年同期的67亿美元基本持平。
这一结果略低于此前华尔街预期的收益每股45美分和收入68亿美元。财报发布之后,HPE的股价在延长交易中下跌了6%多,抵消了当天早些时候的小幅增长。
HPE解释说,公司暂停俄罗斯业务运营带来相关1.26亿美元的费用,这给利润带来了影响。
HPE公司总裁、首席执行官Antonio Neri强调公司该季度实现了“订单的显着增长”,客户对HPE边缘到云产品组合以及HPE GreenLake平台的“兴趣不断增加”。他补充说:“我们的客户需要加快他们的业务弹性和竞争力,因此我有信心市场需求将继续保持强劲。”
但是Neri的乐观情绪无法掩盖HPE的许多数据令投资者失望的事实。自从思科上个月公布了较低的预测,HPE一直面临质疑,引发了企业正在削减技术支出预算的担忧。
这些担忧显然是有道理的,HPE最大的计算业务部门销售额该季度保持持平在30亿美元的水平。存储业务的情况更艰难一些,销售额为11亿美元,比去年同期减少3%。HPE的金融服务收入也下降了2%,至8.23亿美元。
但是财报中也有很多亮点。HPE的高性能计算和人工智能部门销售额为7.1亿美元,增长4%,智能边缘业务的销售额为8.67亿美元,同比增长8%。
HPE对智能边缘业务寄予厚望,这其中包括了软硬件产品组合HPE GreenLake,企业可以按需购买该产品,而不需要预先购买一切,该季度HPE宣布对GreenLake产品进行广泛的扩展。
值得注意的是,GreenLake平台现在与HPE Aruba的Aruba Central网络管理系统已经是完全集成的,这让超过120000家Aruba客户能够按需地订购网络设备和服务。此外,HPE还为GreenLake添加了多项新的云服务,涵盖网络、数据服务、高性能计算和运营管理。
这些新增产品受到了好评,HPE财报显示,“即服务”产品订单比去年同期增加了107%,这是连续第三个实现了翻番。此外,Aruba服务收入增长了两位数,智能边缘即服务的年度经常性收入增长了50%多。
Constellation Research分析师Holger Mueller对HPE业绩的评估比大多数投资者更友善一些,他说,HPE在艰难的商业环境中表现不错,尽管供应链面临挑战和退出俄罗斯市场,但仍然实现了小幅的增长。他补充说:“很高兴看到即服务产品不断增长并翻番,因此很明显,HPE正在努力实现这一目标。但是,高性能计算等其他业务的增幅不到10%,而且计算和存储等批量出货型业务是持平或者萎缩的,这对HPE来说是一大难题。”
展望第三季度,HPE预计每股收益在44美分至54美分之间,中位点略低于华尔街预测的每股52美分。
HPE还更新了全年指引,预测每股收益在1.96美元至2.10美元之间,市场普遍预期为2.09美元,销售额预期在286.2亿美元至288.9亿美元之间,高于华尔街预测的285.9亿美元。
Mueller说:“很高兴看到HPE的高管们有信心能够实现全年收入指引,他们必须乐观地相信,接下来的两个季度表现会更好。”
好文章,需要你的鼓励
这项研究提出了HoPE(混合位置编码),一种针对视觉语言模型的新型位置编码技术,专门解决长视频理解的挑战。传统位置编码技术在处理长视频时表现不佳,HoPE通过两个创新解决了这一问题:混合频率分配策略(为空间信息分配高频,时间维度使用零频率)和动态时间缩放机制(根据视频速度灵活调整时间编码)。实验证明,HoPE在长视频理解和检索任务上分别提升了8.35%和22.23%,为AI更准确理解长视频内容开辟了新途径。
东京大学研究团队推出MangaVQA基准和MangaLMM模型,专门用于评估和提升AI对日本漫画的理解能力。MangaVQA由526个高质量手动创建的问答对组成,用于评估AI系统对漫画内容的深入理解;MangaOCR则专注于漫画页内文本识别。基于这两个基准,研究团队从开源多模态模型Qwen2.5-VL微调出MangaLMM,能同时处理文本识别和内容理解任务。实验显示,即使是GPT-4o等顶尖商业模型在处理漫画的独特复杂性时也面临挑战,而专门训练的MangaLMM表现出色。
这项研究由ISTA和谷歌研究院联合开发的"影响力蒸馏"方法,通过利用二阶信息为训练样本分配最优权重,实现了大语言模型训练数据的高效选择。该方法在数学上有坚实理论支持,并创新性地引入"地标"近似技术,仅需计算少量样本的精确影响力,再高效传播到其他样本,大幅降低计算成本。实验证明,该方法在多种模型和任务上均优于或匹配现有技术,同时实现了高达3.5倍的速度提升,为大模型训练开辟了更高效的路径。
来自哈佛大学等顶尖学府的研究团队在这篇论文中挑战了传统观念,认为Token压缩不仅仅是提高AI模型运行效率的工具,更应成为生成式AI模型设计的核心原则。研究表明,精心设计的Token压缩策略可以促进多模态深度整合、减轻AI"幻觉"问题、增强处理长序列输入的能力,并提高训练稳定性。论文详细分析了现有方法的局限性,并提出了算法创新、强化学习指导和硬件协同设计等未来研究方向。