颓势终于过去。
根据IBM公司于去年10月发布的预期报告显示,其2017年第四季度营收增长了4%,终于结合了最近五年半以来年销售额持续以15%比例下降的魔咒。本季度225亿美元营收略高于华尔街作出的220.5亿美元预期。含成本毛利润为48亿美元,折合每股5.18美元,同样超出分析师预期。
尽管业绩表现强劲,但较低的毛利率以及近期美国税收改革的影响仍令投资者们感到担忧。因此在财报公布后的大盘交易中,IBM公司股价下跌约3%。结合美国近期税收变动所带来的55亿美元一次性支出,IBM公司本季度净亏损11亿美元,折合每股1.14美元。
IBM公司在沃森深度学习技术的基础之上,继续面向分析、安全、云计算以及认知计算类产品与服务领域的“战略需求”方面取得进展。其营收贡献达到总体收入的46%,高于上季度的45%与上年同期的11%。
第四季度云营收为55亿美元,同比增长27; 而IBM公司“即服务”类业务总体营收(其中包括云基础设施与应用程序)本季度收得25亿美元,即年化营收已达100亿美元。安全业务营收实现倍增,目前为15亿美元。
即将卸任的IBM公司首席财务官Martin Schroeter(将赴任IBM全球市场高级副总裁)指出:“从任何角度来看,这都是一年以来最为强劲的业绩表现。”
Moor Insights & Strategy公司分析师Patrick Moorhead认为,蓝色巨人正迎来复苏。他表示:“尽管单一数据点还不足以形成趋势,但公司整体的发展与庞大的云计算及战略需求增长使其以良好的态势步入2018年。”
IBM公司还没有全面进入上升轨道。该公司的大规模分析业务增长比例仅为6%,这意味着其仍在继续努力充分发挥沃森平台的优势。公司高管在电话会议上向分析师们解释称,沃森在健康、金融服务以及物联网市场上表现良好。然而Schroeter补充称,“我们对于一部分分析产品的表现感到失望。”
事实上,Wikibon公司分析师Ralph Finos表示,本季度的上扬几乎完全来自大型机的营收贡献,而货币汇率波动亦为其带来2.7%的增长比例。
他解释称,“认知云是除此之外的惟一亮点,因此IBM也许确实已经迎来起色。不过除此之外的业务表现都不理想,云技术服务与云平台的表现皆令人失望。”总体而言,他认为盘后股价下跌“在意料之中。IBM公司仍处于困境当中。”
本季度IBM公司毛利率为48.2%,全年毛利率则为45.8%,均低于2016年水平,公司高管将此归咎于货币汇率波动与战略投资带来的经营成本提升。总体而言,他们表示IBM公司目前正处于营收下滑的拐点,并认为2018年第一季度该公司将实现同比增长——但拒绝披露更为具体的预期数字。
即将上任的首席财务官James Kavanaugh表示:“我们一直在努力重塑自身业务,值此2018年伊始之时,我们的营收状况比上一年更为强劲。我们预计2018年整体营收将有所增长。我们的云业务将继续改善,并在新年第一季度开始带动这一稳定的增长步伐。”
考虑到IBM公司去年夏季发布的全新z14大型机在销售预期方面将有所提升,因此营收转好的预测并不令人意外。IBM公司承诺其系统营收将增长28%,其中z系列大型机销售额增长超过70%。与此同时,其硬件业绩表现也依然强劲,Power系统增长50%,存储产品也连续第四个季度实现收益提升。
Kavanaugh指出,“我们对于整体表现非常满意,而且其已经开始超越大型机。在今年,我们连续四个季度实现存储营收增长。我们对自身系统产品组合非常满意。”该公司在2017年第四季度还实现了有史以来最高的原始计算产品出货量。
不过技术服务部门的表现不尽如人意,本季度营收为94亿美元,同比下降4%。但软件即服务业务的增长抵消了技术支持与基础设施服务的持续下滑。根据报道,IBM公司计划对这些业务进行重大重组,目前这部分业务的利润还不到系统及软件业务的一半。
尽管近年来一部分竞争对手已经开始削减或者剥离旗下服务部门,但IBM公司的高管们表示,其服务仍然是新兴业务的主要发起者,特别是在IBM云产品层面。Schroeter表示:“我们在服务业务方面储备有超过1200亿美元资金,而现在我们正着手将其转向云计算。”
IBM公司全年自由现金流总量达到近130亿美元,较2016年上涨11%。该公司将其中75%以股息的形式派发给股东从而维持正常股息水平,此举使其股票成为机构投资者的最爱。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。