CEO坦言,目前的多云市场可分为截然不同的两大部分,而且Rackspace已经联系上潜在买家
Rackspace Technology已经完成一波战略审查,并挑选出了适合出售的部分业务。公司CEO Kevin Jones更是直言“都可以谈,没什么不能谈的。”

Rackspace还透露,已经有潜在买家表达了收购意愿。
此项举措公布于Rackspace 2022年第一季度的财报电话会议,Jones声称转型为纯多云服务商有利于Rackspace的市场竞争地位。
他认为,乘着多家超大规模云服务商迅猛增长的浪潮,Rackspace的转售服务也吃到了一波红利。例如,公有云基础设施市场每季度增幅高达约三分之一,而且目前仍然由AWS、微软和谷歌所主导。
但Jones同时指出,Rackspace的业务近年来发生了显著变化,目前正身处两大截然不同的多云市场区间。这两部分在运营模式、增长轨迹和投资前景方面均存在着显著差异。
Jones解释道,“公有云正处于长期增长阶段,属于以服务为中心的轻资本产品线,我们可以通过明智的投资决策来捕捉更多的市场空白与增长机会。而在另一方面,私有云与托管服务则处于低增长态势,我们主要强调优化利润、释放现金流。”
因此,Rackspace决定根据这两大市场板块考虑业务重组,同时探索其他战略替代方案。
公司CFO Amar Maletira则表示,过去18到24个月以来,全球云市场可谓发展迅猛。因此Rackspace必须评估所有选项,把握住可能的机会。他还透露,Rackspace已经找到了抱有收购意向的潜在买家,但并没有透露其具体身份。
他补充道,“结合战略审查与内部利益评估结果,我们认为Rackspace Technology各业务部门的价值总和,可能大于我们当前的总体业务价值。其中部分原因,在于我们的公有云产品具有良好的发展前景与市场吸引力。因此,我们正在评估战略替代方案和可能的选项。”
换句话说,Rackspace似乎对自己的公有云业务部门感到满意,但对私有云和托管业务则颇有微词。
在财报电话会议上,Rackspace被问及“内部利益”指的到底是哪部分业务,但Jones并未给出具体细节。Rackspace计划在今年9月的分析师日活动中公布新的发展战略、运营组织与长期财务模型。
虽未正面回应,但Jones谈到“我可以向大家保证,就战略选择而言,一切都可以谈,没什么不能谈的。我们正在评估所有选项,包括特定一项业务的内部利益。我们将根据后续发展酌情公布更多信息。”
Rackspace报告的2022年第一季度收入为7.76亿美元,同比增长7%,但增幅低于2021年同期的11%。
Rackspace的多云服务和应用与跨平台部门收入增长了9%,不过总体运营收入则从2021年第一季度的2400万美元下降至2100万美元。
Rackspace一路发展至今可谓命途多舛。最初于2008年在纽约证券交易所上市,之后于2016年被笲股权公司Apollo Global Management收购。2020年,Rackspace第二次上市,估值为42亿美元,低于Apollo Global当初收购时的43亿美元。
去年,Rackspace还裁减了约10%的员工。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。