在激进投资方Elliott Management持续施加的压力下,Citrix即将再次成为一家私营公司。
据《华尔街日报》近日报道称,Elliott的私募股权公司Evergreen Coast Capital和Vista Equity Partners即将以130亿美元收购这家上市软件公司,本周一早上这笔交易正式对外公布,但价格比之前报道的金额更高,达到了165亿美元。
Citrix主要售卖让员工能够远程访问业务应用和虚拟桌面的软件,并且在企业技术市场的其他几个板块开展业务,例如,用于帮助业务团队追踪未完成任务的项目追踪平台,以及帮助IT部门保护公司业务数据和优化网络基础设施的软件工具。
根据协议,Citrix股东将获得每股104美元的现金,比截至12月20日的5天平均价格溢价约24%,这一天也是可能的交易报道公布之前的最后一个交易日,预计此次交易将于2022年年中完成。
Vista和Evergreen计划将Citrix和企业数据管理公司Tibco Software进行合并,后者此前被Vista收购。Citrix表示,此次合并“将Citrix的安全数字工作空间和应用交付套件与Tibco的实时智能数据和分析功能结合在一起,为客户和用户提供加速数字化转型和混合办公场所需要的安全应用、信息访问和洞察力。”
这次交易将让Citrix成为全球最大的软件提供商之一,为400000多家客户提供服务,在100多个国家拥有1亿多用户,目的是“加速Citrix既定的增长战略和SaaS转型,并通过与TIBCO的结合,将扩展这个平台以及我们客户所取得的成果,”Citrix公司总裁兼临时首席执行官Bob Calderoni在声明中表示。“我们将与Tibco一起,以更大的规模运营,为更大的客户群提供更广泛的解决方案,加速他们的数字化转型之旅,让他们能够实现混合办公的未来。作为一家私营公司,我们将提高财务和战略灵活性,投身于DaaS等高增长机会,并加速持续的云转型。”
与许多传统软件公司一样,Citrix一直努力向基于订阅的商业模式过渡,最近由于疫情得到了提振,但Elliott等投资方认为Citrix仍然表现不佳。
Elliott有这种观点已经有段时间了。这家激进投资公司收购过大量科技公司的股份,并鼓动这些公司进行变革以提高盈利能力,2015年Elliott首次购入Citrix的股票。
去年9月,Elliott大幅增持了Citrix的股份,斥资13亿美元收购了Citrix公司超过10%的股份。从那时起,Elliott就开始推动Citrix的一系列变革,导致David Henshall于10月卸任公司总裁和首席执行官一职。随后Citrix聘请董事长Calderoni为其临时首席执行官。
Elliott以破坏戴尔2016年以670亿美元收购EMC的努力而闻名,并曾多次先收购其他公司的股份然后再收购这些公司,最著名的例子是Athenahealth,Elliott和Veritas Capital于2018年收购了该公司,最终在9月卖掉了该公司。
Constellation Research分析师Holger Mueller表示:“Elliott和Vista正在合并两家迷失方向并试图重回正轨的前创新领导公司。现在是一个很好的时机,因为两家公司仍然占据着巨大的市场份额,但时机至关重要,因为在他们带来价值之前,企业客户不会等待太长时间,首先是在未来工作领域,其次是在基础设施领域。”
近日Citrix还公布了第四季度财报,该季度Citrix的净利润为1.03亿美元,即每股81美分,低于去年同期的1.12亿美元,即每股89美分。利润包括1.03亿美元的遣散费和设施关闭成本等重组费用,以及与根据瑞士联邦税制改革实施的过渡性税收减免最终确定相关的1.2亿美元所得税优惠。
该季度Citrix的收入增长了5%,达到8.51亿美元。整个财年的收入为32.2亿美元,比2020年减少1%。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。