纽约州纽约市——2017年9月1日——Micro Focus宣布完成对慧与(Hewlett Packard Enterprise)软件业务的并购,从而创造了世界第七大企业级纯软件公司。该合并将两家软件领导企业结合,打造了一个全新的公司,特别定位于帮助客户实现其现有软件投资效益最大化,并在混合IT领域进行创新。交易完成后,慧与(Hewlett Packard Enterprise)前首席运营官及慧与(Hewlett Packard Enterprise)软件业务执行副总裁兼总经理Chris Hsu将出任Micro Focus首席执行官。
Micro Focus首席执行官Chris Hsu表示:“今天是Micro Focus的一个重要里程碑,我很荣幸能够领导这个团队。我们打造了一个技术和人才的强大组合,特别定位于在企业层面推动以客户为中心的创新,使企业能够将现有软件投资的投资回报率最大化,同时支持企业IT的新型混合模式。”
《哈佛商业评论》近期发布的一份报告指出,“商业领袖们预计在不久的将来,会有更多的应用驻留在各种第三方数据中心。但一些原有的重要应用在一段时间内可能不会迁移。所以协调多种不同系统的运行将变得更加重要。混合IT将成为主要的方法 – 而开发强大的混合IT功能将成为一项具有竞争力的优势。”
Micro Focus是专为打造、销售和支持软件而成立的公司,合并后的公司拥有超过5800名研发人员,能够帮助客户解决复杂的技术问题,在关键领域提供世界一流的企业级解决方案,其中包括:
DevOps:通过在商业工具链及开源产品中实现端到端,快速交付高质量、安全的应用,充分利用业内规模领先的产品组合。
混合IT:简化对各平台、交付方式和消费模式复杂组合的管理,以帮助企业解决业务需求、控制成本并确保全球范围内的可用性和性能。
安全性和风险管理:保护数据、应用和访问;推动安全运营和治理,以降低风险并保持合规性;并利用安全的DevOps应用来确保端到端的风险管理。
预测性分析:帮助客户将大规模的数据孤岛转化为实时且具有前瞻性的分析结果,以支持开放的、基于云计算的堆栈,在应用、运营、安全及业务之间创造新的洞察。
Hsu补充道:“我们的使命是提供业界一流、企业级、可扩展、并具有内置分析功能的软件产品组合,将客户置于我们创新的核心地位,打造让团队引以为豪的高品质产品。以此使命为动力,Micro Focus的独特定位将能够帮助客户和合作伙伴迎接企业IT新型混合模式的机遇和挑战,涵盖从大型机到移动到云端的各个方面。”
DXC Technology董事长、总裁兼首席执行官Mike Lawrie表示:“我代表DXC Technology的每位成员,祝贺Micro Focus团队实现了这一重要里程碑。这次合并将大大提升我们的战略合作伙伴关系,以帮助我们为客户实现真正的数字转型。我们期待与Micro Focus这样一流的合作伙伴进一步展开合作!”
该合并标志着在过去三年中的第五次大交易,而且这是Micro Focus公司迄今为止最大的一笔交易。它体现了一项持续的战略:通过强劲的、基于绩效的运营模式,将强大的软件资产结合为一家单一的公司。
Micro Focus公司执行董事长Kevin Loosemore表示:“我们有着非常健全的业务战略:汇集软件资产,为我们的投资者提供极高的价值,并为我们的客户提供广泛的解决方案组合,从而让他们最大限度地发挥现有IT投资的价值并不断采用新技术,将新旧技术相连接。我们很高兴有Chris来领导合并后的公司,开始两家企业的合并之旅、打造出一家世界级的纯企业软件公司。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。