Nvidia今天宣布已经达成协议,将以69亿美元的价格收购数据中心网络专业厂商Mellanox Technologies,为最近关于Nvidia收购计划的传闻画上了句号。
这次全现金交易是迄今为止Nvidia规模最大的一笔交易。69亿美元的报价拆分为Mellanox股票每股125美元,比周五收盘价高出14%。
这是一个明显的溢价,特别是考虑到在10月收购传闻浮出水面之后Mellanox的股价上涨了66%。今天Mellanox股价上涨超过8%,至每股118.50美元左右。Nvidia投资者也非常乐意听到这个消息,Nvidia股价在今天的交易中涨幅超过7%。
据报道,英特尔和赛灵思(Xilinx)等芯片制造商也曾试图收购总部位于以色列的Mellanox。Mellanox主要为数据中心网络系统开发专用处理器,此外还提供各种相关产品,从交换机到用于连接服务器和存储的线缆。
Mellanox的客户中包括主要的数据中心硬件制造商(如戴尔)和多家基础设施即服务提供商。微软也在自己的Azure云平台上使用Mellanox的网络产品,并且曾一度成为Mellanox的潜在买家。
Mellanox在高性能计算领域也拥有重要影响力,全球500强超级计算机中有一半以上采用了Mellanox的产品,其中包括前两大超计算机——由美国能源部运营的Sierra和Summit,而且这两套系统也采用了Nvidia GPU。
Mellanox所在的三个市场——企业数据中心、公有云和超级计算——也都是Nvidia的重点关注领域。这次收购可以为Nvidia在这些领域的增长提供重要推动力。
Moor Insights&Strategy总裁兼首席分析师Patrick Moorhead表示:“Nvidia收购Mellanox应该是两家公司之间的协同举措。Nvidia和Mellanox都在高性能计算、机器学习、汽车、公有云和企业数据中心市场都有重要的地位,双方的结合可以为客户带来更多价值。”
Nvidia首席执行官黄仁勋在今天上午的新闻发布会上,阐述了他对这次收购的看法。他说:“这背后的策略基本上是就是加速数据中心,通过人工智能、数据分析和数据科学,将像构建高性能计算机一样构建数据中心。”
黄仁勋补充说:“数据中心将成为一个巨大的计算引擎。计算将扩展到网络,网络本身将成为计算结构的一部分。”他认为,Mellanox在实现这一新模型方面将发挥重要的作用,因为“这些计算机协同工作所需的连接性正在变得越来越强大和越来越重要”。
69亿美元的收购价格背后的另一个因素是,Mellanox将为Nvidia带来重要的收入增长来源。Mellanox借助以太网业务的强劲表现,在2018年的收入增长了26%,超过10亿美元。市场对Mellanox以太网交换机的需求同比增长70%,而且Mellanox预计2019年这一增长还将继续加速。
英特尔对Mellanox的收购企图也可能是促使Nvidia提出如此慷慨要约的原因之一。英特尔是Nvidia的主要竞争对手之一,正在积极致力于扩大在数据中心连接业务中的影响力。就在今天早上,英特尔推出了一项新技术,用于将GPU等加速器芯片与服务器CPU连接起来。
Nvidia预计此次收购将在年底前完成。在新闻发布会上黄仁勋表示:“我们的商业模式不会改变”,即使是将业务范围从GPU扩展到成为他所谓的系统架构公司。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。