Nvidia宣布收购SwiftStack,一家为数据密集型应用和工作流提供对象数据存储和管理平台的初创公司。这次交易的金额未对外公开。
SwiftStack成立于2011年,主要提供基于云的软件来管理企业云存储,简化本地基础设施,同时实现公有云的性能和容量水平。SwiftStack从2019年开始提供用于人工智能、高性能计算和加速计算的SwiftStack Data Platform,其中包括可在核心、边缘和云中实现数据加速的SwiftStack 1space。
Nvidia和SwiftStack合作有一年多的时间,主要致力于解决数据难题以实现大规模AI,也从一个侧面促成了今天的收购。
SwiftStack现有客户将继续得到支持,包括PayPay、Rogers Communications、DC Blox、Snapfish和Verizon。Nvidia计划将SwiftStack的技术融入到自己现有的AI堆栈中。
此次收购也是Nvidia旨在为应用提供完整软件堆栈、不必成为存储提供商的战略之一。
Nvidia企业计算负责人Manuvir Das表示:“我们不是存储厂商,我们不打算成为存储厂商。我们不做任何形式的存储业务。我们与存储合作伙伴紧密合作。这次收购旨在进一步促进不同存储技术与我们AI战略之间的集成。”
Das补充说,Nvidia早在多年前就意识到,不仅需要向客户提供GPU或者软件库,还需要帮助他们创建整个堆栈,从GPU一直到应用本身。他说:“现在再看Nvidia,我们把大部分精力都花在了各种AI应用软件上。”
根据Crunchbase的数据,SwiftStack已经筹集了2360万美元的资金,投资方包括OpenView、Storm Ventures、Mayfield Fund和UMC Capital。预计这次收购将在未来几周内完成。
消息传出之际,Nvidia刚刚宣布斥资69亿美元收购网络设备厂商Mellanox。这次交易获得了美国监管机构的批准,以及此前12月获得了欧盟的批准。
目前该交易正在等待中国方面的批准,截至2月19日该交易已经向中国当局重新提交,外部批准日期为3月10日,可能延长至6月10日。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。