Nvidia今天透露,已经收购了Run:ai,一家开发优化显卡集群性能软件的初创公司。
此次收购交易的条款并未披露。TechCrunch援引两位知情人士的话报道称,此次交易对Run:ai的估值为7亿美金,这几乎是这家总部位于特拉维夫的初创公司在收购之前筹集的资金金额的6倍。
Run:ai的正式名称为Runai Labs Ltd,提供的软件主要用于加速配备了GPU的服务器集群。据该公司称,由其技术支持的GPU环境可以运行的AI工作负载比其他方式要多出10倍,而且它是通过修复几个经常影响GPU驱动的服务器的常见处理效率低下问题来提高AI性能的。
Run:ai解决的第一个问题,源于AI模型通常使用多个显卡进行训练。为了将神经网络分布在GPU集群上,开发人员会将其分成多个软件片段,并在不同的芯片上训练每个片段。这些AI片段必须在训练过程中定期相互交换数据,这可能会导致性能问题。
如果AI片段必须与当前未运行的神经网络的不同部分交换数据,则必须暂停处理,直到后一个模块上线,由此产生的延迟会减慢AI训练的工作流程。Run:ai可以确保促进数据交换所需的所有AI片段同时在线,从而消除不必要的处理延迟。
Run:ai的软件还避免了所谓的内存冲突。在这种情况下,两个AI工作负载会尝试同时使用GPU内存的同一部分。GPU会自动解决此类错误,但故障排除过程需要时间。在AI训练过程中,修复内存冲突所花费的时间会显着增加并减慢处理速度。
在同一GPU集群上运行多个AI工作负载还可能导致其他类型的瓶颈。如果其中一个工作负载需要的硬件超出预期,那么它可能会使用分配给其他应用的基础设施资源并放慢这些应用的速度。Run:ai提供的功能可以确保每个AI模型都获得足够的硬件资源,在没有延迟的情况下完成分配的任务。
Nvidia副总裁、DGX云部门总经理Alexis Bjorlin在一篇博客文章中详细介绍了这一点,他说:“该公司在Kubernetes上构建了一个开放平台,这是现代AI和云基础设施的编排层,支持所有主流的Kubernetes变体,并与第三方AI工具和框架进行了集成。”
Run:ai主要销售核心基础设施优化的平台以及其他两种软件工具。首先是Run:ai Scheduler,它提供了一个为开发团队和AI项目分配硬件资源的接口,其次是Run:ai Dev,可以帮助工程师更快地设置用于训练神经网络的编码工具。
Nvidia已经在自己的多款产品中附带了Run:ai的软件,包括Nvidia Enterprise,是Nvidia为自己数据中心GPU提供的一套开发工具,以及DGX系列AI优化型设备。Run:ai也可在DGX Cloud上使用,并且通过该产品,企业可以访问主流公有云中的Nvidia AI设备。
Bjorlin表示,“在可预见的未来”,Nvidia将继续在当前定价模式下提供Run:ai的工具,与此同时,Nvidia将发布该软件的增强功能,重点关注有助于优化DGX云环境的功能。
Bjorlin详细介绍道:“客户可以期望他们将受益于更好的GPU利用率、改进的GPU基础设施管理以及开放架构带来的更高灵活性。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。