HPE今天宣布收购开源软件平台初创公司Determined AI,该公司的平台可以将机器学习算法的训练速度提高数十倍。
在当前超级计算机和服务器买家日益重视AI技术的背景下,此次收购将有助于提升HPE的机器学习能力。
Determined AI总部位于美国旧金山,创立于2017年,已经累计融资1300万美元,投资方包括Alphabet旗下GV基金、LG Electronics和CRV。
开发者在编写完新的机器学习算法后,会通过处理大量训练数据来训练算法的计算能力,这个过程有助于提高人工智能软件的准确性和速度。随着近年来机器学习算法中人工神经元的数量增加,训练过程中所需的硬件数量也在随之增加。
Determined AI的平台可以更简化地设置构建复杂AI算法所需的大量硬件。该平台启动服务器之后,会在这些服务器之间创建网络连接,使其可以协调工作并在设备之间分配工作负载。Determined AI采用了容错配置设置环境,即使其中一台服务器掉线,AI算法也可以继续进行训练。
Determined AI的平台可以加快机器学习项目的速度,因为以前设置AI训练环境通常需要进行手动操作,使工程师不得不把宝贵的时间花在一些繁杂的任务上,例如确保启动的服务器数量不超过公司分配给该项目的基础设施数量。此外,在缺乏容错功能(例如Determined AI提供的容错功能)的情况下,服务器宕机可能需要工程师从头开始重新训练,这会进一步增加项目持续的时间。
Determined AI承诺加速AI开发的另一种方式,是在软件层面优化训练过程本身。为此,Determined AI的平台采用了Horovod的定制版本,Horovod是Uber公司最初于2017年发布的开源AI训练框架。Determined AI表示,该版本框架在某些情况下可以将训练速度提高数十倍,项目持续时间从几天缩短到几个小时。
Determined AI所实施的Horovod通过提高所谓的扩展效率来进行加速。工程师通过添加更多服务器来扩展AI训练环境,由于各种技术因素,每个服务器提供的计算能力会同步减少。Horovod可以实现非常高的扩展效率,高达90%,这意味着随着AI训练环境的扩展,只有10%的服务器处理能力会损失掉。
HPE将利用Determined AI的技术来提升自身的超级计算能力,为此HPE计划将Determined AI并入高性能计算和关键任务解决方案部门(包括其超级计算机业务)。
这次收购正值有越来越多的超级计算机被用于运行机器学习工作负载,这个趋势反映在越来越多即将上线的新系统都将采用GPU。通过收购Determined AI,HPE将可以用超级计算硬件加上机器学习软件,为那些运行AI工作负载的高性能计算客户提供更好的支持。
此次收购另一个值得注意的方面,是Determined AI的平台是可以运行在云端的。这一点很重要,因为与其他本地应用一样,超级计算工作负载正越来越多地迁移到云中。特别是最近,HPE在今年4月与微软展开合作,为英国气象局在Azure数据中心设置了一套超级计算机。由于Determined AI的平台在云端和本地环境中运行性能都非常出色,因此HPE可以将其提供给越来越多的客户,把高性能计算项目带到企业网络之外的环境中。
此外Determined AI的平台也适用于HPE机器学习服务器的客户。HPE有多条配备了GPU的产品线可用于那些不需要超级计算机、但仍需要相当高本地计算能力的项目。HPE援引IDC的研究数据称,到2024年加速AI服务器市场的年增长率预计将达到38%,规模达到180亿美元。
Determined AI首席执行官Evan Sparks表示:“过去几年中,开发AI应用已经变成一件需要计算、数据和通信非常密集型的事情。通过与HPE行业领先的高性能计算和人工智能解决方案相结合,我们可以加快实现构建尖端AI应用的使命,同时显着扩大我们的客户范围。”
Determined AI以开源版本和付费版本(带有额外功能)两种形式提供自己的平台。Determined AI公司今天在其博客上表示,收购后将继续提供开源版本。此外,HPE计划继续在Determined AI开发上进行投入。
这次收购将在HPE的超级计算市场战略中发挥核心作用。为了加强自己在该领域的影响力,两年前HPE斥资13亿美元收购了超级计算机制造商Cray,后者构建了很多全球最快的高性能计算系统。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。