Nvidia今天宣布推出了一款用于服务器的加速卡新品,并公布了最新用于自己内部研究集群中的超级计算机Selene,该集群也是目前全球排名第七的最强系统。
Nvidia是在ISC Digital线上高性能计算大会期间发布这些公告的。
首先,来看看这款服务器加速器,它其实是Nvidia旗舰产品A100 GPU的一个新版本(如图所示),结构更紧凑了。Nvidia在PCIe卡上配置了一个A100芯片,让企业可以将其接入服务器,从而为人工智能应用、科学模拟以及通常使用GPU的工作负载提速。
Nvidia此前已经在今年早些时候推出了一款基于A100的加速器,带有4个或者8个板载GPU。今天发布的单GPU PCIe卡可以轻松插入企业现有服务器中,从而让Nvidia更好地瞄准了一个关键市场领域:那些希望在GPU项目中利用现有基础设施的企业和组织。
如下图所示,就GPU核心规格而言,这款PCIe卡基本上和之前是类似的,主要区别有两点。首先,该产品的散热设计功率(衡量芯片热量散发的指标)降低了38%,使其运行的时候足够冷却,连接到服务器而无需专用风扇。此外,为了提高效率,这款PCIe卡在速度上做了一些权衡,性能是同类产品的90%。
相信搭载Nvidia的A100 GPU的服务器产品将很快上市。Nvidia表示,戴尔和HPE等十几家服务器厂商计划发布超过50款配置了A100的服务器系统,预计今年夏天就会有30款问世。
企业数据中心并不是Nvidia芯片唯一瞄准的领域。目前三大主流公有云厂商都已经采用了Nvidia的GPU,不仅如此,Nvidia GPU还被广泛用于超级计算机中。在此次ISC Digital大会上,Nvidia透露了有关这方面工作的最新信息,称全球TOP500榜单中前25强超级计算机中有20个都在后台使用了Nvidia GPU。
这其中就包括了Selene——Nvidia专门为自己内部研究集群打造的超级计算机。该系统是位列全球第七,性能相当于每秒27.5次万亿次运算,而且值得注意的是,Selene也是全球最节能的系统之一。
Nvidia高级产品营销经理Dion Harris在博客中详细介绍说,“Selene是TOP100系统中唯一一个打破了每瓦20 gigaflops的系统。”
除了用于扩展Nvidia的研究范围之外,Selene系统还可以作为Nvidia DGX设备系列的销售展示。Nvidia表示,通过组装DGX A100设备,仅用了4周时间就完成了整套超级计算机的组装,每个系统提供8个A100 GPU,而通常某些情况下建造大型超级计算机可能要花费一年多的时间,显然这么快的速度对潜在客户来说是很有吸引力的。
Nvidia子公司Mellanox也参与了ISC Digital大会演示。去年,Nvidia斥资69亿美元收购了这家网络设备制造商,一部分原因是Mellanox在高性能计算市场上占有举足轻重的地位,特别是TOP500超级计算机中有305套系统都采用了Mellanox的技术。Nvidia在ISC Digital上透露,Nvidia GPU和Mellanox产品现在联合起来为全球将近2/3的TOP500系统提供动力。
Nvidia还借此机会推出了新的网络监控设备Mellanox UFM Cyber-AI,该系统会扫描数据中心或者超级计算机的流量情况,发现潜在的组件故障、性能问题、以及表明存在潜在漏洞的可疑活动。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。