Nvidia今天推出了两款用于高性能计算和人工智能工作负载的芯片新品。
本周Nvidia在德国汉堡举行的ISC高性能计算大会上宣布推出了这两款芯片——Nvidia Grace CPU Superchip和Nvidia Grace Hopper Superchip,旨在为新一代的百亿亿级计算机服务器提供动力。
Nvidia表示,Nvidia Grace CPU超级芯片基于是Nvidia首款基于Arm的CPU(代号也是Grace)。该芯片配置了两个基于Arm的CPU提供支持,并通过高带宽、低延迟的Nvidia NVLink-C2C进行连接。Nvidia称这是一个“突破性的设计”,其中包含了多达144个Arm Neoverse内核,采用了Scalable Vector Extension和性能达每秒1 TB的内存系统。
Nvidia Grace CPU Superchip与PCIe Gen5协议接口,可以轻松链接到Nvidia最新的GPU,用于人工智能和机器学习工作负载,也可以与Nvidia BlueField-3 DPU连接,用于高性能计算应用。
至于Nvidia Grace Hopper超级芯片,这是一个更强大的系统,结合了Nvidia Hopper GPU与Nvidia Grace CPU,是一个通过NVLink-C2C连接的集成模块,用于高性能计算和大规模人工智能工作负载。
Nvidia表示,这两个新系统都运行Nvidia的人工智能和高性能计算软件的完整产品组合,支持“全栈的、集成的计算”。
这两个系统主要针对OEM厂商,特别是计算机服务器制造商,而且这些客户会立即采用这些芯片,首批搭载Grace超级芯片的系统将于今年晚些时候推出,包括戴尔、HPE、联想、浪潮、技嘉、超微和Atos。Nvidia承诺,将会给这些OEM厂商带来更高性能、更大内存带宽、更高能效等诸多优势。
而且Nvidia正在试图让几家知名客户来为自己背书,其中包括美国国防部的洛斯阿拉莫斯国家实验室。
洛斯阿拉莫斯实验室公布了一套名为Venado的新型高性能计算系统,号称是使用HPE Cray EX超级计算机构建的“异构系统”,将混合使用Grace CPU超级芯片节点和Grace Hopper超级芯片。一旦系统开始运行,预计性能将超过10 exaflops,并得到广泛应用。
洛斯阿拉莫斯实验室模拟和计算副主任Irene Qualters表示:“Venado系统为LANL的研究人员带来了Nvidia Grace Hopper的高性能水平,将继续致力于推动科学突破的界限。Nvidia的加速计算平台和广阔的生态系统正在消除性能上的障碍,使该实验室能够有新的发现,造福国家和整个社会。”
Nvidia的另一个主要客户是瑞士国家计算中心,该中心表示,他们的新系统也将由HPE Cray EX超级计算机构建。该中心表示,这套计划中的系统将配置多个Grace CPU超级芯片,将作为一种面向通用研究的先进平台提供服务。
Nvidia公司超大规模和高性能计算副总裁Ian Buck表示,超级计算领域正在进入百亿亿次人工智能的新时代,这将让研究人员能够应对以前那些遥不可及的挑战。
他说:“在气候科学、能源研究、太空探索、数字生物学、量子计算等领域,Nvidia Grace CPU超级芯片和Grace Hopper超级芯片构成了世界上最先进的高性能计算和人工智能平台的基础。”
好文章,需要你的鼓励
zip2zip是一项创新技术,通过引入动态自适应词汇表,让大语言模型在推理时能够自动组合常用词组,显著提高处理效率。由EPFL等机构研究团队开发的这一方法,基于LZW压缩算法,允许模型即时创建和使用"超级tokens",将输入和输出序列长度减少20-60%,大幅提升推理速度。实验表明,现有模型只需10个GPU小时的微调即可适配此框架,在保持基本性能的同时显著降低计算成本和响应时间,特别适用于专业领域和多语言场景。
这项研究创新性地利用大语言模型(LLM)代替人类标注者,创建了PARADEHATE数据集,用于仇恨言论的无毒化转换。研究团队首先验证LLM在无毒化任务中表现可与人类媲美,随后构建了包含8000多对仇恨/非仇恨文本的平行数据集。评估显示,在PARADEHATE上微调的模型如BART在风格准确性、内容保留和流畅性方面表现优异,证明LLM生成的数据可作为人工标注的高效替代方案,为创建更安全、更具包容性的在线环境提供了新途径。
这项研究由中国科学技术大学的研究团队提出了Pro3D-Editor,一种新型3D编辑框架,通过"渐进式视角"范式解决了现有3D编辑方法中的视角不一致问题。传统方法要么随机选择视角迭代编辑,要么同时编辑多个固定视角,都忽视了不同编辑任务对应不同的"编辑显著性视角"。Pro3D-Editor包含三个核心模块:主视角采样器自动选择最适合编辑的视角,关键视角渲染器通过创新的MoVE-LoRA技术将编辑信息传递到其他视角,全视角精修器修复并优化最终3D模型。实验证明该方法在编辑质量和准确性方面显著优于现有技术。
这项研究提出了ComposeAnything,一个无需重新训练的框架,可显著提升AI图像生成模型处理复杂空间关系的能力。该技术由INRIA、巴黎高师和CNRS的研究团队开发,通过三个创新步骤工作:首先利用大型语言模型创建包含深度信息的2.5D语义布局,然后生成粗略的场景合成图作为先验指导,最后通过物体先验强化和空间控制去噪引导扩散过程。在T2I-CompBench和NSR-1K基准测试中,该方法远超现有技术,特别是在处理复杂空间关系和多物体场景时表现卓越,为AI辅助创意设计开辟新可能。