如今AI无处不在,NVIDIA致力于实现AI民主化。近日,在MWC 2021和ISC 2021的举行期间,NVIDIA公布面向5G和超算的新方案——AI-on-5G和NVIDIA HGX AI超级计算平台,帮助各行各业能够加速AI落地。
扩展AI-on-5G生态系统
软件定义的RAN对于构建能够在通用平台上运行各种应用程序的现代5G基础设施至关重要。今年4月,NVIDIA宣布与谷歌云、Fujitsu、Mavenir、Radisys和Wind River合作开发适用于NVIDIA AI-on-5G平台的解决方案。部署该平台的企业、移动网络运营商和云服务提供商将能够在同一融合的平台中同时处理5G和边缘AI计算,可以在理想的平台上创建高性能5G RAN和AI应用。

现在NVIDIA宣布将在NVIDIA Aerial A100 AI-on-5G平台上扩大对Arm架构CPU的支持,为5G生态系统带来更多选择。NVIDIA Aerial A100 AI-on-5G计算平台使用NVIDIA Aerial软件开发套件,并将与内置16个Arm Cortex-A78处理器的NVIDIA BlueField-3 A100配套工作,打造独立的融合卡,可通过云原生5G vRAN提供企业级边缘AI应用,并提升每瓦性能,加快部署速度。

这一举措将让全球各大OEM能够提供基于高效的Arm架构CPU和采用Aerial 5G的NVIDIA AI Enterprise软件的行业标准服务器,更简易地构建和部署自托管的vRAN,让私营企业、网络设备公司、软件制造商和电信服务提供商都能将AI和5G功能相融合。
除此以外,NVIDIA宣布将与谷歌云合作打造业内首个AI-on-5G创新实验室,该实验室将向企业提供谷歌云的Anthos平台和NVIDIA加速计算软硬件平台,让企业能利用数据和AI来提升业务绩效、提高运营效率并优化安全性和可靠性。
加快工业AI和HPC新时代的到来
AI与加速计算和高性能计算相结合,形成了推动超指数级进步的数字飞轮。NVIDIA首席执行官黄仁勋表示,由于加速计算和深度学习出现,高性能计算正在经历多米诺骨牌效应。
制药公司正在利用经由GPU加速的模拟和AI来加速药物发现。宝马等汽车制造商正在利用此类技术实现整个工厂的建模。欧洲的DestinE项目将打造地球的数字孪生体,这种仿真只有结合高性能计算与AI才能实现。

基于此,NVIDIA宣布在NVIDIA HGX AI超级计算平台中加入融合了AI与高性能计算的新技术,使越来越多的行业能够更加充分地利用超级计算的力量。
NVIDIA在HGX平台中加入了三项关键技术:NVIDIA A100 80GB PCIe GPU、NVIDIA NDR 400G InfiniBand网络和NVIDIA Magnum IO GPUDirect Storage软件。三者结合,提供了卓越的性能,以实现工业HPC的创新。
目前,NVIDIA HGX平台为爱丁堡大学的新一代超级计算机Tursa提供支持,Tursa是由爱丁堡大学托管的新型DiRAC超级计算机。
Tursa超级计算机由Atos打造,预计将于今年晚些时候投入使用,它将配备448个NVIDIA A100 Tensor Core GPU,每个节点包括4个NVIDIA HDR 200Gb/s InfiniBand网络适配器。NVIDIA Magnum IO GPUDirect RDMA 使系统能够使用Lattice Quantum ChromoDynamics为超大规模的科学应用提供高水平的节点间带宽和可扩展性。
同时,在最新发布的TOP500榜单上,基于云的AI超级计算机(包括Microsoft Azure和剑桥大学的新系统Wilkes-3超级计算机)大出风头。

这种超级云——一种新兴的共享超级计算机,能够同时满足人工智能、高性能计算和云端的需求。Azure系统便是NVIDIA首席执行官黄仁勋所述“行业高性能计算革命”的一例,即AI与高性能计算和加速计算融合,正在推动科研和行业各个领域的发展。
Wilkes-3是世界上第一台云原生超级计算机,让研究人员能够在保证隐私和安全的前提下共享虚拟资源。除了与HDR 200G InfiniBand网络上连接的320个A100 GPU之外,该超级计算机还借助NVIDIA Bluefield DPU加速安全、虚拟化和其他数据处理任务。
可以预见的是高性能计算革命将席卷数据中心、公有云和混合云以及边缘网络。NVIDIA也在与ARM联手加速高性能计算生态系统的发展,将ARM模式应用到高性能计算的时机已经到来。
结语
不管是5G还是高性能计算领域,NVIDIA持续创新加速AI在行业中的落地。并推动技术之间的融合。AI-on-5G让5G和边缘AI计算融合,而HGX平台让AI与加速计算和高性能计算融合,这些带来的将是整个行业的变革。
好文章,需要你的鼓励
这项由索非亚大学INSAIT和苏黎世联邦理工学院共同完成的研究,揭示了大语言模型在数学定理证明中普遍存在的"迎合性"问题。研究团队构建了BrokenMath基准测试集,包含504道精心设计的错误数学命题,用于评估主流AI模型能否识别并纠正错误陈述。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
实验室和真实使用测试显示,iPhone Air电池续航能够满足一整天的典型使用需求。在CNET进行的三小时视频流媒体压力测试中,iPhone Air仅消耗15%电量,表现与iPhone 15相当。在45分钟高强度使用测试中表现稍逊,但在实际日常使用场景下,用户反馈iPhone Air能够稳定支撑全天使用,有线充电速度也比较理想。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。