Nvidia本周一晚在洛杉矶举行的世界移动通信大会(Mobile World Congress)上宣布最新的EGX Edge超级计算平台全面上市,该平台完全是针对人工智能处理所谓“边缘数据”而打造的。
Nvidia公司创始人兼首席执行官黄仁勋表示,EGX将使企业能够利用工厂车间或者城市街道的快速流数据来大规模且更低延迟地交付“下一代AI、物联网和基于5G的服务”。
他在一份声明中表示:“我们进入了一个新的时代,在这个时代数十亿个永远在线的物联网传感器将通过5G连接并由AI处理。这就需要新型且高度安全、可以在远程轻松操作的联网计算机作为基础。因此,我们打造了Nvidia EGX Edge超级计算平台,让计算超越了个人、超越了云,可以在全球范围内运行。”
使AI能够在智能手机、传感器和工厂机器等边缘设备上运行,这是技术发展的下一个阶段。这在以前是不可能的,由于最早的AI算法非常复杂,只能在运行于云数据中心的强大计算机以进行处理,这就需要通过网络发送大量信息。但这是很麻烦的,因为它需要大量的带宽并会导致更高的延迟,所以很难实现“实时” AI。
企业真正想要的是在生成数据的地方执行AI,无论是在制造设施、零售商店还是在仓库,而这正是Nvidia EGX所瞄准的。它将Nvidia的AI技术与数据中心厂商Mellanox的安全、存储和网络技术进行了结合。Nvidia此前曾表示,计划在年底前以69亿美元的价格收购Mellanox。
EGX平台运行Nvidia Edge Stack,这是针对实时AI服务(例如分析,语音和视觉)进行了优化的软件堆栈。该平台还结合了Nvidia的CUDA-X软件、一系列针对AI的库、工具和技术,以及Nvidia认证的GPU服务器。此外,它还支持用于构建智能城市和智能视频分析应用的框架Nvidia Metropolis。
作为已经在充分使用Nvidia EGX的企业客户之一,德国汽车制造商宝马公司使用EGX从位于南卡罗来纳州制造工厂检测线的多个摄像头和传感器收集数据,以实现所谓的“智能视频分析”。
洛杉矶市也是Nvidia平台的另一个早期采用者,该市利用EGX捕获车辆数据和行人数据,自动管理街道信号计时。
EGX平台的另一个关键,是今天宣布推出的Nvidia Aerial软件开发套件。黄仁勋在主题演讲中表示,Nvidia Aerial对于5G提供商来说至关重要,因为它让5G提供商可以使用EGX来构建和交付“软件定义的高性能5G无线无线电接入网络”,包括从Mellanox网络接口卡到GPU内存的低延迟数据路径,以及5G物理层信号处理引擎,以确保所有数据都保存在GPU内存中。
他表示,电信企业借助Nvidia Aero能够构建完全虚拟化的5G RAN,以支持增强现实、虚拟现实、云游戏和智能工厂等用例。
Nvidia目前已经与瑞典网络公司Telefonaktiebolaget展开合作,建立了全球首个软件定义的5G RAN,而且两家企业正在致力于该技术商业化。
爱立信公司执行副总裁、网络业务负责人Fredrik Jejdling表示:“作为技术领导者,我们拥抱开放性和新平台,在这些平台上我们可以继续创新并突破界限,为客户提供最佳解决方案。我们将与Nvidia共同研究如何将替代解决方案推向市场,以虚拟化完整的无线电接入网络。”
Nvidia还宣布扩大与Red Hat和微软的合作伙伴关系。
首先,Nvidia将向电信企业提供运行在Red Hat OpenShift平台上的高性能、软件定义5G无线基础设施。黄仁勋表示,此举旨在让用户更容易在电信边缘访问AI应用。
同时Nvidia表示,EGX平台正在与微软Azure云紧密集成,以提供更高级的“边缘到云AI计算能力”。两家厂商将专注于智能边缘计算,帮助各个行业的企业组织更好地管理诸如零售商店、仓库、制造厂、联网建筑物和城市基础设施生成的数据,并从中获取洞察。
黄仁勋表示:“全球最大型的那些行业希望将AI计算放在边缘,从连续的数据流中提取洞察,并在行动时感知、推理并采取行动。”
好文章,需要你的鼓励
英特尔携手戴尔以及零克云,通过打造“工作站-AI PC-云端”的协同生态,大幅缩短AI部署流程,助力企业快速实现从想法验证到规模化落地。
意大利ISTI研究院推出Patch-ioner零样本图像描述框架,突破传统局限实现任意区域精确描述。系统将图像拆分为小块,通过智能组合生成从单块到整图的统一描述,无需区域标注数据。创新引入轨迹描述任务,用户可用鼠标画线获得对应区域描述。在四大评测任务中全面超越现有方法,为人机交互开辟新模式。
阿联酋阿布扎比人工智能大学发布全新PAN世界模型,超越传统大语言模型局限。该模型具备通用性、交互性和长期一致性,能深度理解几何和物理规律,通过"物理推理"学习真实世界材料行为。PAN采用生成潜在预测架构,可模拟数千个因果一致步骤,支持分支操作模拟多种可能未来。预计12月初公开发布,有望为机器人、自动驾驶等领域提供低成本合成数据生成。
MIT研究团队发现,AI系统无需严格配对的多模态数据也能显著提升性能。他们开发的UML框架通过参数共享让AI从图像、文本、音频等不同类型数据中学习,即使这些数据间没有直接对应关系。实验显示这种方法在图像分类、音频识别等任务上都超越了单模态系统,并能自发发展出跨模态理解能力,为未来AI应用开辟了新路径。