BMW、NTT East、宝洁、三星电子、沃尔玛等公司率先部署EGX平台,为工厂、无线网络和商店提供AI服务
洛杉矶—世界移动通信大会—2019年10月21日—NVIDIA公司今日宣布推出NVIDIA EGX 边缘超级计算平台,这是一款高性能云原生平台,可助力企业利用来自工厂车间、生产检验线和城市街道的快速流数据,以低延迟安全地大规模提供基于AI、IoT和5G的新一代服务。
该平台将NVIDIA CUDA-X软件与NVIDIA认证的GPU服务器和设备相结合,其早期采用者包括沃尔玛、BMW、宝洁、三星电子和NTT East,以及旧金山市和拉斯维加斯市。
NVIDIA创始人兼首席执行官黄仁勋在洛杉矶MWC大会开幕期间的主题演讲中表示:“我们已经迈入新时代,数十亿个全时在线的物联网传感器将通过5G连接,并由AI进行处理。需要一种高度安全、联网、且能够轻松远程操作的新型计算机为此奠定坚实基础。”
他说道:“为此,我们创建了NVIDIA EGX边缘超级计算平台,让计算能够超越个人和云,在全球范围内运行。”
EGX平台的软件可支持广泛的应用,包括用于构建智能视频分析应用的NVIDIA Metropolis,以及刚刚发布的NVIDIA Aerial软件开发者套件。Aerial让电信公司能够构建完全虚拟化、且高度可编程、可扩展、高能效的5G无线接入网络,终极目标是助力其打造智能工厂、AR/VR和云游戏等新服务。
NVIDIA今日还宣布其早期生态系统合作伙伴包括微软、Ericsson和Red Hat。
沃尔玛是率先采用EGX的用户,在位于纽约莱维顿的智能零售实验室部署了EGX,该实验室是一个独特的、全面运营的杂货店,致力于探索AI如何进一步改善店内购物体验。
利用EGX先进的AI和边缘功能,沃尔玛能够对每秒产生的超过1.6TB的数据进行实时计算,并能够使用AI自动提醒员工补货,开放新的结账通道,回收购物车,并确保肉类和生产部门产品的新鲜度。
沃尔玛智能零售实验室首席执行官Mike Hanrahan表示:“沃尔玛致力于通过AI定义零售的未来,并重新思考技术如何进一步提升我们的门店运营方式。借助NVIDIA的EGX边缘计算平台,沃尔玛智能零售实验室能够为我们的门店赋予实时AI计算能力,实现流程自动化,并解放我们的员工,为顾客创造更完善、更便捷的购物体验。”
三星电子也开展了早期EGX部署,致力于将AI应用于高度复杂的半导体设计和制造流程。
三星电子代工销售和营销团队执行副总裁Charlie Bae表示:“三星一直就是GPU计算和AI的早期采用者。NVIDIA的EGX平台让我们能够将这些制造和设计应用顺利地扩展至工厂。”
其他早期部署EGX的企业包括:
NVIDIA EGX生态系统包括全球100多家技术公司,从初创公司到成熟的软件供应商、云服务提供商、以及全球服务器和设备制造商。
为加速向边缘计算的迈进,NVIDIA对其服务器认证计划进行了扩展,采用了新名称NGC-Ready for Edge,即基于NVIDIA T4、Quadro RTX 8000和V100 Tensor Core GPU的系统,这些系统能够在边缘运行要求最为严苛的AI工作负载。Dell Technologies、HPE、联想、QCT和Supermicro等是首批与NVIDIA合作对系统进行认证的公司。如今,来自全球十几家制造商的20多款服务器已经过验证。
领先的混合云合作伙伴Canonical、Cisco、Nutanix、Cisco和VMware均对EGX软件堆栈架构提供支持。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。