BMW、NTT East、宝洁、三星电子、沃尔玛等公司率先部署EGX平台,为工厂、无线网络和商店提供AI服务
洛杉矶—世界移动通信大会—2019年10月21日—NVIDIA公司今日宣布推出NVIDIA EGX 边缘超级计算平台,这是一款高性能云原生平台,可助力企业利用来自工厂车间、生产检验线和城市街道的快速流数据,以低延迟安全地大规模提供基于AI、IoT和5G的新一代服务。
该平台将NVIDIA CUDA-X软件与NVIDIA认证的GPU服务器和设备相结合,其早期采用者包括沃尔玛、BMW、宝洁、三星电子和NTT East,以及旧金山市和拉斯维加斯市。
NVIDIA创始人兼首席执行官黄仁勋在洛杉矶MWC大会开幕期间的主题演讲中表示:“我们已经迈入新时代,数十亿个全时在线的物联网传感器将通过5G连接,并由AI进行处理。需要一种高度安全、联网、且能够轻松远程操作的新型计算机为此奠定坚实基础。”
他说道:“为此,我们创建了NVIDIA EGX边缘超级计算平台,让计算能够超越个人和云,在全球范围内运行。”
EGX平台的软件可支持广泛的应用,包括用于构建智能视频分析应用的NVIDIA Metropolis,以及刚刚发布的NVIDIA Aerial软件开发者套件。Aerial让电信公司能够构建完全虚拟化、且高度可编程、可扩展、高能效的5G无线接入网络,终极目标是助力其打造智能工厂、AR/VR和云游戏等新服务。
NVIDIA今日还宣布其早期生态系统合作伙伴包括微软、Ericsson和Red Hat。
沃尔玛是率先采用EGX的用户,在位于纽约莱维顿的智能零售实验室部署了EGX,该实验室是一个独特的、全面运营的杂货店,致力于探索AI如何进一步改善店内购物体验。
利用EGX先进的AI和边缘功能,沃尔玛能够对每秒产生的超过1.6TB的数据进行实时计算,并能够使用AI自动提醒员工补货,开放新的结账通道,回收购物车,并确保肉类和生产部门产品的新鲜度。
沃尔玛智能零售实验室首席执行官Mike Hanrahan表示:“沃尔玛致力于通过AI定义零售的未来,并重新思考技术如何进一步提升我们的门店运营方式。借助NVIDIA的EGX边缘计算平台,沃尔玛智能零售实验室能够为我们的门店赋予实时AI计算能力,实现流程自动化,并解放我们的员工,为顾客创造更完善、更便捷的购物体验。”
三星电子也开展了早期EGX部署,致力于将AI应用于高度复杂的半导体设计和制造流程。
三星电子代工销售和营销团队执行副总裁Charlie Bae表示:“三星一直就是GPU计算和AI的早期采用者。NVIDIA的EGX平台让我们能够将这些制造和设计应用顺利地扩展至工厂。”
其他早期部署EGX的企业包括:
NVIDIA EGX生态系统包括全球100多家技术公司,从初创公司到成熟的软件供应商、云服务提供商、以及全球服务器和设备制造商。
为加速向边缘计算的迈进,NVIDIA对其服务器认证计划进行了扩展,采用了新名称NGC-Ready for Edge,即基于NVIDIA T4、Quadro RTX 8000和V100 Tensor Core GPU的系统,这些系统能够在边缘运行要求最为严苛的AI工作负载。Dell Technologies、HPE、联想、QCT和Supermicro等是首批与NVIDIA合作对系统进行认证的公司。如今,来自全球十几家制造商的20多款服务器已经过验证。
领先的混合云合作伙伴Canonical、Cisco、Nutanix、Cisco和VMware均对EGX软件堆栈架构提供支持。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。