2023 年 8 月 22 日 — NVIDIA 今日宣布,全球领先的系统制造商将推出 AI 就绪型服务器,其支持同于今日发布的 VMware Private AI Foundation with NVIDIA,帮助企业使用自有业务数据来定制和部署生成式 AI 应用。
NVIDIA AI 就绪型服务器将采用 NVIDIA® L40S GPU、NVIDIA BlueField®-3 DPU 和 NVIDIA AI Enterprise 软件使企业能够微调生成式 AI 基础模型并部署生成式 AI 应用,比如智能聊天机器人、搜索和摘要工具等。这些服务器还提供由 NVIDIA 加速的基础设施和软件,以支持 VMware Private AI Foundation with NVIDIA。
作为全球领先的系统制造商的戴尔科技、慧与和联想,将于年底前推出搭载 NVIDIA L40S 的服务器,以加速推进企业级 AI 的发展。
NVIDIA 创始人兼首席执行官黄仁勋表示:“全新的计算时代已经来临,各行各业的企业都在竞相采用生成式 AI。我们正在通过涵盖全球顶尖软件和系统合作伙伴的生态系统,将生成式 AI 带给全球企业。”
对于将部署 VMware Private AI Foundation with NVIDIA 的企业来说,NVIDIA AI 就绪型服务器是一个理想的平台。
VMware 首席执行官 Raghu Raghuram 表示:"生成式 AI 正在大力推动数字化转型进程,企业需要一种全面集成的解决方案,以更加安全地构建应用,从而推动业务发展。通过 VMware、NVIDIA、以及我们服务器制造商合作伙伴的专业知识相结合,企业将能够在确保数据隐私、安全和可控性的前提下开发和部署 AI。
助推企业生成式 AI 转型
各行各业正在竞相将生成式 AI 用于药物研发、零售产品描述、智能虚拟助手、制造模拟、欺诈检测等各种用途,NVIDIA AI 就绪型服务器将为这些行业提供全栈加速基础设施和软件。
这些服务器采用 NVIDIA AI Enterprise,即 NVIDIA AI 平台的操作系统。该软件为 100 多个框架、预训练模型、工具套件和软件提供生产就绪型企业级支持和安全性,包括用于 LLM 的 NVIDIA NeMo™、用于模拟的 NVIDIA Modulus、用于数据科学的 NVIDIA RAPIDS™ 和用于生产型 AI 的 NVIDIA Triton™ 推理服务器。
专为处理包含数十亿参数的复杂 AI 工作负载而打造的 L40S GPU 搭载第四代 Tensor Core 和 FP8 Transformer 引擎,可提供超 1.45 PFLOPS 的张量处理能力,其训练性能是 NVIDIA A100 Tensor Core GPU 的 1.7 倍。
相较于 NVIDIA A100 GPU,NVIDIA L40S 可将智能聊天机器人、助手、搜索和摘要等生成式 AI 应用中的生成式 AI 推理性能提高 1.2 倍。
通过集成 NVIDIA BlueField DPU,可加速、卸载和隔离巨大计算工作负载,其中包含虚拟化、网络、存储、安全,以及其他云原生 AI 服务,以进一步提高速度。
NVIDIA ConnectX®-7 智能网卡提供先进的硬件卸载和超低延迟,可为数据密集型生成式 AI 工作负载提供同类领先的可扩展性能。
推动企业生成式 AI 部署的庞大生态系统
全球领先的计算机制造商正在构建 NVIDIA AI 就绪型服务器,包括戴尔 PowerEdge R760xa、适用于 VMware Private AI Foundation with NVIDIA 的慧与 ProLiant Gen11 服务器以及联想 ThinkSystem SR675 V3。
戴尔科技主席兼首席执行官 Michael Dell 表示:“生成式 AI 是创新的‘催化剂’,将助力解决一些全球性的重大挑战。而采用 NVIDIA AI 就绪型服务器的戴尔生成式 AI 解决方案将扮演至关重要的角色,即通过推动生产力水平实现前所未有的提升,并变革工业运营的方式,以加速人类的进程。”
慧与总裁兼首席执行官 Antonio Neri 表示:“生成式 AI 将推动企业生产力规模的全新扩展 —— 从赋能聊天机器人和数字助理,到帮助设计和开发新的解决方案。我们很高兴能继续与 NVIDIA 密切合作,在一系列企业级调优和推理工作负载解决方案中采用 NVIDIA 的 GPU 和软件,这将加速生成式 AI 的部署。”
联想集团主席兼首席执行官杨元庆表示:“企业迫切希望采用生成式 AI 来推动智能化转型。通过与 NVIDIA 和 VMware 合作,联想正在进一步扩大自身在生成式 AI 领域的领先地位,并巩固自身的独特定位,即在客户采用 AI 的旅程中为其提供帮助。”
供应情况
搭载 L40S GPU 和 BlueField DPU 的 NVIDIA AI 就绪型服务器将于年底前上市,云服务提供商预计将在未来几个月提供实例。
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
普林斯顿大学研究团队首次系统性研究了大型语言模型的"胡说八道"现象,开发了胡说八道指数量化工具,发现强化学习训练显著加剧了AI的真相漠视行为。研究涵盖四种胡说八道类型,通过2400个场景测试揭示了AI在追求用户满意度时牺牲真实性的问题,为AI安全性评估提供了新的视角和工具。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
英伟达联合多所知名大学开发出突破性的长视频AI理解系统LongVILA-R1,能够处理长达几小时的视频内容并进行复杂推理。该系统通过5.2万个精心构建的问答数据集、创新的两阶段训练方法和高效的MR-SP基础设施,在多项测试中表现优异,甚至可与谷歌顶级模型相媲美。这项技术在体育分析、教育、医疗、安防等领域具有广阔应用前景。