2023 年 8 月 22 日 — NVIDIA 今日宣布,全球领先的系统制造商将推出 AI 就绪型服务器,其支持同于今日发布的 VMware Private AI Foundation with NVIDIA,帮助企业使用自有业务数据来定制和部署生成式 AI 应用。
NVIDIA AI 就绪型服务器将采用 NVIDIA® L40S GPU、NVIDIA BlueField®-3 DPU 和 NVIDIA AI Enterprise 软件使企业能够微调生成式 AI 基础模型并部署生成式 AI 应用,比如智能聊天机器人、搜索和摘要工具等。这些服务器还提供由 NVIDIA 加速的基础设施和软件,以支持 VMware Private AI Foundation with NVIDIA。
作为全球领先的系统制造商的戴尔科技、慧与和联想,将于年底前推出搭载 NVIDIA L40S 的服务器,以加速推进企业级 AI 的发展。
NVIDIA 创始人兼首席执行官黄仁勋表示:“全新的计算时代已经来临,各行各业的企业都在竞相采用生成式 AI。我们正在通过涵盖全球顶尖软件和系统合作伙伴的生态系统,将生成式 AI 带给全球企业。”
对于将部署 VMware Private AI Foundation with NVIDIA 的企业来说,NVIDIA AI 就绪型服务器是一个理想的平台。
VMware 首席执行官 Raghu Raghuram 表示:"生成式 AI 正在大力推动数字化转型进程,企业需要一种全面集成的解决方案,以更加安全地构建应用,从而推动业务发展。通过 VMware、NVIDIA、以及我们服务器制造商合作伙伴的专业知识相结合,企业将能够在确保数据隐私、安全和可控性的前提下开发和部署 AI。
助推企业生成式 AI 转型
各行各业正在竞相将生成式 AI 用于药物研发、零售产品描述、智能虚拟助手、制造模拟、欺诈检测等各种用途,NVIDIA AI 就绪型服务器将为这些行业提供全栈加速基础设施和软件。
这些服务器采用 NVIDIA AI Enterprise,即 NVIDIA AI 平台的操作系统。该软件为 100 多个框架、预训练模型、工具套件和软件提供生产就绪型企业级支持和安全性,包括用于 LLM 的 NVIDIA NeMo™、用于模拟的 NVIDIA Modulus、用于数据科学的 NVIDIA RAPIDS™ 和用于生产型 AI 的 NVIDIA Triton™ 推理服务器。
专为处理包含数十亿参数的复杂 AI 工作负载而打造的 L40S GPU 搭载第四代 Tensor Core 和 FP8 Transformer 引擎,可提供超 1.45 PFLOPS 的张量处理能力,其训练性能是 NVIDIA A100 Tensor Core GPU 的 1.7 倍。
相较于 NVIDIA A100 GPU,NVIDIA L40S 可将智能聊天机器人、助手、搜索和摘要等生成式 AI 应用中的生成式 AI 推理性能提高 1.2 倍。
通过集成 NVIDIA BlueField DPU,可加速、卸载和隔离巨大计算工作负载,其中包含虚拟化、网络、存储、安全,以及其他云原生 AI 服务,以进一步提高速度。
NVIDIA ConnectX®-7 智能网卡提供先进的硬件卸载和超低延迟,可为数据密集型生成式 AI 工作负载提供同类领先的可扩展性能。
推动企业生成式 AI 部署的庞大生态系统
全球领先的计算机制造商正在构建 NVIDIA AI 就绪型服务器,包括戴尔 PowerEdge R760xa、适用于 VMware Private AI Foundation with NVIDIA 的慧与 ProLiant Gen11 服务器以及联想 ThinkSystem SR675 V3。
戴尔科技主席兼首席执行官 Michael Dell 表示:“生成式 AI 是创新的‘催化剂’,将助力解决一些全球性的重大挑战。而采用 NVIDIA AI 就绪型服务器的戴尔生成式 AI 解决方案将扮演至关重要的角色,即通过推动生产力水平实现前所未有的提升,并变革工业运营的方式,以加速人类的进程。”
慧与总裁兼首席执行官 Antonio Neri 表示:“生成式 AI 将推动企业生产力规模的全新扩展 —— 从赋能聊天机器人和数字助理,到帮助设计和开发新的解决方案。我们很高兴能继续与 NVIDIA 密切合作,在一系列企业级调优和推理工作负载解决方案中采用 NVIDIA 的 GPU 和软件,这将加速生成式 AI 的部署。”
联想集团主席兼首席执行官杨元庆表示:“企业迫切希望采用生成式 AI 来推动智能化转型。通过与 NVIDIA 和 VMware 合作,联想正在进一步扩大自身在生成式 AI 领域的领先地位,并巩固自身的独特定位,即在客户采用 AI 的旅程中为其提供帮助。”
供应情况
搭载 L40S GPU 和 BlueField DPU 的 NVIDIA AI 就绪型服务器将于年底前上市,云服务提供商预计将在未来几个月提供实例。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。