借助 NVIDIA AI,戴尔、浪潮、Microsoft Azure 和 Supermicro 在今天发布的新 MLPerf 基准测试中创下快速训练 AI 模型的记录。
看看谁刚刚在快速训练 AI 模型方面创下新速度记录:戴尔科技、浪潮、Supermicro和在 MLPerf 基准测试中首次亮相的 Azure 均在使用 NVIDIA AI。
在今天宣布的 MLPerf 训练 1.1 结果中,NVIDIA平台在所有八个热门工作负载中都创下了记录。
图示:在新一轮的测试中,NVIDIA AI 训练所有模型的速度都快于替代方案。
NVIDIA A100 Tensor Core GPU 提供了最出色每芯片性能, Selene 是NVIDIA内部基于模块化NVIDIA DGX SuperPOD架构构建的AI超级计算机,借助NVIDIA InfiniBand网络和NVIDIA软件栈进行扩展,A100在Selene上实现了最快的AI训练速度 。
图示:NVIDIA A100 GPU 在所有八项 MLPerf 1.1 测试中均实现最好的每芯片训练性能。
云服务更上一层楼
根据最新结果,在训练 AI 模型方面,Azure 的 NDm A100 v4 实例的速度遥遥领先。它运行了新一轮的每项测试,扩展到多达 2,048 个 A100 GPU。
Azure 不仅展示了出色性能,而且在美国的六个地区,现在所有人都可以租借和使用其出色性能。
AI 训练是一项需要大量投入的大型工作。NVIDIA希望用户借助他们选择的服务或系统以创纪录的速度训练模型。
因此,NVIDIA将 NVIDIA AI 与面向云服务、主机托管服务、企业和科学计算中心的产品相结合。
服务器制造商各显身手
在 OEM 中,浪潮凭借其八路GPU服务器NF5688M6 和NF5488A5液冷服务器在单节点性能方面创下了最多记录。戴尔和 Supermicro 在四路 A100 GPU 系统上创下了记录。
共有 10 家 NVIDIA 合作伙伴提交了本轮测试结果,其中包含 8 家 OEM 和 2 家云服务提供商。它们占所有提交的 90% 以上。
这是 NVIDIA 生态系统在 MLPerf 训练测试中的第五次亮相,也是到目前为止最出色的亮相。
NVIDIA的合作伙伴之所以积极参与,是因为他们知道 MLPerf 是唯一符合行业标准、经过同行评审的 AI 训练和推理基准测试。对于评估 AI 平台和供应商的客户来说,这是一个有价值的工具。
为速度认证的服务器
百度 PaddlePaddle、戴尔科技、富士通、技嘉科技、慧与、浪潮、联想和 Supermicro 提交了基于本地数据中心的结果(单节点和多节点任务)。
NVIDIA几乎所有的 OEM 合作伙伴都在 NVIDIA 认证系统上运行了测试,NVIDIA为需要加速计算的企业客户验证了服务器。
提交的范围展示了 NVIDIA 平台的广度和成熟度,该平台为各种规模的企业提供最佳的解决方案。
既快速又灵活
NVIDIA AI 是唯一用于提交所有基准测试和用例的平台参与者,这展示了其通用性和高性能。快速灵活的系统提供客户所需的生产力,以加快他们的工作速度。
AI训练基准测试涵盖当今最热门的八个 AI 工作负载和场景,例如计算机视觉、自然语言处理、推荐系统、增强学习等。
MLPerf 测试透明、客观,因此用户可以依靠结果做出明智的购买决策。该行业基准测试组织成立于 2018 年 5 月,得到阿里巴巴、ARM、Google、Intel 和 NVIDIA 等数十家行业领先公司的支持。
三年内加速 20 倍
回顾过去,数据显示,仅在过去 18 个月,NVIDIA A100 GPU 的性能就提升了 5 倍以上。这要归功于软件的持续创新,这也是NVIDIA目前工作的重心。
自从三年前 MLPerf 测试首次亮相,NVIDIA 的性能提高了 20 倍以上。这种大规模加速源于NVIDIA在全栈 GPU、网络、系统和软件方面取得的进步。
图示:NVIDIA AI 在三年内实现了 20 倍以上的改进。
持续改进软件
NVIDIA的新进展来自多项软件改进。
例如,借助一类新的内存复制操作,NVIDIA在针对医学成像的 3D-UNet 基准测试中实现 2.5 倍的操作加速。
得益于微调 GPU 以进行并行处理的方式,NVIDIA在针对物体检测的 Mask R-CNN 测试中实现 10% 的速度提升,而在针对推荐系统的测试中实现了 27% 的提升。NVIDIA只是重叠了独立操作,这种技术尤其适合跨多个 GPU 运行的作业。
NVIDIA扩展了 CUDA 图形的使用范围,尽可能减少与主机 CPU 的通信。得益于此,NVIDIA在针对图像分类的 ResNet-50 基准测试中实现了 6% 的性能提升。
NVIDIA在 NCCL 上实施了两种新技术。NCCL 是NVIDIA的库,用于优化 GPU 之间的通信。对于 BERT 等大型语言模型,这样可以将结果加速高达 5%。
利用NVIDIA工作结果
NVIDIA使用的所有软件均在 MLPerf 仓库提供,因此每个人都可以获得NVIDIA的出色结果。NVIDIA不断将这些优化整合到 NGC(NVIDIA的 GPU 应用程序软件中心)上的容器。
它是全栈平台的一部分,已在新的行业基准测试中得到验证,可从各种合作伙伴处获得,能够处理当今真正的 AI 作业。
好文章,需要你的鼓励
Stripe 年度报告显示,AI 初创企业增长速度远超传统 SaaS 公司。顶级 AI 企业仅用 24 个月就实现 500 万美元年化收入,而 SaaS 公司则需 37 个月。Stripe 认为,将这些初创企业称为"LLM 包装器"忽视了它们在特定行业中的重要价值。报告还指出,垂直 SaaS 仍有巨大潜力,尤其对小企业而言。
根据 BT 的研究,前线和后端的 NHS 员工都明白他们在保护英国健康服务免受网络威胁方面的角色,但只有少数人认为当前的保护措施足够。该研究揭示了公众对网络安全、遗留系统风险和培训缺口的关注。
Microsoft 终于为其免费的生成式 AI 聊天机器人 Copilot 推出了 macOS 应用。这款应用类似于 ChatGPT,可以帮助用户完成多项任务,如起草邮件、总结文档和撰写求职信等。新应用为 Mac 用户提供了专属体验,但需要 macOS 14.0 或更高版本,以及搭载 Apple M1 或更新芯片的 Mac 设备。