在AWS运行NVIDIA GPU十周年之际,AWS发布了采用全新A100的Amazon EC2 P4d实例
十年前,AWS(Amazon Web Services)发布了首个采用NVIDIA M2050 GPU的实例。当时,基于CUDA的应用主要专注于加速科学模拟,AI和深度学习还遥遥无期。

自那时起,AW就不断扩充云端GPU实例阵容,包括K80(p2)、K520(g3)、M60(g4)、V100(p3 / p3dn)和T4(g4)。
现在,已全面上市的全新AWS P4d实例采用最新NVIDIA A100 Tensor Core GPU,开启了加速计算的下一个十年。
全新的P4d实例,为机器学习训练和高性能计算应用提供AWS上性能与成本效益最高的GPU平台。与默认的FP32精度相比,全新实例将FP16机器学习模型的训练时间减少多达3倍,将TF32机器学习模型的训练的时间减少多达6倍。
这些实例还提供出色的推理性能。NVIDIA A100 GPU在最近的MLPerf Inference基准测试中一骑绝尘,实现了比CPU快237倍的性能。
每个P4d实例均内置八个NVIDIA A100 GPU,通过AWS UltraClusters,客户可以利用AWS的Elastic Fabric Adapter(EFA)和Amazon FSx提供的可扩展高性能存储,按需、可扩展地同时访问多达4,000多个GPU。P4d提供400Gbps网络,通过使用NVLink、NVSwitch、NCCL和GPUDirect RDMA等NVIDIA技术,进一步加速深度学习训练的工作负载。EFA上的NVIDIA GPUDirect RDMA在服务器之间可通过GPU传输数据,无需通过CPU和系统内存,从而确保网络的低延迟。
此外,许多AWS服务都支持P4d实例,包括Amazon Elastic Container Services、Amazon Elastic Kubernetes Service、AWS ParallelCluster和Amazon SageMaker。P4d还可使用所有NGC提供的经过优化的容器化软件,包括HPC应用、AI框架、预训练模型、Helm图表以及TensorRT和Triton Inference Server等推理软件。
目前,P4d实例已在美国东部和西部上市,并将很快扩展到其他地区。用户可以通过按需实例(On-Demand)、Savings Plans、预留实例(Reserved Instances)或竞价型实例(Spot Instances)几种不同的方式进行购买。
GPU云计算发展最初的十年,已为市场带来超过100 exaflops的AI计算。随着基于NVIDIA A100 GPU的Amazon EC2 P4d实例的问世,GPU云计算的下一个十年将迎来一个美好的开端。
NVIDIA和AWS不断帮助各种应用突破AI的界限,以便了解客户将如何运用AI强大的性能。
好文章,需要你的鼓励
英特尔携手戴尔以及零克云,通过打造“工作站-AI PC-云端”的协同生态,大幅缩短AI部署流程,助力企业快速实现从想法验证到规模化落地。
意大利ISTI研究院推出Patch-ioner零样本图像描述框架,突破传统局限实现任意区域精确描述。系统将图像拆分为小块,通过智能组合生成从单块到整图的统一描述,无需区域标注数据。创新引入轨迹描述任务,用户可用鼠标画线获得对应区域描述。在四大评测任务中全面超越现有方法,为人机交互开辟新模式。
阿联酋阿布扎比人工智能大学发布全新PAN世界模型,超越传统大语言模型局限。该模型具备通用性、交互性和长期一致性,能深度理解几何和物理规律,通过"物理推理"学习真实世界材料行为。PAN采用生成潜在预测架构,可模拟数千个因果一致步骤,支持分支操作模拟多种可能未来。预计12月初公开发布,有望为机器人、自动驾驶等领域提供低成本合成数据生成。
MIT研究团队发现,AI系统无需严格配对的多模态数据也能显著提升性能。他们开发的UML框架通过参数共享让AI从图像、文本、音频等不同类型数据中学习,即使这些数据间没有直接对应关系。实验显示这种方法在图像分类、音频识别等任务上都超越了单模态系统,并能自发发展出跨模态理解能力,为未来AI应用开辟了新路径。