两家厂商上周在Amazon的年度客户大会AWS re:Invent上亮相,并就正在进行的合作发布了一系列公告。
此次的更新包括Nvidia NIM微服务已经在各种AWS AI服务上可用,将为AI开发人员提供更快的推理速度和更低的延迟,此外还推出了Nvidia的DGX Cloud on AWS,以及AI领域的其他各项发展成果。
对于开发人员来说,最大的新闻就是NIM微服务在AWS上的可用性得到了扩展。
Nvidia NIM让开发人员可以轻松访问一系列易于使用的微服务,从而可以轻松地在任何环境(例如云、本地数据中心和工作站)中部署高性能AI模型推理工作负载。两家厂商表示,通过此次更新,现在开发人员可以从AWS Marketplace、新的AWS Bedrock Marketplace以及Amazon SageMaker Jumpstart访问这些服务,让他们可以更轻松地从他们使用的任何界面部署这些服务。
此外,用户可以把这些微服务部署到多项AWS服务中,包括Amazon Elastic Compute Cloud、Amazon SageMaker和Amazon Elastic Kubernetes Service。
NIM微服务是以预构建容器的形式提供的,附带了多种推理引擎,包括Nvidia Triton Inference Server、Nvidia TensorRT、Nvidia TensorRT-LLM和PyTorch,此外还支持数百种不同的AI模型,包括AWS Bedrock Marketplace中提供的模型、Nvidia自己的AI基础模型以及客户自定义的模型。
DGX Cloud现已上线AWS
除了NIM微服务之外,开发人员还可以访问新的基础设施产品,即Nvidia DGX Cloud。Nvidia DGX Cloud现在可以通过AWS Marketplace Private Offers提供给客户,让客户可以访问完全托管的高性能计算平台,用于训练、定制和部署AI模型。
DGX Cloud是一种云托管的AI超级计算服务,让企业可以访问Nvidia的GPU、训练生成式AI和其他类型应用的高级模型所需的软件。
Nvidia表示,使用DGX Cloud的一个优势就是它具有灵活性的部署条款,客户还可以直接联系Nvidia的专家,他们将随时提供扩展AI部署所需的技术专业知识。
DGX Cloud平台目前为客户提供了对Nvidia最强大的GPU、Nvidia H100和H200的访问路径,并将很快扩展到包括计划于新年推出的下一代Blackwell GPU。
AWS表示,Blackwell芯片将作为GB200 NVL超级计算系统的一部分提供,该系统将受益于其新的液体冷却系统,相比其他云平台具有更高的能效和最高的性能。
AI蓝图、机器人模拟和药物发现
其他与AI相关的公告中,Nvidia表示正在提供很多新的AI Blueprints,可即时部署在AWS上,这些蓝图为视频搜索、容器漏洞分析和文本摘要等任务提供了随时可部署的AI代理,可以轻松集成到现有的开发者工作流程中。
Nvidia表示,这些蓝图将实现很多可能性。例如,开发人员可以使用视频搜索的AI Blueprints快速创建能够实时分析视频的视觉AI代理。然后,它可以为安全团队生成警报,或识别工作场所的健康和安全违规行为,发现生产线上的缺陷产品等等。
Nvidia也在AI机器人方面取得了进展。长期以来,Nvidia一直相信AI有助于实现机器人自动化,从而使它们能够在现实世界中执行更有用的任务,此次更新旨在加速模拟这些用例的方式。
其中的关键是Nvidia Omniverse平台。Nvidia表示,正在Nvidia Omniverse上提供一个参考应用,用于创建逼真的虚拟环境和数字孪生,据称该应用是由其L40S GPU加速的高性能AWS EC2 G6e实例提供支持的,开发人员可以使用它在任何环境中模拟和测试AI机器人,并具有高度逼真的物理效果。
与此同时,Nvidia和AWS也在努力加速AI在新型药物开发领域的应用。他们表示,Nvidia的BioNeMo NIM微服务和用于推进药物发现的AI Blueprints现在搭配AWS HealthOmics一起提供,后者是一种完全托管的生物数据计算和存储服务,旨在支持临床诊断。
两家厂商表示,此次合作扩展了AWS HealthOmics的功能,让研究人员有机会尝试更多的AI模型。
推进量子计算
最后Nvidia表示,正在与AWS合作帮助加速量子计算的发展。Nvidia的Nvidia CUDA-Q平台用于开发跨越传统和量子计算机的“混合量子/经典计算应用”,将集成Amazon Braket服务。
Amazon Braket使用户更容易在量子处理器上设置、监控和执行混合量子-经典算法。Nvidia表示,通过这种集成,CUDA-Q用户就可以利用Amazon Braket的量子资源,而Braket用户将可以利用CUDA-Q的GPU加速工作流程进行开发和模拟。
好文章,需要你的鼓励
本文探讨了如何利用混合智能来超越传统的多元化、公平性和包容性(DEI)议程。作者指出,当前的DEI计划可能加剧分歧,而混合智能则提供了一个统一的框架,强调人类共同的基本维度。文章提出了一个2x4模型,包括4个个人维度和4个集体维度,以此来理解人类经验的普遍性。通过将人工智能与这种自然智能模型相结合,组织可以创造更包容、更有效的工作环境。}
这篇文章介绍了AI芯片初创公司EnCharge的创新技术,该公司声称其模拟人工智能加速器在功耗上仅需传统桌面GPU的一小部分,却能提供相当的计算性能。EnCharge的推理芯片在8位精度下能以1瓦特的功耗提供150 TOPS的AI计算能力。该技术经过多年的研发,旨在通过在内存中进行计算来提高效率,并支持多种AI工作负载。
微软发布了 Majorana 1 量子芯片,这是一个重大突破。该芯片采用拓扑量子比特技术,具有更低的错误率,有望解决量子计算的可扩展性问题。这项技术是微软近 20 年研究的成果,标志着量子硬件取得重要进展,为构建大规模量子计算机铺平了道路。
xAI公司推出的Grok 3模型在各项关键基准测试中表现出色,匹敌或超越了目前最先进的AI模型。尽管训练尚未完成,Grok 3已展现出强大实力。本文探讨了Grok 3可能对AI行业产生的影响,包括加速模型发布周期、验证大规模计算投资的价值,以及推动开源文化的发展等方面。