“生成式AI时代和AI的iPhone时刻已经到来”,NVIDIA创始人兼首席执行官黄仁勋在计算机图形大会SIGGRAPH上如是说。
毋庸置疑,当下属于AIGC,其实也属于NVIDIA,正是以ChatGPT为代表的AIGC浪潮将NVIDIA推上了万亿市值的宝座。
而在SIGGRAPH上,NVIDIA带来生成式AI多项创新,比如GH200 Grace Hopper超级芯片平台和NVIDIA AI Workbench全新统一工作空间、NVIDIA AI Enterprise 4.0,将AIGC进行到底。
缺货挡不住新品发布
加速AIGC,GPU必不可少,虽然黄仁勋一直说“买得越多,省得越多。”但是缺货却是不争的事实,不过缺货并不妨碍新品的发布。
NVIDIA除了GPU,还在拓展CPU、DPU,打造“3U一体”的产品矩阵。而Grace Hopper超级芯片从名字可以看出NVIDIA将自家的Grace CPU与GPU进行了融合。
第一代的Grace Hopper超级芯片是NVIDIA开发的基于Arm架构的CPU+GPU集成方案,它将72核的Grace CPU、Hopper GPU、96GB的HBM3和512 GB的LPDDR5X集成在同一个封装中,共有2000亿个晶体管。Grace Hopper超级芯片通过 NVIDIA NVLink-C2C技术将Grace和Hopper架构相结合,为加速AI和HPC应用提供CPU+GPU相结合的一致内存模型。提供了CPU和GPU之间惊人的数据带宽,高达1TB/s。
如今,新一代NVIDIA GH200 Grace Hopper平台也横空出世,其拥有144个Arm Neoverse内核、8petaflops的AI性能和282GB最新HBM3e内存技术。
新平台采用了Grace Hopper超级芯片,可以通过 NVIDIA NVLink与其他超级芯片连接,使它们能够协同工作,从而部署当下大型生成式AI模型。这种高速、一致性技术使GPU可以完全访问CPU内存,在双配置中可提供总计1.2TB的快速内存。
HBM3e内存比当前HBM3快50%,可提供总计10TB/s的带宽。这使得新平台能够运行比上一版本大3.5倍的模型,同时凭借快3倍的内存带宽提升性能。
采用HBM3e的新一代Grace Hopper超级芯片平台与NVIDIA MGX服务器规格完全兼容,可以轻松将Grace Hopper添加到100多款服务器机型中。
新一代Grace Hopper超级芯片平台让NVIDIA在AI性能表现更上一层楼,对于摩尔定律,大家耳熟能详。而透过NVIDIA的产品迭代,黄氏定律在迅猛发展,将单芯片AI推理能力每12个月翻一倍。
开启AI开发的新时代
大语言模型不光带来了AI的狂飙,还给开发者的开发能力带了全新的动能。
不过虽然市面上出现了很多开源的预训练模型,但是要是进行定制开发还是存在很多挑战,你需要在在多个在线资源库中搜索适当的框架、工具和容器,并运用合适的技能为特定用例定制模型。
为了统一AI开发空间,NVIDIA带来了NVIDIA AI Workbench。开发者通过在本地系统上运行的简单界面,从开源资源库和NVIDIA AI平台中获取所有必要的企业级模型、框架、软件开发工具包和库,使用自定义数据对来自Hugging Face、GitHub和NVIDIA NGC等常见资源库的模型进行微调,然后将这些模型扩展到几乎所有数据中心、公有云或NVIDIA DGX Cloud。
Hugging Face社区共享了超过25万个模型和5万个数据集,是AI开发者必去的地方。NVIDIA与Hugging Face一起为数百万开发者提供生成式AI超级计算,帮助他们构建大型语言模型等高级AI应用。开发者将能够使用Hugging Face平台内的NVIDIA DGX Cloud AI超级计算训练和调整高级AI模型。
除了面向开发者,NVIDIA宣布推出最新版本的企业软件平台——NVIDIA AI Enterprise 4.0,为企业提供采用生成式AI所需的工具,同时提供了可靠的生产部署所需的安全性和API稳定性。
NVIDIA AI Enterprise提供了NVIDIA NeMo、NVIDIA Triton管理服务、NVIDIA Base Command Manager Essentials集群管理软件使用户能够在云端、数据中心和边缘构建并运行NVIDIA AI解决方案。这套软件已被证实可在主流NVIDIA认证系统、NVIDIA DGX系统、所有主流云平台以及最新发布的NVIDIA RTX工作站上运行。
NVIDIA AI Enterprise 4.0将在AWS Marketplace、 Google Cloud、Microsoft Azure等合作伙伴的应用市场上架,并通过NVIDIA的云合作伙伴Oracle Cloud Infrastructure提供。
此外,NVIDIA还与ServiceNow、Snowflake、戴尔以及众多的MLOps提供商提供生成式AI解决方案和服务,简化生产级生成式AI模型的开发。
生成式AI来到元宇宙
曾经火热的元宇宙被AIGC抢了风头。NVIDIA Omniverse是面向元宇宙的平台,现在NVIDIA也将生成式AI带到了元宇宙。
NVIDIA Omniverse带来重要更新,包括ChatUSD、RunUSD、DeepSearch、USD-GDN Publisher,方便开发者能够更加流畅地实施和部署OpenUSD流程和应用,以利用OpenUSD框架和生成式AI优化和增强3D流程和虚拟世界。
此外,NVIDIA和Adobe宣布计划将在Omniverse为用户提供Adobe Firefly(Adobe的创作生成式AI模型系列)的API接口,以扩大双方在Adobe Substance 3D、生成式AI和OpenUSD项目方面的合作。
Omniverse用户现在可以构建与其他基于OpenUSD的空间计算平台(例如ARKit和RealityKit)兼容的内容、体验和应用程序。
为了赋能元宇宙的开发与内容创作,NVIDIA推出搭载全新NVIDIA L40S GPU的NVIDIA OVX服务器,通过NVIDIA Omniverse平台,加速计算密集型的复杂应用,包括AI训练与推理、3D设计与可视化、视频处理以及工业数字化等。
NVIDIA还发布了三款全新的桌面工作站基于Ada架构的GPU——NVIDIA RTX 5000、RTX 4500和RTX 4000,为全球专业人员提供最新的AI、图形和实时渲染技术。来自BOXX、戴尔科技、惠普和联想等厂商的全新RTX工作站配备NVIDIA RTX 6000 Ada GPU以及 NVIDIA AI Enterprise和NVIDIA Omniverse Enterprise软件,为生成式AI和数字化时代的开发和内容创建提供更强大的算力。
结语
正像iPhone预示着移动互联网的到来,ChatGPT也拉开了AGI的大幕。NVIDIA在硬件和软件层面持续创新迭代,为生成式AI带来蓬勃发展的动力。
时光不负有心人,星光不负赶路人。虽然我们已经掀开AGI的一角,但是未来需要走的路还很长,这有赖于整个产业链的紧密协同。
好文章,需要你的鼓励
OpenAI 本周为 ChatGPT 添加了 AI 图像生成功能,用户可直接在对话中创建图像。由于使用量激增,CEO Sam Altman 表示公司的 GPU "正在融化",不得不临时限制使用频率。新功能支持工作相关图像创建,如信息图表等,但在图像编辑精确度等方面仍存在限制。值得注意的是,大量用户正在使用该功能创作吉卜力动画风格的图像。
Synopsys 近期推出了一系列基于 AMD 最新芯片的硬件辅助验证和虚拟原型设计工具,包括 HAPS-200 原型系统和 ZeBu-200 仿真系统,以及面向 Arm 硬件的 Virtualizer 原生执行套件。这些创新工具显著提升了芯片设计和软件开发的效率,有助于加快产品上市速度,满足当前 AI 时代下快速迭代的需求。
人工智能正在深刻改变企业客户关系管理 (CRM) 的方方面面。从销售自动化、营销内容生成到客服智能化,AI不仅提升了运营效率,还带来了全新的服务模式。特别是自主代理AI (Agentic AI) 的出现,有望在多渠道无缝接管客户服务职能,开创CRM发展新纪元。
数据孤岛长期困扰着组织,影响着人工智能的可靠性。它们导致信息分散、模型训练不完整、洞察力不一致。解决方案包括实施强大的数据治理、促进跨部门协作、采用现代数据集成技术等。克服数据孤岛对于充分发挥AI潜力至关重要。