HPE与英伟达表示正为客户提供构建模块,可用于组装同布里斯托大学Isambard-AI超级计算机同架构的迷你版本,用以训练生成式AI和深度学习项目。
10月19日 - 10月20日,由 NVIDIA 主办的 NVIDIA 初创企业展示 · 半程展示在雅安大数据产业园成功举办。
对于过去几代产品而言,两年一更新的速度足以保持竞争优势。但根据本月早些时候投资者们看到的演示文稿,英伟达手中除了B100这张王牌,还有将Arm核心与Blackwell架构匹配打造的全新“超级芯片”,外加L40及L40S的迭代产品。
英伟达宣布与量子计算芯片厂商SEEQC建立合作,在量子计算机与GPU之间开发首个芯片到芯片的数字链接,并确保与一切量子计算范式相兼容。
Omdia发布统计,认为在一定时期之内,服务器市场将继续以GPU为最主要的核心组件。这家市场研究机构估计,单英伟达H100 GPU这一款产品在今年第二季度的出货量就超过了900吨。
最近一段时间,Hot Interconnects、Hot Chips、Google Cloud Next和Meta Networking@Scale等重量级会议先后亮相。借此机会,我们打算通过本文以更有条理的方式对资讯亮点做一番整理,聊聊并深入分析我们听到和看到的这些丰富内容。
Mipsology的团队将帮助AMD提高该公司CPU、GPU和自适应芯片的人工智能软件开发方面的推理能力。
VMware 与NVIDIA 为企业开启生成式AI时代打开了一条快速通道,赋予私有化部署生成式AI的能力,帮助企业获取AI应用的差异化优势。
如果情况真如英伟达及其他众多科技企业预料的那样,即大语言模型会成为新的编程模型基础,那么混合CPU-GPU计算引擎就将是新的通用计算平台。
英伟达创始人兼首席执行官黄仁勋在SIGGRAPH年会上发布了专为生成式 AI 打造的下一代 GH200 Grace Hopper 平台
英伟达今天首次推出了GH200 Grace Hopper芯片的升级版,它将使企业能够运行更复杂的语言模型。
近日微软表示,ND H100 v5虚拟机系列将上线Azure云平台,为客户训练和运行大模型提供支持。
Amazon EC2 P5实例则采用8个英伟达H100 Tensor Core GPU,具有640 GB高带宽GPU内存,同时提供第三代AMD EPYC处理器、2TB系统内存和30TB本地NVMe存储。
英伟达正在和英特尔合作,利用Intel Trust Domain Extensions和英特尔的可信服务“Amber项目”为英伟达H100 GPU提供扩展认证服务。“Amber项目”旨在帮助客户部署保密人工智能解决方案。
美国南方卫理公会大学使用 NVIDIA DGX SuperPOD 推动德克萨斯州北部地区进入 AI 时代;密西西比州立大学和德克萨斯农工大学准备使用 NVIDIA Quantum-2 网络;英国的一所大学则升级了其 InfiniBand 网络