【2022 年 5 月 23 日美国加州圣何塞2022 年台北国际电脑展线上展讯】Super Micro Computer, Inc. (Nasdaq:SMCI) 为企业级计算、储存、网络解决方案和绿色计算技术等领域的全球领导者,计划将NVIDIA Grace CPU 超级芯片部署至针对AI、HPC、资料分析、数字孪生(Digital Twins)和计算密集型应用优化的各种服务器中。随着人工智能(AI)技术逐步跨产业发展,Supermicro 服务器将通过采用NVIDIA Grace CPU 超级芯片,让更广泛的开发人员和IT 管理员都能使用这项新技术。Supermicro 服务器将针对能源效率进行优化,协助降低运营成本,成为所有数据中心的基准。此外,靠着高达每秒1 TB 的内存带宽,应用程序将不再受通信速度的限制。最初将从2U 2 节点产品组合开始提供限量的服务器,之后则会扩充产品系列。
Supermicro首席执行官暨总裁梁见后Charles Liang 表示:“Supermicro正在开发搭载NVIDIA Grace CPU 超级芯片的全新服务器平台,通过采用我们创新的Building Block Solutions®,我们计划推出不同类型的服务器,针对各种特定的工作负载优化。Supermicro 将以我们的绿色计算DNA 为基础,打造最先进的节能型服务器,满足严苛的数据中心要求。我们首款推出的全新系统可迅速应对快速扩展的AI、HPC 和数据分析的市场。”
NVIDIA 加速计算部资深主管Paresh Kharya 表示:“NVIDIA 长久以来与Supermicro密切合作,在最短的时间内将创新产品推向市场。所推出搭载NVIDIA Grace CPU 超级芯片的Supermicro 服务器将优化各种工作负载,满足现代数据中心的各种需求。”
Supermicro 的全方位 IT 解决方案旨在为客户提供一站式体验,满足其各种IT 需求。Supermicro 测试并集成软硬件组合确保服务器或机柜级设计满足IT 专业人员当下及未来的需求。为了持续实行计划,Supermicro将在针对HPC、AI 和数据分析工作负载优化的解决方案中集成NVIDIA Grace CPU 超级芯片。具体来说,NVIDIA Grace CPU 超级芯片能与最新的PCIe Gen5 通信协议连接,实现与NVIDIA Quantum-2 InfiniBand 平台或 NVIDIA Spectrum 以太网每秒400 Gb 的最佳连接,包括 NVIDIA ConnectX®-7 智能网络适配器和NVIDIA BlueField-3 DPU,用于执行安全且加速的HPC 和 AI 工作负载。
Supermicro和NVIDIA合作多年,携手为广大的用户群提供最先进的图像、HPC 和 AI 加速器。在全新 NVIDIA Grace CPU 超级芯片的助力下,包括 NVIDIA AI Enterprise 在内的整个NVIDIA 软件堆栈将在即将推出的Supermicro 服务器上运作流畅。Supermicro 也将继续支持NVIDIA Omniverse Enterprise,协助加速工业虚拟世界和数字孪生的3D 设计协作与模拟。
好文章,需要你的鼓励
开放闪存平台(OFP)旨在用直接访问的闪存盒替代全闪存阵列,每个闪存盒配备控制器DPU、Linux系统和并行NFS软件。该倡议由Hammerspace主导,针对新云、超大规模和AI公司在数据中心设计演进中面临的基础设施限制。OFP通过结合IPU/DPU技术、闪存优化机箱和Linux协议,提供高密度、低功耗的存储解决方案,满足AI应用从PB级向EB级数据容量需求的扩展。
MBZUAI研究团队发布了史上最大的开源数学训练数据集MegaMath,包含3716亿个Token,是现有开源数学数据集的数十倍。该数据集通过创新的数据处理技术,从网页、代码库和AI合成等多个来源收集高质量数学内容。实验显示,使用MegaMath训练的AI模型在数学推理任务上性能显著提升,为AI数学能力发展提供了强大支撑。
ERP系统市场近年来相对稳定,但AI正在改变一切。供应商们正竞相在产品组合中嵌入AI功能,构建包括可组合应用、集中数据存储和可扩展云平台的生态系统。Oracle凭借AI投资超越SAP成为ERP收入领导者,而AI代理已从实验阶段进入实际应用,能够管理整个工作流程并进行自动化决策。本文盘点了Oracle、SAP、微软等十大最具影响力的ERP厂商及其AI战略。
这项由多个知名机构联合开展的研究揭示了AI系统的"隐形思维"——潜在推理。不同于传统的链式思维推理,潜在推理在AI内部连续空间中进行,不受语言表达限制,信息处理能力提升约2700倍。研究将其分为垂直递归和水平递归两类,前者通过重复处理增加思考深度,后者通过状态演化扩展记忆容量。