Supermicro, Inc.作为AI、云端、存储和 5G/边缘领域的全方位 IT 解决方案制造商,今日宣布其正在扩展其人工智能(AI)和高性能计算(HPC)供货量和先进的液冷服务器解决方案。Supermicro在全球的完整机架级供货力,正在凭借位于北美、欧洲和亚洲的数个先进的整合制造厂不断扩大。Supermicro正在积极考虑未来制造的扩张和地点,以满足客户对Supermicro人工智能和高性能计算机架级解决方案产品组合不断增长的需求。
Supermicro总裁暨首席执行官梁见后(Charles Liang)表示:“凭借全球布局蓝图,我们现在能每月提供5,000 台机架,以支持大量要求完全整合的液冷机架,且每机架高达100千瓦的订单。我们预估,随着CPU和GPU的运行温度持续升高,将有多达20%的新数据中心采用液冷解决方案。我们领先的机架级解决方案,由于全球不断增长的人工智能数据中心发展,而有极高的需求。在设计和执行过程的初期,应考虑完整的机架级和液冷服务器解决方案,这将有助缩短供货时间,以满足对人工智能和超大规模数据中心的迫切需求。”
Supermicro维持着高规格“Golden SKU”库存,可以满足全球部署的快速供货需求。对于运行最新生成式人工智能应用的大型云端服务供货商和企业数据中心,将迅速受益于全球供货时间的缩减。Supermicro广泛的服务器范畴,从数据中心到边缘(物联网)皆可完美整合,从而提升采用率并吸引更多客户。
随着近期推出的MGX系列产品,搭载NVIDIA GH200 Grace™ Hopper™超级芯片和NVIDIA Grace™ CPU超级芯片,Supermicro将持续扩展针对人工智能的优化服务器。结合现有的产品线,包括针对大型语言模型优化的NVIDIA HGX 8-GPU解决方案,以及NVIDIA L40S和L4的产品,再加上Intel Data Center MAX GPUs、Intel® Gaudi®2,以及AMD Instinct™ MI系列 GPU,Supermicro能应对所有范畴的人工智能训练和推理应用。Supermicro的All-Flash存储服务器搭载NVMe E1.S和E3.S存储系统,加速了各种人工智能训练应用的数据存取,实现更快速的运行。高性能计算应用方面,搭载GPU的Supermicro SuperBlade可以降低高规模拟应用的运行时间并同时减少功耗。
与现有产业平均水平相比,当液冷技术整合于数据中心时,可将数据中心的电能使用效率(PUE)降低高达 50%。在运行生成式人工智能或高性能计算仿真应用时,减少能源足迹和借此产生较低的电源使用效率,可显著降低数据中心的营运支出。
通过Supermicro提供的机架级整合和部署服务,客户在考虑其独特商业目标的同时,可以从经过验证的参考设计来实现快速安装,并能在之后与通过Supermicro认证的专家合作,共同设计针对特定工作负载的优化解决方案。在服务器交付后,只需将机架连接电源、网络和液冷基础设施,就可实现即插即用解决方案。Supermicro致力于提供完整的数据中心 IT 解决方案,包括现场交付、部署、整合和基准检验,以实现最佳的营运效率。

Supermicro广泛的服务器产品组合包含:
SuperBlade® - Supermicro的高性能、密度优化和节能的多节点平台,专为人工智能、数据分析、高性能计算、云端和企业工作负载进行优化。
支持PCIe GPU 的GPU服务器 -支持先进加速器的系统,能显著提升性能和节省成本。专为高性能计算、人工智能/机器学习、渲染和虚拟桌面基础架构(Virtual Desktop Infrastructure)工作负载而设计。
通用型GPU服务器 - 开放、模块化、基于标准的服务器,透过GPU提供卓越的性能和适用性。支持的GPU规格选项包括最新的PCIe、OAM 和 NVIDIA SXM技术。
Petascale存储 - 具业界领先的存储密度和性能,搭载EDSFF E1.S和E3.S驱动器,能实现在单一1U或2U机箱中的卓越容量和性能。
Hyper - 旗舰性能机架服务器,为应对最具挑战性的工作负载而生,同时提供能满足各式各样客制应用需求的存储和I/O弹性。
Hyper-E - 具备旗舰Hyper系列的强大性能和灵活性,针对边缘环境的优化部署而设计。适合边缘应用的特性,包括短深度机箱和前置I/O,使Hyper-E适用于边缘数据中心和电信机架。
BigTwin® - 2U 2节点或2U 4节点平台,每节点配备双处理器,并具有无需工具即可热插入的设计,提供卓越的密度、性能和适用性。这些系统非常适合用于云端、存储和媒体工作负载。
GrandTwin™ - 专为单处理器性能和内存密度而设计,具有前端(冷通道)热插入节点以及前置或后置I/O,更易于维护。
FatTwin® - 先进、高密度的多节点4U双机架构,具有8或4个为数据中心计算或存储密度进行优化的单处理器节点。
边缘服务器 - 高密度处理能力、采用紧凑机型,其优化机型设计适用于电信机架和边缘数据中心的设置。可选择配置直流电源,以及较高的运行温度,最高可达摄氏55度(华氏131度)。
CloudDC - 适用于云端数据中心的一体化平台,具有弹性的I/O和存储配置,以及双AIOM插槽(支持PCIe 5.0;符合OCP 3.0标准),实现最大数据处理量。
WIO - 提供广泛的I/O搭配选项,以提供真正针对特定企业需求进行优化的系统。
Mainstream - 高性价比的双处理器平台,适用于企业日常工作负载。
企业存储 - 适用于大规模的存储工作负载,利用 3.5 英寸的转动媒介,实现高密度和卓越的总体拥有成本(TCO)。前载和前/后载规格配置能使驱动器能轻松链接,而无需工具的支架则可简化维护。
工作站 - Supermicro工作站以可携式、可置于桌下的机型提供数据中心级的性能,非常适用于办公室、研究实验室和驻外办公室的人工智能、3D设计及媒体和娱乐工作负载。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。