Supermicro, Inc.作为AI、云端、存储和 5G/边缘领域的全方位 IT 解决方案制造商,今日宣布其正在扩展其人工智能(AI)和高性能计算(HPC)供货量和先进的液冷服务器解决方案。Supermicro在全球的完整机架级供货力,正在凭借位于北美、欧洲和亚洲的数个先进的整合制造厂不断扩大。Supermicro正在积极考虑未来制造的扩张和地点,以满足客户对Supermicro人工智能和高性能计算机架级解决方案产品组合不断增长的需求。
Supermicro总裁暨首席执行官梁见后(Charles Liang)表示:“凭借全球布局蓝图,我们现在能每月提供5,000 台机架,以支持大量要求完全整合的液冷机架,且每机架高达100千瓦的订单。我们预估,随着CPU和GPU的运行温度持续升高,将有多达20%的新数据中心采用液冷解决方案。我们领先的机架级解决方案,由于全球不断增长的人工智能数据中心发展,而有极高的需求。在设计和执行过程的初期,应考虑完整的机架级和液冷服务器解决方案,这将有助缩短供货时间,以满足对人工智能和超大规模数据中心的迫切需求。”
Supermicro维持着高规格“Golden SKU”库存,可以满足全球部署的快速供货需求。对于运行最新生成式人工智能应用的大型云端服务供货商和企业数据中心,将迅速受益于全球供货时间的缩减。Supermicro广泛的服务器范畴,从数据中心到边缘(物联网)皆可完美整合,从而提升采用率并吸引更多客户。
随着近期推出的MGX系列产品,搭载NVIDIA GH200 Grace™ Hopper™超级芯片和NVIDIA Grace™ CPU超级芯片,Supermicro将持续扩展针对人工智能的优化服务器。结合现有的产品线,包括针对大型语言模型优化的NVIDIA HGX 8-GPU解决方案,以及NVIDIA L40S和L4的产品,再加上Intel Data Center MAX GPUs、Intel® Gaudi®2,以及AMD Instinct™ MI系列 GPU,Supermicro能应对所有范畴的人工智能训练和推理应用。Supermicro的All-Flash存储服务器搭载NVMe E1.S和E3.S存储系统,加速了各种人工智能训练应用的数据存取,实现更快速的运行。高性能计算应用方面,搭载GPU的Supermicro SuperBlade可以降低高规模拟应用的运行时间并同时减少功耗。
与现有产业平均水平相比,当液冷技术整合于数据中心时,可将数据中心的电能使用效率(PUE)降低高达 50%。在运行生成式人工智能或高性能计算仿真应用时,减少能源足迹和借此产生较低的电源使用效率,可显著降低数据中心的营运支出。
通过Supermicro提供的机架级整合和部署服务,客户在考虑其独特商业目标的同时,可以从经过验证的参考设计来实现快速安装,并能在之后与通过Supermicro认证的专家合作,共同设计针对特定工作负载的优化解决方案。在服务器交付后,只需将机架连接电源、网络和液冷基础设施,就可实现即插即用解决方案。Supermicro致力于提供完整的数据中心 IT 解决方案,包括现场交付、部署、整合和基准检验,以实现最佳的营运效率。
Supermicro广泛的服务器产品组合包含:
SuperBlade® - Supermicro的高性能、密度优化和节能的多节点平台,专为人工智能、数据分析、高性能计算、云端和企业工作负载进行优化。
支持PCIe GPU 的GPU服务器 -支持先进加速器的系统,能显著提升性能和节省成本。专为高性能计算、人工智能/机器学习、渲染和虚拟桌面基础架构(Virtual Desktop Infrastructure)工作负载而设计。
通用型GPU服务器 - 开放、模块化、基于标准的服务器,透过GPU提供卓越的性能和适用性。支持的GPU规格选项包括最新的PCIe、OAM 和 NVIDIA SXM技术。
Petascale存储 - 具业界领先的存储密度和性能,搭载EDSFF E1.S和E3.S驱动器,能实现在单一1U或2U机箱中的卓越容量和性能。
Hyper - 旗舰性能机架服务器,为应对最具挑战性的工作负载而生,同时提供能满足各式各样客制应用需求的存储和I/O弹性。
Hyper-E - 具备旗舰Hyper系列的强大性能和灵活性,针对边缘环境的优化部署而设计。适合边缘应用的特性,包括短深度机箱和前置I/O,使Hyper-E适用于边缘数据中心和电信机架。
BigTwin® - 2U 2节点或2U 4节点平台,每节点配备双处理器,并具有无需工具即可热插入的设计,提供卓越的密度、性能和适用性。这些系统非常适合用于云端、存储和媒体工作负载。
GrandTwin™ - 专为单处理器性能和内存密度而设计,具有前端(冷通道)热插入节点以及前置或后置I/O,更易于维护。
FatTwin® - 先进、高密度的多节点4U双机架构,具有8或4个为数据中心计算或存储密度进行优化的单处理器节点。
边缘服务器 - 高密度处理能力、采用紧凑机型,其优化机型设计适用于电信机架和边缘数据中心的设置。可选择配置直流电源,以及较高的运行温度,最高可达摄氏55度(华氏131度)。
CloudDC - 适用于云端数据中心的一体化平台,具有弹性的I/O和存储配置,以及双AIOM插槽(支持PCIe 5.0;符合OCP 3.0标准),实现最大数据处理量。
WIO - 提供广泛的I/O搭配选项,以提供真正针对特定企业需求进行优化的系统。
Mainstream - 高性价比的双处理器平台,适用于企业日常工作负载。
企业存储 - 适用于大规模的存储工作负载,利用 3.5 英寸的转动媒介,实现高密度和卓越的总体拥有成本(TCO)。前载和前/后载规格配置能使驱动器能轻松链接,而无需工具的支架则可简化维护。
工作站 - Supermicro工作站以可携式、可置于桌下的机型提供数据中心级的性能,非常适用于办公室、研究实验室和驻外办公室的人工智能、3D设计及媒体和娱乐工作负载。
好文章,需要你的鼓励
虽然软件工程师的平均薪酬比运维工程师高出10%以上,且有更多高薪职位晋升机会,但IT运维职业仍有其独特优势。首先,IT岗位入职门槛较低,约62%的运维工程师拥有本科学历,而开发者这一比例为73%。其次,IT工作更加多样化,从服务器故障排除到战略规划都有涉及。此外,IT工程师能更直接地看到工作成果,与最终用户接触更频繁。IT运维还提供更多样的职业发展路径,可转向网络、数据工程、网络安全等领域。最后,相比软件开发,IT运维工作受AI威胁较小。
微软研究院联合多所知名高校开发出SeerAttention-R稀疏注意力框架,专门优化AI推理模型的长序列解码效率。该技术通过自蒸馏学习让AI学会智能筛选重要信息,在保持近乎无损推理准确性的同时,实现了高达9倍的计算加速。系统采用轻量级插件设计,无需重训原模型即可集成,为长文本AI推理应用的普及铺平道路。
CityFibre宣布其专用企业级以太网服务覆盖范围扩大三倍,现可为超过26万家英国企业提供服务。此次扩展基于专用商用以太网平台,由工程合作伙伴Calix提供支持。该公司声称其以太网价格比主要竞争对手便宜20%。此项投资得益于全国范围内10Gbps XGS-PON技术升级,目前已在85%的网络中实施。
哈工大与阿里巴巴团队合作开发了ComfyUI-R1,这是首个专门用于自动化工作流生成的大型推理模型。该模型通过长链推理思维,能够根据用户自然语言指令自动生成可执行的ComfyUI工作流。在7B参数规模下,ComfyUI-R1达到97%格式正确率,在多项评估指标上显著超越GPT-4o等先进模型,为AI内容创作提供了更智能、更易用的解决方案。